begreppet frihetsgrader är centralt för principen att uppskatta statistik över populationer från prover av dem. ”Frihetsgrader” förkortas vanligen till DF.
Tänk på df som en matematisk begränsning som måste införas vid uppskattning av en statistik från en uppskattning av en annan.
låt oss ta ett exempel på data som har dragits slumpmässigt från en normal distribution. Normalfördelning behöver endast två parametrar (medel-och standardavvikelse) för sin definition, t. ex., standard normalfördelningen har ett medelvärde på 0 och standardavvikelse (sd) på 1. Populationsvärdena för medelvärde och sd kallas mu respektive sigma, och provskattningarna är x-bar och s.
för att uppskatta sigma måste vi först ha uppskattat mu. Således ersätts mu av x-bar i formeln för sigma. Med andra ord arbetar vi med avvikelserna från mu som uppskattas av avvikelserna från x-bar. Vid denna tidpunkt måste vi tillämpa den begränsning som avvikelserna måste summera till noll., Således är frihetsgrader n-1 i ekvationen för s nedan:
standardavvikelse i en population:
uppskattningen av populationsstandardavvikelsen beräknad från ett slumpmässigt prov är:
När denna princip för begränsning tillämpas på regression och analys av varians är det allmänna resultatet att du kan få en förlora en grad av frihet för varje parameter som uppskattas innan man uppskattar (rest) standardavvikelsen.,
ett annat sätt att tänka på begränsningsprincipen bakom frihetsgrader är att föreställa sig oförutsedda händelser. Tänk dig till exempel att du har fyra nummer (a, B, C och d) som måste lägga till upp till totalt m; du är fri att välja de tre första siffrorna slumpmässigt, men den fjärde måste väljas så att den gör summan lika med m – så din grad av frihet är tre.
Lämna ett svar