Justerad R i kvadrat (Justerad bestämningskoefficient)

Innehållsförteckning:

Justerad R i kvadrat (Justerad bestämningskoefficient)
Justerad R i kvadrat (Justerad bestämningskoefficient)
Anonim

Den justerade R-kvadraten (eller justerad bestämningskoefficient) används i multipel regression för att se graden av intensitet eller effektivitet hos de oberoende variablerna för att förklara den beroende variabeln.

I enklare ord berättar den justerade R-kvadraten vilken procentandel av variationen av den beroende variabeln som förklaras kollektivt av alla oberoende variabler.

Användningen av denna koefficient är berättigad genom att när vi lägger till variabler till en regression tenderar den icke justerade bestämningskoefficienten att öka. Även när det marginella bidraget för var och en av de nya tillagda variablerna inte har någon statistisk relevans.

Därför, genom att lägga till variabler i modellen, kan bestämningskoefficienten öka och vi kan felaktigt tro att den valda uppsättningen variabler kan förklara en större del av variationen hos den oberoende variabeln. Detta problem är allmänt känt som ”modellöverskattning”.

VariationskoefficientRegressionsanalys

Justerad formel för bestämningskoefficient

För att lösa problemet som beskrivs ovan föreslår många forskare att man justerar bestämningskoefficienten med hjälp av följande formel:

R2 till → Justerad R i kvadrat eller justerad bestämningskoefficient

R2 → R kvadrat eller bestämningskoefficient

n → Antal observationer i urvalet

k → Antal oberoende variabler

Med tanke på att 1-R2 är ett konstant tal och eftersom n är större än k, när vi lägger till variabler i modellen, blir kvoten inom parentes större. Följaktligen. också resultatet av att multiplicera detta med 1-R2 . Med vilken vi ser att formeln är byggd för att justera och straffa införandet av koefficienter i modellen.

Förutom den tidigare fördelen tillåter justeringen som användes i föregående formel oss också att jämföra modeller med olika antal oberoende variabler. Återigen justerar formeln antalet variabler mellan en modell och en annan och gör det möjligt för oss att göra en homogen jämförelse.

Återgå till föregående formel kan vi dra slutsatsen att den justerade bestämningskoefficienten alltid kommer att vara lika med eller mindre än koefficienten R2. Till skillnad från bestämningskoefficienten som varierar mellan 0 och 1, kan den justerade bestämningskoefficienten vara negativ av två skäl:

  • Ju närmare k närmar sig n.
  • Ju lägre bestämningskoefficient.
Linjär korrelationskoefficient