Multikollinearitet - Vad är det, definition och koncept

Innehållsförteckning:

Multikollinearitet - Vad är det, definition och koncept
Multikollinearitet - Vad är det, definition och koncept
Anonim

Multikollinearitet är det starka linjära beroendeförhållandet mellan mer än två förklarande variabler i en multipel regression som bryter mot Gauss-Markov-antagandet när det är exakt.

Med andra ord är multikollinearitet den höga korrelationen mellan mer än två förklarande variabler.

Vi betonar att den linjära relationen (korrelation) mellan förklarande variabler måste vara stark. Det är mycket vanligt att de förklarande variablerna för regressionen är korrelerade. Så det bör påpekas att detta förhållande måste vara starkt, men aldrig perfekt, för att det ska betraktas som ett fall av multikollinearitet. Det linjära förhållandet skulle vara perfekt om korrelationskoefficienten var 1.

När detta starka linjära (men inte perfekta) förhållande bara förekommer mellan två förklarande variabler, säger vi att det är ett fall av kollinearitet. Det skulle vara multikollinearitet när det starka linjära sambandet uppstår mellan mer än två oberoende variabler.

Gauss-Markov-antagandet om exakt icke-multikollinearitet definierar att de förklarande variablerna i ett urval inte kan vara konstanta. Vidare bör det inte finnas några exakta linjära förhållanden mellan förklarande variabler (ingen exakt multikollinearitet). Gauss-Markov tillåter oss inte exakt multikollinearitet, utan approximerar multikollinearitet.

Regressionsanalys

Applikationer

Det finns mycket speciella fall, vanligtvis orealistiska, där regressionsvariablerna är helt orelaterade till varandra. I dessa fall talar vi om exogeniteten hos de förklarande variablerna. Samhällsvetenskapen är i allmänhet känd för att integrera ungefärlig multikollinearitet i sina regressioner.

Exakt multikollinearitet

Exakt multikollearitet uppstår när mer än två oberoende variabler är en linjär kombination av andra oberoende variabler i regressionen.

Problem

När Gauss Markov förbjuder exakt multikollinearitet beror det på att vi inte kan uppskatta beräkningen av vanliga minsta kvadrater (OLS).

Matematiskt uttrycker den uppskattade beta-sub-i i matrisform:

Så om det finns exakt multikollinearitet orsakar det att matrisen (X'X) har en determinant 0 och därför inte är inverterbar. Att inte vara inverterbar innebär att man inte kan beräkna (X'X)-1 och följaktligen varken uppskattad Beta-under-i.

Ungefärlig multikollinearitet

Ungefärlig multikollinearitet uppstår när mer än två oberoende variabler inte är exakt (approximation) en linjär kombination av andra oberoende variabler i regressionen.

Variabeln k representerar en slumpmässig variabel (oberoende och identiskt fördelad (i.i.d)). Frekvensen för dina observationer kan på ett tillfredsställande sätt approximeras till en normal normalfördelning med medelvärde 0 och varians 1. Eftersom det är en slumpmässig variabel, innebär det att i varje observation i kommer värdet av k att vara annorlunda och oberoende av något tidigare värde.

Problem

Matematiskt uttryckande i matrisform:

Så om det finns ungefärlig multikollinearitet orsakar det att matrisen (X'X) är ungefär 0 och bestämningskoefficienten mycket nära 1.

Lösning

Multikollinearitet kan minskas genom att eliminera regressorerna för variablerna med ett högt linjärt förhållande mellan dem.

Linjär korrelationskoefficient