Professional Documents
Culture Documents
Kapitulli 6. Multikolighneriteti
Kapitulli 6. Multikolighneriteti
Kapitulli 6
STUDIMI I MULTIKOLINEARITETIT
Sic e pame nje nga supozimet e modelit klasik linear te regresionit eshte qe nuk ka
multikolinearitet perfekt, pra lidhje ekzakte lineare midis variablave te pavarur x , te
perfshire ne nje regresion te shumefishte. Spjeguam ne menyre intuitive kuptimin e
multikolinearitetit perfekt dhe arsyet per supozimin pse s`mund te ekzistoje ne
popullimin e regresionit te shumefishte.
Ne kete kapitull ne do te studiojme me nga afer temen e multikolinearitetit . Praktikisht
ndeshemi rralle me multikolinearitet perfekt , por raste multikolineariteti shume te larte
(ku variblat e pavarur jane perafersisht te lidhur linearisht) shpesh dalin ne shume
aplikime. Eshte e rendesishme te njohesh se cfare problemesh, keto variabla te korreluar,
do te shkaktojne per vleresuesite parametrave te modeleve te regresionit te shumefishte,
te gjetur me MKV. Nje analize e plote e multikolineritetit do te behej ne se do te mund
t`u pergjigjemi pyetjeve te meposhtme :
1-Cila eshte natyra e multikolinearitetit ?
2-A eshte multikolineariteti vertet nje problem ?
3-Cilat jane pasojat teorike te multikolinearitetit?
4-Cilat jane pasojat praktike te multikolinearitetit?
5-Si mund, praktikisht, ta zbulojme multikolinearitetin?
6-Nese deshirohet te eliminohet problemi i multikolinearitetit, cilat masa rregulluese
jane te realizueshme?
X1
(cmimi)
1
2
3
4
5
6
7
8
9
10
X2
(te ardhurat javore)
298
296
294
292
290
288
286
284
282
280
X3
( te ardhura javore)
297.5
294.9
293.5
292.8
290.2
289.7
285.8
284.6
281.1
278.8
yi = 0 + 1 x1i + 2 x2i + ui
(6.1)
yi = 0 + 1 x1i + 2 x3i + ui
(6.2)
r2 =1
(6.3)
(6.4)
(6.5)
(6.6)
c0 = 0 + 300 2
c1 = 1 2 2
Ne nuk mund te vleresonim (6.1) por me sa tregon (6.4) ne nuk kemi me nje regresion te
shumefishte, por nje regresion te thjeshte me dy variabla midis y dhe x1 . Tani, edhe pse
ne mund te vleresojme (6.4) dhe te perftojme vleresimet e c0 dhe c1 , nga keto dy vlera
ne s`mund te marrim vleresimet e parametrave fillestare 0 , 1 , 2 , pasi ne kemi 2
ekuacione, por ka 3 te panjohura per te vleresuar.
Rezultatet e vleresimit te regresionit (6.4) thuajse jepen ne:
i = 49.667 2.1576X1i
se = (0.746) (0.1203)
t = (66.538) (-17.935)
r2 = 0.9757
(6.7)
Sic mund ta shohim c0=49.667dhe c1=(-2.1576), nga keto dy vlera ne asnje menyre ne
s`mund te perftojme vlerat e tre te panjohurave 0 , 1 , 2 .
Perfundimi i diskutimit te mesiperm eshte qe ne raste te lidhjes perfekte lineare ose
multikolinearitetit midis variablave te pavarur , ne s`mund te perftojme vleresime unike
te te gjithe parametrave. Perderisa nuk kemi vleresimet e tyre unike, ne nuk mund te
skicojme asnje konkluzion statistikor rreth tyre nga nje model i dhene.
Pra, ne raste te multikolinearitetit perfekt, vleresimi dhe testimi i hipotezave mbi
koeficientet individuale te regresionit ne nje regresion te shumefishte, nuk eshte i
mundur. Sigurisht, ashtu si ek.(6.5)dhe (6.6) tregojne, ne mund te perftojme vleresime te
nje kombinimi linear te koeficienteve origjinale por jo secilin prej tyre individualisht.
(6.8)
R2=0.9778
(6.9)
r =0.9884
Sic tregon dhe ky regresion, cmimi dhe te ardhurat jane fort te koreluar, koeficienti i
korrelacionit eshte -0.9884. Ky eshte rasti i nje lidhje pothuajse perfekte lineare ose
pothuaj multikolinearitet perfekt. Nese koeficienti i korelacionit do te ishte -1, si ne
ek.(6.3), ky do te kishte qene rasti i multikolinearitetit perfekt.Vereni me kujdes ne
ek.(6.3) ne nuk e shtuam ei sepse lidhja lineare midis X1i dhe X2i eshte perfekte, kurse ne
ek.(1.9) e kemi shtuar ate per te treguar se lidhja midis X3i dhe X1i nuk eshte perfekte. Pra
veme re se, nese jane vetem dy variabla te pavarur, koeficienti i korrelacionit r mund te
perdoret si mase e shkalles ose fortesise se kolinearitetit. Por nese perfshihen me shume
se dy variabla, sic do te tregojme me vone, koeficienti i korrelacionit mund te mos jete
nje mase e pershtatshme e kolinearitetit.
R =0.9791
(6.10)
(6.11)
R =0.9400
6.4-ZBULIMI I MULTIKOLINEARITETIT
Sic u tregua ne pjesen e meparshme, pasojat praktike te multikolinearitetit mund te jene
te largeta, pavaresisht vetive te BLUE. Pra, cmund te bejme per te zgjidhur problemin e
multikolinearitetit? Por para se ta zgjidhim ate, ne duhet fillimisht te gjejme nese kemi
nje problem kolineariteti. Shkurt, si e zbulojme pranine dhe rendesine e
multikolinearitetit? Tani lind nje problem, pasi sic e pame multikolineariteti eshte
specifik zgjedhjeje, pra eshte nje fenomen i saj. Ketu eshte e nevojshme te mbajme mend
paralajmerimet e meposhtme :
1. Multikolineariteti eshte nje ceshtje shkalle dhe jo lloji. Dallimi thelbesor nuk eshte
midis pranise apo mungeses se multikolinearitetit, por midis shkalleve te ndryshme
te tij.
2. Perderisa multikolineariteti i referohet kushtit te variablave te pavarur, qe
supozohet te jene te paderivuar, ai eshte nje karakteristike e zgjedhjes dhe jo e
popullimit. Prandaj ne nuk kontrollojme per multikolinearitet, por mundemi, nese
duam, te matim shkallen e tij ne cdo model te vecante.
Na duhet te shtojme menjehere se nuk kemi nje mates te vetem multikolineariteti,
keshtu ne te dhenat e mbledhura joeksperimentalisht ne s`mund te jemi kurre te sigurt
rreth natyres dhe shkalles se kolinearitetit. Ajo cka ne disponojme jane disa rregulla
elementare ose tregues qe do te na sigurojne celesa rreth ekzistences se multikolinearitetit
ne aplikime konkrete. Disa prej ketyre treguesve jane :
1-R2 i larte, por pak raporte t te rendesishme.
Sic e theksuam, kjo eshte simptoma klasike e multikolinearitetit.Nese R2 eshte e larte
le te themi mbi 0.8, testimi me F ne shumicen e rasteve do te hedhe poshte hipotezen
baze qe koeficientet e pjesshem jane njekohesisht baraz me zero. Por testimi individual
me t do te tregoje qe asnje ose shume pak koeficiente te pjesshem kendore jane
statistikisht te ndryshem nga zero. Regresioni yne (6.8) e verteton kete plotesisht.
2-Korelacione te larte ciftesh midis variablave te pavarur.
Nese ne nje regresion te shumefishte qe perfshin, le te themi 6 variabla te pavarur, ne
llogarisim koeficientin e korelacionit midis cdo cifti variablash duke perdorur formulen
dhe nese disa nga keto korelacione jane te larte, te themi mbi 0.8, ka mundesi te ekzistoje
kolinearitet serioz . Fatkeqesisht ky kriter nuk eshte shpesh i besueshem, por ka raste
kur korelacioni i cifteve mund te jete i ulet (duke sugjeruar mungese kolineariteti serioz),
dhe ende kolineariteti eshte i dyshueshem sepse shume pak raporte t jane statistikisht te
rendesishem.
3-Shqyrtimi i korelacionit te pjesshem.
Supozoni se kemi tre variabla te pavarur X1,X2 dhe X3. Le te perfaqesojne r12, r13 dhe r23
korelacionet e cifteve perkatesisht midis X1 dhe X2, X1 dhe X3, X2 dhe X3. Supozojme
r12=0.90, qe tregon kolinearitet te larte midis X1 dhe X2. Nese koeficienti i korelacionit, i
0.90
0.18
0.36
0.86
0.09
0.24
Rezultatet e aplikimit te kriterit F jane dhene ne tabelen (2). Sic e tregon kjo tabele
variablat X1, X3, X4 dhe X6 duket se jane kolineare me X-et e tjere, megjithese shkalla e
kolinaritetit e matur nga R2 varion konsiderueshem. Ky shembull tregon faktin e
rendesishem qe nje R2=0.36 qe duket si e ulet, mund te jete statistikisht e ndryshme nga
zero. Teknika e regresionit ndihmes mbart ne vetvete nje mangesi. Nese nje regresion
permban variabla te pavarur te ndryshem, duhet te llogariten regresione te ndryshem
ndihmes dhe prandaj kjo metode per zbulimin e kolinaritetit mund te kete vlere te
kufizuar praktike.
TABELA 6.2
Vlera e R
0.90
0.18
0.36
0.86
0.09
0.24
5-Faktori inflacion i variances (VIF). Edhe nese nje model nuk permban variabla te
pavarur te ndryshem, vlerat e perftuara te R2 nga regresionet e ndryshem ndihmes mund
te mos jene diagnoza teknikisht te besueshme te kolinaritetit. Kjo mund te shihet me qarte
nese ne kthehemi te regresioni me dy apo me shume variabla i diskutuar ne kapitujt e
meparshem. Ne kemi dhene formulat per te llogaritur variancat e dy koeficienteve
kendore te pjesshem b1 dhe b2 . Me nderhyrje te thjeshta algjebrike keto formula variance
mund te shkruhen si:
VAR(b1 ) =
VAR(b2 ) =
2
2
1i
(1 R12 )
2
2i
(1 R12 )
2
2
1i
2
2i
(6.12)
VIF
(6.13)
VIF
(6.14)
Kjo shprehje eshte quajtur me te drejte faktori inflacion i variances (VIF) sepse ndersa
R2 rritet, varianca, dhe prej ketej gabimi standard si i b1 dhe i b2 rritet. Ne rastin ekstrem,
kur ky koeficient i percaktueshmerise eshte 1 keto varianca dhe gabime standarde jane te
pacaktuar. Dhe nese R2 eshte 0, pra aspak kolinear, VIF do te jete 1, dhe ne nuk do na
duhet te shqetesohemi per variancat e gjera dhe gabimet standarde qe shqetesojne situatat
e kolinearitetit .
Tani nje ceshtje e rendesishme: Supozojme se Ri2 ne nje regresion ndihmes eshte
shume i larte , qe nenkupton nje shkalle te larte kolineariteti si per kriterin e diskutuar me
larte. Por sic tregojne qarte ek.(6.12) ,(6.13) dhe (6.14) varianca te themi e b1 nuk varet
vetem nga VIF, por edhe nga varianca e u i . Keshtu eshte mjaft e mundur qe nje R12 te
jete shume e larte, te themi 0.91, ose 2 te jete e ulet ose X12 e larte, ose te dyja, keshtu
qe varianca e b1 mund te jete me e ulet dhe raporti t me i larte. Me fjale te tjera, termati
ulet dhe i i larte perdoren me kuptim relativ. E gjithe kjo sugjeron qe nje R2 e larte e
perftuar nga nje regresion ndihmes mund te jete vetem nje tregues siperfaqesor i
multikolinearitetit. Ai mund jo domosdoshmerisht te rrise gabimet standarde te kritereve,
si tregon diskutimi i mesiperm.
Me formalisht, Ri2 e larte nuk eshte as e nevojshme as e mjaftueshme per te bere te larte
gabimet standarde dhe keshtu multikolineariteti vete ska nevoje te krijoje gabime
standarde te larte.
Cfare perfundime te pergjithshme mund te nxjerrim nga analizat e ndryshme te
multikolinearitetit te sapo diskutuar? Ka tregues te ndryshem te multikolinearitetit dhe
asnje analize e vetme sdo te na jape nje trajtim te kompletuar mbi problemin e
kolinearitetit. Kujtojme qe multikolineariteti eshte nje ceshtje shkalle dhe fenomen
specifik zgjedhjeje. Ne disa situata mund te jete i lehte diagnostikimi, por ne te tjera do
te na duhet te perdorim nje ose me shume prej metodave te mesiperme per te gjetur
ashpersine e problemit. Nuk ka zgjidhje te lehte per problemin. Kerkimi mbi diagnozat e
multikolinearitetit vazhdojne. Ka disa teknika te reja si ai i indeksit te kushteve , por ato
shkojne pertej qellimit te ketij libri, keshtu qe nuk po thellohemi ne trajtimin e tyre.