Download as pdf or txt
Download as pdf or txt
You are on page 1of 714

Yıldız Teknik Üniversitesi

İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. edition, Thomson Learning

Ch. 1:
Giriş, Temel Tanımlar ve Kavramlar

Doç. Dr. Hüseyin Taştan1

1 Yıldız Teknik Üniversitesi, İktisat Bölümü, Yıldız Kampüsü H Blok, Oda no. 124, Beşiktaş, İstanbul.
Email: tastan@yildiz.edu.tr
EKONOMETRİNİN UĞRAI ALANLARI

• Ekonomik ilişkilerin tahmini için istatistiksel


yöntemler geliştirmek,
• Ekonomik teori ve hipotezleri test etmek,
• Ekonomik politikaları değerlendirmek ve
uygulamak
• Tahmin-Öngörü- (forecasting) yapmak,
• Deneysel-olmayan (nonexperimental) ya da
gözlemsel (observational) veri (data) toplamak
ve analiz etmek.

2
EKONOMETRİ NEDİR ?

• Ekonometri kelime anlamıyla “ekonomik ölçme”


demektir. Ancak, ekonometrinin uğraşı alanı çok
daha geniştir.
• Ekonometri, ekonomik olayların ekonomik teori,
matematik ve istatistiksel çıkarım (inference)
araçlarıyla analiz edildiği bir sosyal bilimdir
(Goldberger, A.S., 1964).

3
EKONOMETRİDE KLASİK (GELENEKSEL)
METODOLOJİ
• Teori ya da hipotezin formülasyonu,
• Bu teori ya da hipotezin matematiksel modelinin
oluşturulması (model specification),
• Matematiksel modelin ekonometrik model haline
getirilmesi,
• Veri (data) toplanması,
• Ekonometrik modelin parametrelerinin tahmini,
• Hipotez testleri,
• Tahmin (forecasting/prediction),
• Model sonuçlarının kontrol ya da politika
oluşturma amacıyla kullanılması. (Gujarati, p.3)
4
EKONOMİK MODEL
ÖRNEK 1: Suçun İktisadi Modeli
y = f(x1,x2,x3,x4,x5,x6,x7)

y = suç işlemeye ayrılan zaman, (saat)


x1 = suç işlemeye ayrılan zaman başına “ücret”
x2 = yasal çalışma için saat başına ücret
x3 = suç ve yasal çalışma dışında kalan gelir
x4 = yakalanma olasılığı
x5 = yakalanma durumunda hüküm giyme olasılığı
x6 = hüküm giyme durumunda beklenen ceza
x7 = yaş
5
EKONOMİK VE EKONOMETRİK MODEL :
ÖRNEK
Ekonomik Model: İş eğitimi ve işçi verimliliği

wage: saat başına ücret, para birimi


exper: işgücü piyasasındaki deneyim, yıl
training: iş ile ilgili eğitime ayrılan süre, hafta

Ekonometrik Model: Doğrusal spesifikasyon

6
Ekonometrik Model: Doğrusal spesifikasyon

u: rassal hata terimi (error term, disturbance term), modelde yer


almayan tüm faktörlerin ortak etkisi

Ücret (wage) denkleminde yer almadığı halde ücretleri etkilemesi


muhtemel, doğuştan gelen yetenek, alınan eğitimi, aile geçmişi gibi
faktörlerin ortak etkisi hata terimin u’da yer alır.

β0, β1, β2, β3 : yukarıdaki ekonometrik modelde ücretlerle, eğitim düzeyi,


tecrübe ve iş eğitimi değişkenleri arasındaki ilişkinin yönünü ve
gücünü gösteren parametreler

7
EKONOMİK VERİ (DATA) TÜRLERİ

1) Kesitler-arası veri (cross-sectional data):


Kişiler, aileler, firmalar, şehirler, endüstriler,
ülkeler vb. birimlere ait belli bir zaman
noktasına ait örnekleri kapsar.
2) Zaman serileri (time series data) :
Değişkenlere ait birbirine eşit zaman
aralıklarında gözlemlenen değerleri içerir.
Çoğu makroekonomik değişken bu gruba girer.
GSMH, enflasyon ve faiz oranları, döviz
kurları, İMKB endeksi vs.

8
Kesitler-arası (cross-sectional) veri : Örnek:
GRETL, wage1.gdt

9
Zaman serisi veri : Örnek
GRETL: prminwge.gdt

10
Veri türleriyle ilgili bazı notlar

• Kesitler-arası veri rasgele örnekleme (random


sampling) yoluyla mı elde edilmiş, yoksa başka
bir yolla mı? Bu ayrım önemli.
• Kesitler-arası veri daha çok mikroekonomik
hipotezlerin testinde ve ekonomik politikaların
değerlendirilmesinde işimize yarar.
• Zaman serisi verilerde veri sıklığı (data
frequency), verinin hangi zaman aralıklarıyla
toplandığını gösterir : yıllık, aylık, günlük, vs.

11
BİRLETİRİLMİ KESİTLER-ARASI VERİ
(POOLED CROSS SECTIONS)
• Veri seti hem kesitler-arası hem de zaman
serisi özelliği taşır.Örneğin, iki ayrı yıla ait
kesitler-arası hane halkı anket sonuçları.
• Burada, örnekleme yeniden yapıldığı için
her bir kesitler-arası veride aynı birimler
(aile, firma, vs.) değil farklı birimler yer alır.

12
Birleştirilmiş kesitler-arası veri (pooled cross
sections) örneği

13
PANEL VERİ (LONGITUDINAL DATA)

• Aynı birimlere (aile, kişi, firma, vs) ait zaman


serilerinin oluşturduğu veri seti.

• Örneğin, her yıl aynı 1000 aileye gidip hane


halkı anketi yapıyorsak, 10 yıl sonra elimizde
1000 aileye ait 10 yıllık bir zaman serisi
oluşacaktır.Her bir değişken için 1000 X 10
boyutunda bir veri matrisine sahip olacağız.

14
PANEL VERİ ÖRNEĞİ

15
Nedensellik (Causality) ve Ceteris Paribus
Kavramı
• Ekonomik modellerin test edilmesinde ve politikaların
oluşturulmasında ekonometrisyenin temel amacı bir
değişkenin diğer bir değişken üzerinde nedensel etkisinin
ortaya konmasıdır
• Ceteris paribus: ilgili diğer faktörlerin etkisi sabit
• Nedensellikte bu varsayımın önemli bir yeri vardır. Bir çok
iktisadi soru ceteris paribus niteliği taşır
• Örneğin, tüketici talep teorisinde, fiyattaki bir değişmenin
talep edilen miktar üzerindeki etkisini öğrenmek
istediğimizde, gelir, diğer malların fiyatları, kişisel zevk ve
tercihler gibi değişkenlerin sabit tutulduğunu varsayarız.
• Diğer faktörler sabit tutulmazsa fiyat değişimi ile talep edilen
miktar arasındaki nedensel ilişkiyi ortaya koymak mümkün
olmaz.
• Ekonometrik analizlerde temel soru yeterli sayıda faktörün
sabit tutulup tutulmadığıdır. 16
Ceteris Paribus: Örnekler
Örnek 1.3: Gübre kullanımının tarımsal çıktı üzerine
etkisi
– Tarımsal ürün buğday olsun. Gübre miktarınının üretilen
buğday miktarı üzerindeki etkisini ayrıştırmak istiyoruz.
– Buğday mahsulünü gübre dışında, yağmur miktarı,
toprağın kalitesi, parazitlerin varlığı gibi bir çok faktör
etkiler.
– Gübrenin etkisini ayrıştırabilmemiz için bu faktörlerin
kontrol edilmesi gerekir.
– Bunu görebilmek için şöyle bir deney tasarlayabiliriz.
Tarlayı birbirine eşit büyüklükte (örneğin dönüm) parçlara
ayırır, ve her parçaya değişen miktarlarda gübre uygularız.
– Daha sonra her parça için çıktı miktarlarını ölçeriz ve
ilerleyen derslerde göreceğimiz yöntemlerle gübre miktarı
ile ilişkisini modelleriz
17
Örnek 1.3: Gübre kullanımının tarımsal çıktı
üzerine etkisi
– Peki bu deneyin ceteris paribus varsayımını
tam olarak sağladığını söyleyebilir miyiz?
– Hayır, çünkü toprağın kalitesini tam olarak
kontrol etmemiz (hatta gözlemlememiz)
olanaklı değildir.
– Ancak yine de ceteris paribus yaklaşımını
kullanabiliriz.
– Bunun için her toprak parçasında
kullandığımız gübre miktarının toprak kalitesi
ile ilişkisiz olması yeterli olacaktır.
– Başka bir deyişle, toprak parçalarının
özellikleri gübre miktarının belirlenmesinde
göz ardı edilmelidir. 18
Ceteris Paribus: Örnekler
Örnek 1.4: Eğitimin getirisinin ölçülmesi:
– Soru: Popülasyondan bir çalışanı seçsek ve bu kişiye fazladan bir yıl
eğitim versek, bu kişinin ücreti ne kadar artar?
– Bu da bir ceteris paribus sorusudur: eğitimi etkileyen eğitim dışındaki tüm
faktörlerin sabit tutulmuş olması gerekir.
– Gübre-tarımsal çıktı deneyine benzer şekilde şöyle bir deney
tasarladığımızı düşünelim: popülasyondan bir grup seçilmiş ve her bireye
rassal olarak belirlenmiş eğitim seviyeleri tayin edilmiş olsun (kimisi
ilkokul, kimi lise, kimi 9. sınıf kimi de üniversite eğitimine sahip olacaktır)
– Her birinin eğitimden sonra bir işte çalışacağı varsayılarak ücret
düzeyleri ölçülmüş olsun.
– Eğer eğitim düzeyleri ücretleri etkileyen diğer faktörlerden (tecrübe ve
doğuştan gelen yetenek) bağımsız olarak tayin edilirse ilave bir yıl
eğitimin ücretler üzerindeki etkisi ayrıştırılabilir.

19
Örnek 1.4: Eğitimin getirisinin ölçülmesi (devam)
• Açıktır ki böyle bir deneyin gerçekleştirilmesi mümkün değildir:
– Moral nedenler,
– Ekonomik maliyetler,
– Zaten üniversite mezunu olan birine, 8. sınıf eğitimi verilmesinin
imkansızlığı
• Deneysel veri oluşturulamasa bile, kişilerin eğitim düzeyleri ve
ücretlerine ilişkin gözlemsel veriler elde edilebilir.
• İnsanlar eğitim düzeylerini kendileri seçtiğinden, ücreti
belirleyen diğer faktörler ile eğitim düzeyinin ilişkisiz olmasını
bekleyemeyiz.
• Örneğin, doğuştan yetenekli (innate ability) insanlar daha fazla
eğitim alma eğilimindedir. Yüksek yetenek düzeyine sahip
bireyler daha yüksek ücret aldıklarından eğitim düzeyinin
ücretler üzerindeki etkisini ceteris paribus etkisini ayrıştırmak
zorlaşır.
20
Örnek 1.5: Yasal yaptırımların bir şehirdeki suç
seviyesi üzerindeki etkisi
• Soru: Bir şehirde devriye gezen polis sayısının arttırılması suç
oranını düşürür mü?
• Ceteris paribus: eğer bir şehir rassal olarak seçilir ve polis
sayısı 10 kişi arttırılırsa suç oranı ne kadar düşer?
• Başka bir deyişle: iki şehir, A ve B, polis sayısı dışında her
açıdan birbirinin aynıysa, öyle ki A şehrindeki polis sayısı B
şehrinden 10 daha fazlaysa, iki şehir arasındaki suç oranı farkı
ne olur?
• Polis sayısı dışında her açıdan birbirinin aynı olan iki şehir
bulmak imkansızdır. Ancak ekonometrik analizde bu şart
değildir.
• Bir şehirde kaç polisin görev yapacağı, o şehirdeki suç oranı
dışındaki (suç oranını etkileyen) faktörlerle ilişkilidir.
• Bir şehirdeki polis gücü ile suç oranı eşzamanlı (simultaneous)21
belirlenir.
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 2:
Basit Regresyon Modeli

Doç. Dr. Hüseyin Taştan1

1 Yıldız Teknik Üniversitesi, İktisat Bölümü, Yıldız Kampüsü H Blok, Oda no. 124, Beşiktaş, İstanbul.
Email: tastan@yildiz.edu.tr
CH.2 Basit Regresyon Modeli (tek açıklayıcı
değişkenli model)

• Bu bir basit doğrusal regresyon (simple linear


regression) modelidir.
• İki değişkenli model de denir (bivariate regression
model)
• Amaç: bağımlı değişken y’yi, bağımsız değişken x ile
açıklamak.
• Regression teriminin orijini: Galton’un ortalamaya
dönüş (regress) yasası

2
Basit Regresyon Modeli: Terminoloji
Değişkenlere birbirinin yerine kullanabilen çeşitli isimler
verilmiştir:

y x
Bağımlı Değişken Bağımsız Değişken
(Dependent Variable) (Independent Variable)
Açıklanan Değişken Açıklayıcı Değişken
(Explained Variable) (Explanatory Variable)
Tepki Değişkeni Kontrol Değişkeni
(Response Variable) (Control Variable)
Tahmin edilen Değişken Tahmin eden değişken
(Predicted variable) (Predictor Variable)
Regressand Regressor

3
Hata terimi (error term, disturbance) : u

• u, hata terimi (error term, disturbance)


adını alır.
• Bağımlı eğişken y üzerinde etkili olan x’in
dışındaki diğer faktörleri temsil eder.
• Bu “diğer etkenler”e “gözlenemeyen
(unobserved) faktörler deriz.
4
EĞİM (SLOPE ) KATSAYISI : β

• Eğer u’nun temsil ettiği diğer faktörler sabit


tutulursa, yani, u = 0 olursa, bu halde, x’in y
üzerindeki doğrusal etkisi şudur:

• Böylece, β1, regresyonun eğim katsayısı


(slope) olmaktadır. u’nun temsil ettiği faktörler
sabit iken (“ceteris paribus” varsayımı), x’deki bir
birim değişmenin y’de yaratacağı değişmeyi
gösterir.
• Regresyonun sabit terimi (intercept) βo, x=0
iken y’nin alacağı değeri gösterir ve ekonomik
yorumu üzerinde pek durulmaz. 5
BASİT REGRESYON ÖRNEKLERİ
Örnek 2.1 (s.24): Soya fasülyesi çıktısı (yield) ve gübre
miktarı (fertilizer) modeli, Y=yield, x=fertilizer

β1: diğer faktörler sabitken (ceteris paribus) gübrenin çıktı


miktarı üzerindeki etkisi

u: rassal hata terimi, soya fasülyesi çıktısını etkileyen,


gübre dışındaki, yağmur miktarı, toprağın kalitesi gibi
tüm faktörlerin ortak etkisi
“Holding all other factors fixed” ↔ ∆u=0
6
BASİT REGRESYON ÖRNEKLERİ
Örnek 2.2 (s.24): Basit bir ücret denklemi (wage equation)

wage: saat başına kazanılan ücret, ölçü birimi YTL ya da USD


educ: eğitim düzeyi, ölçü birimi yıl.
β1: ilgili diğer faktörler sabitken, bir yıllık fazladan eğitimin saat
başına ücretlerde meydana getireceği değişim
Diğer faktörler ne olabilir?: işgücü piyasasındaki tecrübe,
doğuştan gelen yetenek, şu an çalışılan yerdeki kıdem, iş etiği,
alınan eğitimin kalitesi, çalışanın cinsiyeti, etnik kökeni, kır ya
da kente yaşaması, medeni hali, çocuk sayısı, dış görünüşü
vs. gibi çok sayıda faktör ücretleri etkileyebilir. 7
DOĞRUSALLIK (LINEARİTY)
• Örnek (2.1) deki basit regresyonun doğrusal
(linear) olması şu anlama gelmektedir:
“ x’ deki 1 birimlik değişmenin y’ de meydana
getireceği etki, x’ in başlangıç (initial) değeri ne
olursa olsun, aynıdır (sabittir).”
• Bu “sabit etki” varsayımı uygulamada çoğu
zaman gerçeklere uymaz.
• Örneğin, ölçeğe göre artan ya da azalan getiri
doğrusal modelle açıklanamaz.
• Ücret denkleminde, ilave bir yıl eğitimin etkisi
önceki eğitim düzey(ler)ine göre daha fazla
olacaktır. Bu etkilerin kolayca nasıl
modelleneceğini daha sonra göreceğiz.
8
Ceteris paribus çıkarımlarının yapılabilmesi için
gerekli varsayımlar: 1.Hata teriminin anakütle
ortalamasının sıfır olması
• Basit regresyonda sabit terim (βo) mevcut olduğu
sürece,şu varsayımı yapabiliriz:

• Bu, u’nun içerdiği “gözlenemeyen


(unobservables) etkiler”in dağılımıyla ilgili bir
varsayımdır. u’ların bir kısmı +, bir kısmı –
işaretlidir ve bunlar birbirlerini götürürler diye
varsayıyoruz.
• βo’ı yeniden tanımlayarak (2.5) deki varsayımın
gerçekleşmesini her zaman sağlayabiliriz.
9
2. Hata terimi u ile açıklayıcı değişken x’in ilişkisiz
olması koşulu
• x’in y üzerindeki etkisini görebilmemiz için u’da
içerilen gözlenemeyen faktörlerin aynı-sabit-
kalmaları (ceteris paribus koşulu) gerekli idi.
Bundan nasıl emin olabiliriz?
• Bunun için x ile u’nun ilişkisiz olması gereklidir.
Ancak, u hem x ile, hem de x’in herhangi bir
fonksiyonu (x2, √x vs.) ile ilişkisiz olmalı.
• Bunun için şu “sıfır koşullu ortalama
varsayımı (zero conditional mean
assumption)” gerekli:

10
“Sıfır Koşullu Ortalama” Varsayımı
(Zero Conditional Mean Assumption)

• (2.6) da, u ve x tesadüfi değişkendir (random variables).


Bu nedenle, x’in verilen bir değeri için u’nun koşullu
dağılımını tanımlayabiliriz.
• x’in verilen belli bir değerine anakütlenin (population) belli
bir dilimi (kısmı) karşılık gelir. u’nun bu populasyon dilimi
içindeki beklenen değerini (ortalamasını) alabiliriz.
• Burada kritik varsayım, u’nun ortalama değerinin x’in
alacağı değere bağlı olmamasıdır.
• İlk eşitlik şu demek: x’in verilen herhangi bir değeri için
gözlenemeyen faktörlerin ortalaması aynıdır ve dolayısıyla
da u’nun tüm anakütledeki ortalama değerine (sıfıra) 11
eşittir.
“Sıfır Koşullu Ortalama” Varsayımı
Örnek
• Ücret denklemini hatırlarsak:

wage = βo + β1 educ + u (2.4)

bu regresyonda, u, kişilerin doğuştan yeteneğini (innate


ability) -gözlenemez- temsil etsin, bunu abil ile gösterelim.
• (2.6) varsayımı, tüm eğitim seviyelerinde ortalama “doğuştan
yetenek”in aynı olduğunu söyler:
E(abil | 8) = E(abil | 12) = ... = 0.
• Eğer eğitimle doğuştan yeteneğin ilişkili olduğunu
düşünüyorsak (daha yetenekliler okulda da daha iyiler), bu
halde varsayım sağlanamaz.
• Doğuştan yeteneği gözlemleyemediğimiz için de ortalama
doğuştan yeteneğin tüm eğitim seviyelerinde aynı olup
olmadığını bilemeyiz. 12
“Sıfır Koşullu Ortalama” Varsayımı
Örnek
• Soya fasülyesi gübre deneyini hatırlayalım. Arazi eşit
parçalara bölünüp rassal olarak herbirine farklı
miktarlarda gübre uygulanıyordu.
• Eğer gübre miktarları bu toprak parçalarının
özelliklerinden ilişkisiz olarak belirleniyorsa sıfır koşullu
ortalama varsayımı sağlanır.
• Ancak, yüksek kaliteli toprak parçalarına yüksek
miktarda gübre uygulanırsa hata teriminin beklenen
değeri gübre miktarı ile birlikte artar.
• Bu durumda sıfır koşullu ortalama varsayımı
sağlanamaz.

13
Populasyon (Anakütle) Regresyon Fonksiyonu
(POPULATION REGRESSION FUNCTION-PRF)
• (2.1) in x’e göre koşullu beklenen değerini alır ve (2.6) dan
E(u|x)=0 koyarsak, PRF’nin, E(y|x), x’in doğrusal bir
fonksiyonu olduğunu görürüz:

• Doğrusallığın anlamı, x’deki bir birimlik değişmenin y’nin


koşullu beklenen değerinde β1 kadar bir değişime yol
açmasıdır.
• Figure 2.1’den görüldüğü gibi x’in verilmiş bir seviyesinde
y’nin dağılımının merkezi E(y|x)’dir

14
Populasyon Regresyon Fonksiyonu, PRF

15
Bağımlı değişken y’nin sistematik ve
sistematik-olmayan kısımları
(2.6) varsayımı (sıfır koşullu ortalama)
geçerli iken,
y = βo + β1 x + u
basit regresyonunda, bağımlı değişken y’yi
iki kısma ayırmak mümkün olacaktır :
1. βo + β1x : sistematik kısım (y’nin x
tarafından açıklanan kısmı) ve
2. u : sistematik-olmayan ya da x tarafından
açıklanamayan kısmı.
16
SIRADAN EN KÜÇÜK KARELER TAHMİN EDİCİLERİ
(THE ORDINARY LEAST SQUARES ESTIMATES)

• Herhangi bir anakütleden n hacimli bir rasgele


örnek (random sample) çekelim:

• Örnek anakütleden çekildiği için, (2.1) deki


regresyonu her bir i (gözlem değeri) için
yazabiliriz :

17
EKK (OLS) TAHMİN EDİCİLERİ: ÖRNEK
• Rasgele seçtiğimiz 15 ailenin (n=15) belli bir yıldaki gelirlerini (x) ve
tasarruflarını (y) gözlemlediğimizi düşünelim.
• Bu 15 gözlemin serpilme çizimi (scatterplot) ve hayali bir PRF çizgisi şöyle
olsun :

18
βo ve β1’in tahmini
• Yukarıda u’nun ortalamasının sıfır olduğunu ve x ile
ilişkisinin bulunmadığını varsaymıştık:
E(u) = 0 (2.10) ve Cov(x, u) = E(xu) = 0 (2.11)
• Bu formüllerde u yerine, onun (2.1)’den bulacağımız
değerini, u = y - βo - β1x, kullanırsak :

• (2.12) ve (2.13) nolu denklemler, (x,y)’nin kitledeki ortak


olasılık dağılımı (joint probability distribution) üzerine iki
kısıt (restrictions) koymaktadır. Bilinmeyen sayısı da 2
olduğu için tahmin yapabiliriz (İstatistik II’de gördüğünüz
Momentler Yöntemini hatırlayın). 19
Örneklem Moment Koşulları
• Yukarıda yazdığımız iki bilinmeyenli ikili populasyon
moment koşulunun örneklem karşılıklarını aşağıdaki gibi
yazabiliriz:

• Bu Momentler Yöntemi (Method of Moments)’ne bir


örnektir. Betaların üzerinde şapka olduğuna dikkat edin
(tahmin edici).
• Örneğe ait veriyi kullanarak bu iki denklemi bilinmeyen
ve için çözeriz.
20
Regresyon parametrelerinin tahmini: devam

• Toplama operatörünün (Σ) özelliklerinden (bkz.


Appendix A) (2.14) ü şöyle yazabiliriz:

burada ybar ve xbar örneklem ortalamalarıdır.


• (2.16) dan :

bulunur. 21
Regresyon parametrelerinin tahmini: devam

• (2.15) ‘i n ile çarptıktan sonra yerine (2.17) deki değerini


koyarsak:

• Yeniden düzenlenirse

bulunur.

22
Regresyon parametrelerinin tahmini: devam
Toplama işlemcisinin özelliklerinden hareketle

ve

yazılabilir.
Buradan eğim parametresinin tahmin edicisi

olarak bulunur.
23
Regresyon parametrelerinin tahmini: devam
• (2.19), yani , x ve y arasındaki örnek
kovaryansının x’in örnek varyansına bölümüdür. Bu şuradan
geldi :
E (u) = 0 ve Cov(x,u) = 0 varsayımları altında, , x ve y
arasındaki anakütle kovaryansının x’in varyansına
bölümüne eşittir.
• Demek ki, eğer örnekte x ve y pozitif yönde ilişkilerse,
pozitif olacak, tersine, negatif yönde ilişkilerse negatif
olacaktır.
• (2.18) deki koşul,

x’in örnekte hep aynı değeri almaması, yani, değişme


göstermesi anlamına gelir. Örneğin, tüm örneğe giren kişiler
12 yıl okumuşsa (2.) deki wage regresyonunu tahmin
edemeyiz. 24
En Küçük Kareler (Ordinary Least Squares -OLS-)
• y için modelce tahmin edilen değer (fitted value)

• Kalıntı terimi (residual): Hata terimi ile karıştırılmamalıdır.

OLS yöntemi betaların tahmin edicilerini kalıntı kareleri toplamını en


küçük yapacak şekilde bulur:

25
Tahmin edilen y değerleri ve Kalıntılar
(Fitted values-residuals)

26
OLS tahmin edicilerinin alternatif türetimi
• Minimizasyon problemi:

• Bu fonksiyona diyelim. Birincil sıra koşullar

dan hareketle denklem sistemi

• olur. Bu Momentler Yöntemi ile elde edilen denklem sisteminin -2n ile
çarpılmış halidir. Dolayısıyla aynı MOM yöntemi ile aynı çözüme
sahiptir.
27
Bu çözümde OLS objektif fonksiyonunun minimum
olduğundan emin olabilir miyiz?

• Her hangi b0 ve b1 için amaç fonksiyonu şöyle yazılabilir:

28
Devam:
• Kalıntı kareleri toplamı b0 ve b1’e bağlı olmadığından bu
eşitlikteki son üç terim şöyle yazılabilir:

• Bu ifade kareler toplamı olduğundan en fazla sıfır olabilir.


• Öyleyse bu ifade ancak
ve
sağlandığında en küçük değerine ulaşır.

29
POPULATION AND SAMPLE REGRESSION
FUNCTIONS: PRF , SRF
• PRF : E(y | x) = β 0 + β1 x
Anakütle regresyon fonksiyonu sabittir (tektir) ve onu ölçemeyiz, yani
bilinmezdir.
• Örneklem Regresyon Fonksiyonu (SRF) :

“yhat”, y’nin regresyondan tahmin edilen değerlerini ifade eder.


• Eğim ve x’deki 1 birim değişmenin y’de meydana getireceği değişme
şunlara eşittir:

30
BASİT REGRESYON : ÖRNEK 2.3
• 209 ABD firmasının CEO (Chief Executive Officer) ‘larının
maaşları (y) ile bu firmaların karlılıkları (x) arasındaki ilişkiyi
araştırıyoruz (1990 yılı için).
• y : yıllık maaş, 000 $, n=209 (örnek hacmi)
• x : Firmanın son 3 yıla ait sermaye getiri oranı, % (return on
equity=net income / common equity).
• Model:

• Tahmin (GRETL, ceosal1.gdt):

31
ÖRNEK 2.3 : Getiri oranında %1 puanlık artış (∆roe=1)
ortalama maaşlarda 18.5 bin dolarlık artış sağlayacak.

32
Tahmin edilen regresyondan ŷ ve
û ‘nın hesaplanması :

33
EKK (OLS) TAHMİN EDİCİLERİN CEBİRSEL
ÖZELLİKLERİ
(Algebric properties of OLS statistics)
1) EKK(OLS) artıklarının toplamı ve dolayısıyla da
örnek ortalaması sıfıra eşittir:

2) Bağımsız değişkenle (x) EKK(OLS) artıklarının


örnek kovaryansı sıfıra eşittir.(2.15) den:

3) ( x , y ) noktası daima EKK(OLS) regresyon çizgisi


üzerine düşer.
34
KARELER TOPLAMLARI (SUM OF SQUARES)

• Her bir i için,

• Toplam kareler toplamı (total sum of squares): TKT (SST)

• Açıklanan kareler toplamı (explained sum of squares: AKT


(SSE)

• Kalıntı (artık) kareler toplamı(residual sum of squares):KKT


(SSR)

35
KARELER TOPLAMLARI (SUM OF SQUARES)

• SST: bağımlı değişkenin örneklem içindeki değişkenliğini


verir. var(y)=SST/(n-1) olduğuna dikkat edin.
• Benzer şekilde SSE, yhat’deki, SSR, kalıntılardaki (uhat)
değişkenliği verir.
• y’deki toplam değişkenlik açıklanan ve açıklanamayan
kısımlardaki değişkenliğin toplamına eşittir:
SST = SSE + SSR (2.36)
• İspat: kitap ss.38-39

36
UYUMUN İYİLİĞİ (GOODNESS-OF-FIT) ÖLÇÜSÜ:
R2 (determinasyon katsayısı)
• (2.36) yı SST’ ye bölelim:
1=(SSE/SST) + (SSR/SST). Buradan,

• SSE hiçbir zaman SST’den daha büyük olamayacağı için


R2 daima o ile 1 arasında değer alır.
• R2, y’deki değişmenin x tarafından açıklanan yüzdesini
gösterir.
• Gözlemler regresyon çizgisi boyunca dar bir aralıkta
uzanıyorsa, R2, 1’e yakın çıkacak, gözlemlerin dağılımı bir
yönden yoksun ise sıfıra yaklaşacaktır.
• u ilişki geçerlidir: R2 = Corr( y , yˆ )
i 37
DEĞİKENLERİN ÖLÇÜ BİRİMLERİNİ
DEĞİTİRİRSEK NE OLUR?
• x’in birimi aynı kalırken, eğer, y’yi c sabiti ile çarparsak,
intercept (sabit) ve slope (eğim) terimlerinin her ikisi de
c sabitiyle çarpılır.
• CEO maaşları örneğinde y’yi bin dolarla değil de, $ ile
ifade edersek (c=1000) regresyon şöyle olur (yorum
yine aynı olur):
salary$ = 963,191 + 18,502 roe.
• y aynı kalırken, x’i c sabitiyle çarparsak, bu halde,
βo(hat) değişmezken, β1(hat), c ile bölünür.
• Örneğin, CEO regresyonunda x’i %(percent) ile değil
ondalık kesirle (decimal) ifade edersek (c=0.01 oldu):
salary = 963.191 + 1850.1 roe.
olur. Yani, β1(hat), 0.01 ile bölündü (100 ile çarpıldı).
38
BASİT REGRESYONA DOĞRUSAL-OLMAYAN
(NONLINEAR) BİÇİM EKLEME
• Doğrusal (linear) biçim çoğu kez gerçeği
yansıtmaz. Bu nedenle doğrusal-olmayan
modellerle çalışmak gerekebilir.
• Bağımlı ve bağımsız değişkeni uygun biçimde
tanımlayarak basit regresyonu (değişkenlerde)
doğrusal-olmayan bir modele dönüştürebiliriz.
• Regresyon modeli hala parametrelerde
doğrusaldır.
• Sıkça uygulanan bir yöntem, bağımlı değişkenin
“log (=ln)y” şeklinde ifade edilmesidir. Bu derste
sadece doğal log dönüştürmesi kullanılacaktır.
39
Log(Wage) = βo + β1 educ + u (2.42)
Bu model eğitime göre artan getiri verir.
Eğer ∆u = 0 ise %∆wage ≈ (100·β1) ∆educ

40
Logaritmik ücret modeli, GRETL: wage1.gdt

• Eğim katsayısını (β1hat=0.083) 100 ile çarparak


yüzde (percentage) cinsinden yorumlayabiliriz:
100(0.083) = 8.3.
• Yani, ilave bir yıl eğitim ücreti %8.3 artırmaktadır.
Buna “ilave bir yıl eğitimin getirisi (return to another
year of education)” denir.
• “İlave bir yıl eğitim log(wage)’i %8.3 artırır” yorumu
yanlıştır. %8.3 artan log(wage) değil, wage’dir.
• educ değişkeni log(wage)’deki (wage’deki değil)
değişmenin %18.6’sını (R2) izah etmektedir.
41
Sabit esneklik modeli
• x ve y’nin ikisini de log olarak alırsak “sabit esneklik modeli
(constant elasticity model)” ne (log-log modeli) ulaşırız
• log-log model: y=log(salary), x=log(sales)

• Burada, β1, maaşın satışa göre esnekliğidir (the elasticity


of salary with respect to sales).

• Yorum: Satışlarda %1 artış CEO maaşlarında %0.257


artışa yol açıyor. Yani, satışlarda %4’lük artış maaşlarda
%1’lik artış yaratıyor.
42
LOGARİTMA KULLANILARAK OLUTURULMU
FONKSİYONEL BİÇİMLER (FUNCTIONAL
FORMS)

43
Parametrelerde ve değişkenlerde
doğrusallık (linearity)
• Regresyonun doğrusal (linear) olup olmasını x ve
y’nin değil beta’ların doğrusallığı belirler.
• Örneğin, 1/x, x , y 1/ 4 , vs. gibi değişkenleri gerekli
dönüştürmeler yaparak kullanabiliriz. Regresyon
yine doğrusaldır.
• Oysa, aşağıdaki regresyon parametreler
bakımından doğrusal değildir, dolayısıyla da
doğrusal bir regresyon değildir.

44
EKK(OLS) tahmin edicilerinin,
( βˆ 0 , βˆ 1 ) , istatistiksel özellikleri
• Anakütleden çekilen farklı rasgele örneklerden
bulacağımız OLS parametre tahmin değerlerinin
dağılımları ne tür özellikler gösterecektir?
• OLS tahmin edicilerinin örnekleme dağılımlarının
özellikleri nelerdir?
• İlk olarak sonlu örneklem özelliklerinden sapmasızlık ve
etkinliklerini inceleyeceğiz.
• Hatırlarsak sapmasızlık örnekleme dağılımındaki
ortalamanın bilinmeyen doğru değere eşit olduğunu
söylüyordu.
• Etkinlik ise ilgili tahmin edicinin varyansının o tahmin
ediciler kümesi içinde en küçük olduğu anlamına
geliyordu. 45
OLS t.e.nin sapmasızlığı
EKK (OLS) tahmin edicilerin sapmasız (unbiasedness)
olabilmesi aşağıdaki 4 varsayıma bağlı:
1. Varsayım. SLR.1 : model parametreler bakımından
doğrusaldır : y = βo + β1 x +u (2.47) (y, x ve u’nun
üçü de tesadüfi değişkendir)

2. Varsayım SLR.2 : Elimizdeki veri (data) kitleden rasgele


örneklemeyle (random sampling) çekilmiştir.

3. Varsayım SLR.3 : Sıfır koşullu ortalama (zero


conditional mean) varsayımıdır, E (u|x) = 0. Rasgele
örnekleme için bu varsayım şunu da zorunlu kılar:

46
Sapmasızlık (unbiasedness) için varsayımlar

4. Varsayım SLR.4 : Bağımsız değişkenin örnek


içindeki değerleri aynı değildir, değişme gösterir.
xi, i=1,…,n’ler aynı sabite eşit değildirler.

Bu varsayım, β1hat’in (2.19) daki formülünde


paydanın sıfır olmaması demektir. u koşulun
sağlanmasını gerektirir :

47
Örnek parametresi β̂1 ‘in kitle parametreleri,
β 0veβ1 cinsinden ifadesi:
• Rasgele örnekleme durumunda (2.47) deki doğrusal PRF’ı
şöyle yazabiliriz :

• u eşitliği kullanarak (bkz.Ek A),

(2.19) ‘u şöyle yazabiliriz:

48
(devam)
• (2.49) da yi yerine (2.48) deki değerini koyalım:

• (2.50)’de payı şöyle yazabiliriz:

49
(devam)
• Ek A’ da gösterildiği gibi :

Dolayısıyla, (2.51) şu hale gelir :

Bunu (2.50) de yerine koyarsak:

Burada dir. 50
βˆ 1 v e β 1 ilişkisi
• (2.52) den görüldüğü gibi,

β̂1 = β1 + u’ların (errors) bir doğrusal bileşimi

• Örnek hata terimleri sıfırdan farklı olduğu sürece


β̂1 ≠ β1 olacak.

51
Teorem 2.1: SEK (OLS) tahmin edicilerin
sapmasızlığı (unbiasedness)
• OLS tahmin edicilerinin beklenen değerleri bilinmeyen kitle
parametrelerine eşittir :

İspat : (2.52)’nin iki tarafının da beklenen değerlerini alalım.


Beklenen değerler x’in örnek değerlerine koşulludur
(conditional), dolayısıyla, sx2, di sadece x’in fonksiyonları
oldukları için sabit (nonrandom) varsayılacaklar. Diğer
yandan, Varsayım SLR.2 ve SLR.3 gereği, her bir ui ‘nin
beklenen değeri sıfırdır.
52
devam
• (2.52) den :

53
Sapmasızlık üzerine notlar
• Sapmasızlık tekrarlanan örneklerden bulunan çok
sayıdaki βˆ 0 ve βˆ1 tahminlerine ait örnek
dağılımlarının (sampling distributions) bir özelliğidir.
• Dolayısıyla, tek bir örnekten (ki çoğu kez böyledir)
bulunan betalarla ilgili olarak hiçbir şey söylemez.
Bilinmeyen kitle parametrelerinden çok uzak bir tahmin
de elde edebiliriz.
• Yukarıda yaptığımız 4 varsayımdan biri veya bir kaçı
sağlanamazsa sapmasızlık özelliği geçerli olmaz.
Doğrusallığın ve rasgele örneklemenin olmaması, u ile
x’lerin ilişkili olması veya u’nun içerdiği faktörlerin x ile
ilişkili olmaları (ki, sahte “spurious” korelasyona sebep
olur) durumlarında sapmalı tahmin ediciler elde
edeceğiz.
54
OLS t.e.lerinin sapmasızlığı: Basit bir Monte Carlo deneyi
• Bağımlı değişken y için veri üretim sürecinin aşağıdaki gibi
belirlendiğini düşünelim:
y = 1 + 0.5 x + 2*N(0,1)
• Burada doğru parametre değerlerinin β0=1 ve β1=0.5 olduğuna, ve
hata teriminin u=2*N(0,1) olarak belirlendiğine dikkat edin. N(0,1)
standart normal dağılıma uyan bir rassal değişkendir.
• Ayrıca açıklayıcı değişken x’in değerlerinin sabit olduğunu ve
x=10*Unif(0,1) olarak belirlendiğini düşünelim.
• imdi bu populasyon modelinde parametre değerlerini bilmediğimizi
ve OLS yöntemini kullanarak tahmin edeceğimizi düşünelim.
• GRETL programını kullanarak yukarıda belirtilen dağılımlardan
rassal sayılar türetip çok sayıda örnekler elde edebilir ve her örnek
için OLS yöntemini uygulayıp tahmin değerlerini bir dosya içinde
kaydedebiliriz.
• Bu basit bir Monte Carlo deneyidir. Tahmin edicilerin, test
istatistiklerinin örnekleme dağılımlarının elde edilmesinde sıklıkla
kullanılır.
55
OLS t.e.lerinin sapmasızlığı: Basit bir Monte Carlo deneyi
• GRETL programında bu deney şöyle kodlanabilir
(simpleOLSMonteCarlo.inp):
nulldata 50 ↔ gözlem sayısı
seed 123 ↔ sayı üretimi için seed
genr x = 10 * uniform() ↔ açıklayıcı değişkeni türet
# open a "progressive" loop, to be repeated 1000 times
loop 1000 –progressive ↔ döngüyü aç
genr u = 2 * normal() ↔ hata terimini türet
# construct the dependent variable
genr y = 1 + 0.5 * x + u ↔ populasyon reg modeline göre y’yi türet
# run OLS regression
ols y const x ↔ OLS reg. kur
# grab the coefficient estimates and R-squared
genr a = $coeff(const) ↔ intercept terimini al
genr b = $coeff(x) ↔ eğim parametresini al
genr r2 = $rsq ↔ determinasyon katsayısını al
# and save the coefficients to file
store MC1coeffs.gdt a b ↔ a ve b’yi kaydet
Endloop ↔ döngüyü tekrarla ve sonlardır
open MC1coeffs.gdt 56
OLS t.e.lerinin sapmasızlığı: Basit bir Monte Carlo deneyi
• simpleOLSMonteCarlo.inp dosyasını çalıştırırsak OLS
tahmin edicilerinin örnekleme dağılımlarını elde ederiz.
• Bu dağılıma ulaşmak için MC1coeffs.gdt dosyasını
açmamız gerekir.
• Özet istatistikler:

57
OLS t.e.lerinin sapmasızlığı: Basit bir Monte Carlo deneyi
• Sabit terimin örnekleme dağılımı

58
OLS t.e.lerinin sapmasızlığı: Basit bir Monte Carlo deneyi
• Eğim parametresinin örnekleme dağılımı:

59
EKK (OLS) tahmin edicilerinin varyansı
• EKK tahmin edicilerin, β̂ 0 ve βˆ1 sapmasızlığı için
Varsayım SLR.1-SLR.4 yeterli idi.
• EKK tahmin edicilerin belli etkinlik (efficiency)
özellikleri için ve ayrıca betaşapkaların
varyanslarının daha basit şekilde formüle
edilebilmesi için bir başka (5.ci) varsayım daha
yapmalıyız :
• Varsayım SLR.5 : Sabitvaryans -homoscedasticity
-varsayımı. Gözlenemeyen hata terimlerinin (u), x’e
koşullu (conditional) varyansı sabittir :

60
aynı zamanda u’ların koşulsuz
(unconditional) varyansıdır
• u ve x’in bağımsız (independent) olduklarını
varsaydık (ki, bu çok kuvvetli bir varsayımdır), x
verilmişken u’nun dağılımı x’e bağlı
olmayacaktı.Dolayısıyla, E(u|x) = E(u)=0 ve
Var (u|x) =σ2

61
Varsayım SLR.3 ve Varsayım SLR.5, y’nin koşullu
(conditional) ortalama ve koşullu varyansı ile de
ifade edilebilir

• x verilmişken y’nin koşullu beklenen değeri x’in


doğrusal bir fonksiyonudur.
• Yine x veri iken y’nin varyansı sabittir ve hata
terimlerinin varyansına eşittir.

62
Sabit varyans (homoscedasticity) geçerli iken basit
regresyon modeli

63
Var(u|x), x’e bağlı ise, x değiştikçe o da değişir.
Buna, değişken-varyans (heteroscedasticity) denir
• Var (u|x) = Var (y|x) olduğu için, Var (y|x), x’in bir fonksiyonu ise
değişken-varyans durumu vardır.

64
SLR.1-SLR5 varsayımları altında EKK (OLS)
tahmin edicilerin örneklem varyansları
• SLR.1-SLR5 varsayımları altında

• Bu formüller değişken-varyans (heteoscedasticity) varsa geçersizdir.


• Betaların varyansları, u’ların varyansı ile doğru orantılı, x’deki toplam
değişmeyle ters orantılı olarak değişmektedir. 65
(2.57) nin isbatı
• (2.52) de her iki tarafın varyansını alalım:

66
Hata terimleri (errors or disturbances) ile
artıkların (residuals) farkı
• Hata terimleri (errors or disturbances)(u) ile artık
terimler(residuals) (uhat) birbirine karıştırılmamalı. Hata
terimleri kitle modelini gözlemlerle yazdığımız zaman söz
konusudur. Artıklar ise örnek parametrelerinin olduğu
denkleme aittir.

• Hata terimleri gözlenemez (unobservable) iken artıklar


(kalıntılar) verilerden tahmin edilebilir.

67
u ve uhat ( û ) ilişkisi
• (2.32) ve (2.48) i kullanarak artık terimleri hata
terimlerinin bir fonksiyonu olarak yazabiliriz:

• Örnek ve kitle parametreleri eşit olmadığı sürece u


ile uhat farklı olacaktır. Ancak, (2.59) un her iki
tarafının beklenen değerini alırsak, sapmasızlık
özelliğinden dolayı, E( β̂1 ) = β1 , vs.
E(u) - E( û )=0 buluruz. 68
Hata terimleri varyansının tahmini
• Hata terimleri varyansının sapmasız tahmin edicisi

• Ancak, hata terimleri u(i)’leri gözlemleyemediğimiz için bunu


hesaplayamayız. Bu yüzden, varyansın tahminini EKK(OLS)
artıklarından, uhat, elde edeceğiz :

• Bu tahmin sapmalıdır (biased), zira, EKK (OLS) artıklarının serbestlik


derecesi n değil n-2’ dir (birincil koşulları veren iki denklemden dolayı 2
S.D. ‘i kaybediliyor). SD düzeltmesi yaparak sapmasız varyansı şöyle
bulacağız:

69
Standart hatalar
• Varyansın karekökü “regresyonun standart hatası”
(standart error of the regression, SER) adını alır.
“Tahminin standart hatası” (standart error of the
estimate) ya da “hata kareleri ortalaması karekökü”
(root meansquared error) olarak da adlandırılır.

• (2.57) ve (2.58) de σ yerine σ̂ kullanarak


betaların standart sapmalarını hesaplarız :

70
Orijinden geçen regresyon : Regresyon sabit terimine
(intercept) sıfır kısıtı konulması
• Bazı durumlarda x=0 iken y=0 olsun isteriz. Örneğin, gelir
sıfırken vergi tahsilatı da sıfır olacaktır. (2.64)’deki SSR
minimize edilecektir. Tilda’ları sabit terimli durumla
karıştırmamak için kullanıyoruz.

71
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 3:
Çok Değişkenli Regresyon Analizi:
Tahmin

Doç. Dr. Hüseyin Taştan1

1 Yıldız Teknik Üniversitesi, İktisat Bölümü, Yıldız Kampüsü H Blok, Oda no. 124, Beşiktaş, İstanbul. Email:
tastan@yildiz.edu.tr
Çoklu Regresyon Analizi
(Multiple Regression Analysis)
• Basit regresyonda kilit varsayım olan SLR.3 varsayımı çoğu
zaman gerçekçi olmayan bir varsayımdır. SLR.3: “y’ yi
etkileyen tüm diğer faktörler x ile ilişkisizdir” (ceteris
paribus).

• Çoklu regresyon analizinde bağımlı değişkeni (y) eşanlı


(simultaneously) olarak etkileyen pek çok etkeni kontrol
edebiliriz. Zira, çok sayıda açıklayıcı değişken (x)
kullanabileceğiz.

• Modele yeni değişkenler ekleyerek y’ deki değişmenin daha


büyük bir kısmını açıklayabiliriz. Yani, y’nin tahmini için
daha üstün modeller geliştirebiliriz.

• Çoklu regresyonda regresyonun biçimini (functional form)


belirlemede çok daha geniş olanaklara sahip olacağız.
İki bağımsız değişkene sahip model
Örnek 1:

• Burada, β1, ücretleri etkileyen diğer tüm faktörleri


sabit tuttuğumuzda, eğitimin ücretlere etkisini ölçer.
β2 ise, benzer şekilde tecrübenin ücretlere ceteris
paribus etkisini gösterecektir.
• Bu regresyonda tecrübeyi sabit (fixed) tutarak
eğitimin ücretlere katkısını ölçebiliyoruz. Basit
regresyonda bu olanak yoktu. Sadece “educ ile u
ilişkisizdir “ diye varsayıyorduk. Bu da güçlü olmayan
bir varsayımdı. 3
Örnek 2 : avgscore: ortalama test skoru, expend :
öğrencinin harcamaları, avginc : ortalama aile geliri

• Eğer aile gelirini (avginc) regresyona doğrudan


sokmaz isek, onu, u’nun içinde ele almış olacağız.
Aile geliri öğrencinin harcaması (expend) ile
yakından ilişkili olduğundan, bu halde, x (harcama)
ile u ilişkili olacak ve kilit varsayımımız, SLR.3, ihlal
edilecekti. Bu ise β1’in sapmalı (biased) olmasına
yol açacaktı.
• Avginc değişkenini modele sokarak onu doğrudan
kontrol etme olanağına kavuştuk. 4
Çoklu regresyon, regresyonun fonksiyonel
biçimini genelleştirmeye izin verir.
• Ailelerin tüketimini (consumption) gelirlerinin (income)
karesel (quadratic) bir fonksiyonu olarak ifade edelim :

• Burada x1 = inc, x2= inc2’dir.


• Bu regresyonda β1’in yorumu farklı olacaktır. Zira, inc2’yi
sabit tutarak inc’ın cons üzerindeki etkisini ölçemeyiz. inc ile
karesi inc2 birlikte değişir.
• Gelirdeki değişmenin tüketime etkisi, yani, marjinal tüketim
eğilimi (marginal propensity to consume) regresyonda şuna
eşittir :

5
devam
• Demek ki, marjinal tüketim eğilimi, β1’e olduğu kadar β2’ye de
bağlıdır.
• İki bağımsız değişken durumunda “u’nun x’lerle ilişkisiz olması”
varsayımını şöyle formüle edeceğiz :

• Yani, x1 ve x2’nin kitledeki (population) tüm kombinezonları için


u’nun beklenen değeri sıfırdır.
• Örneğin, (3.1) deki regresyonda,
E(u | educ, exper) = 0 , ücretleri etkileyen diğer faktörlerin (u)
ortalama olarak educ ve exper ile ilişkisiz olduğu anlamına
gelir. Örneğin, ability u’nun bir parçası ise, ortalama ability
düzeyi, çalışanlar kesiminde educ ve exper ‘in tüm
kombinezonlarında aynıdır (sabittir).
6
devam
• (3.2) deki regresyonda bu varsayım :
E(u | expend, avginc)=0 olur. Yani, test
skorlarını etkileyen diğer faktörler (okula ya da
öğrenciye özgü karakteristikler vs.), ortalama
olarak, expend ve avginc değişkenleriyle
ilişkisizdir.
• (3.4) deki quadratic regresyonda bu varsayım :
E(u | inc, inc2)= E (u | inc)=0 olur. inc
biliniyorken inc2 otomatik olarak bilineceği için
parantezin içine ayrıca inc2 yazmaya gerek
yoktur.
7
k tane bağımsız değişkene sahip model

• Genel çoklu doğrusal regresyon modeli :

• Bu modelde k tane x, k+1 tane bilinmeyen (tahmin


edilecek olan) parametre (beta) vardır.
• Hata terimi (error term, disturbance) u ; x1, x2,…, xk
dışında y’yi etkileyen tüm diğer faktörleri temsil
eder. Modele ne kadar çok sayıda x eklersek
ekleyelim, yine de dışarıda kalmış olan etkenler ya
da gözlenemeyen faktörler var olacaktır.
8
Çoklu regresyonda betaların yorumu
• Herhangi bir beta, β3 diyelim, diğer x’ler ve u’da içerilen
faktörler sabitken (ceteris paribus varsayımı), x3’deki bir
birimlik değişmenin y ‘de yaratacağı değişmeyi gösterir.
• Ancak, x’lerde doğrusal-olmayan özellik varsa bu yorum
değişir. Örneğin şu regresyonu ele alalım:

Ceoten: CEO’ nun kıdemi (tenure) (yıl). Burada, β1, diğer her
şey sabitken, satışlarda %1’lik bir artışın CEO maaşlarında
yaratacağı % artışdır. Yani, maaşların satış esnekliğidir.
Buna karşılık, β2, β3 ≠0 olduğu sürece, kıdemde 1 yıl artış
olduğunda maaşdaki % artışı göstermez. Zira, x3=ceoten2’yi
sabit tutup x2’yi bir birim artıramıyoruz, kareli terim de
artıyor.
• Bu yüzden, kıdemdeki bir birim (1 yıl) değişmenin maaşa
etkisini şu kısmi türevden bulacağız :
δlog(salary) / δceoten = β2 + 2 β3 ceoten
9
• x’lerle u’nun ilişkisizliği varsayımı burada şöyle
formüle edilir :

• x’lerden biriyle u arasında ilişki olması EKK (OLS)


tahmin edicilerin sapmalı (biased) olmasına yol
açar.
• İhmal edilmiş, yani dışarıda bırakılmış önemli bir
değişken varsa, bu da sapmaya yol açacaktır.
• Bu aynı zamanda fonksiyon kalıbının da doğru
kurulduğu anlamına gelir.
10
SEKK (OLS) tahmin edicileri
• İki bağımsız değişkenli durumda tahmin edilen
regresyon şöyle olacaktır :

• Sıradan en küçük kareler, SEKK (ordinary least


squares, OLS) beta parametrelerini aşağıdaki
artıklar kareler toplamını (AKT / SSR) minimize
edecek şekilde belirler :

• Örnek (sample), y ve x ‘lerin n sayıdaki


gözlemlerinden oluşur :
11
k bağımsız değişkenli model:
• Tahmin edilen regresyon (sample regression
function, SRF) şu olacaktır :

• k+1 adet beta şu KKT (SSR)’yi minimum edecek


şekilde seçilecektir :

• Bu minimizasyon problemi aşağıdaki k+1 adet


doğrusal denklemin çözümüdür:

12
devam
• k+1 adet doğrusal denklem k+1 adet bilinmeyen beta
parametresi için çözülecektir. Bunlara, SEK birinci sıra
koşullar denir (OLS first order conditions).

13
Method of moments
• (3.13) deki denklemler momentler yöntemi
(method of moments) ile de ifade edilebilirdi. (3.8)
deki “x’lerle u ilişkisizdir” varsayımdan :

• (3.13) deki denklemler bu kitle (population)


momentlerinin örneklemdeki karşılığıdır.
• (3.13)’ün betalar için tek bir (unique) çözüm
vermesinin koşullarını aşağıda göreceğiz.

14
SEK regresyonunun yorumu
• İki bağımsız değişkenli durumu ele alalım:

• Eğim parametre tahminleri açıklayıcı değişkenlerin y


üzerindeki ceteris paribus ya da kısmi etkilerini verir.
• ‘in yorumu: x2 sabitken yani

• Benzer şekilde, x1 sabitken ‘nın yorumu

15
Örnek 3.1: GRETL, gpa1.gdt
• Üniversite GPA (grade point average) notunun açıklanması
ve tahmini. Bağımsız değişkenler, high school GPA ve
achievement test score (ACT), n=141 öğrenci :

• Bu regresyonda β0’ın yorumu anlamsız olduğu için


yapılmaz. Lise GPA’sı=0 ve başarı test notu ACT=0
konduğunda üniversite GPA’sı=1.29 oluyor, ancak
anlamsız.
• ACT’ı sabit tutarak lise GPA’sını 1 puan artırdığımızda
üniversite GPA’sı yarım puana yakın (0.453) artıyor. ACT
notu aynı olan iki öğrenciden lise GPA’sı yüksek olanın
üniversite GPA’sı da yüksek olacaktır.
• ACT’ın işareti + ‘dır, yani, başarı testinden yüksek alanların
üniversite GPA puanlarının daha yüksek olması beklenebilir.
Ancak, katsayısı çok küçük olduğu için etkisi fazla değil.16
devam

• Sadece ACT notunu alarak basit regresyon


tahmin etseydik şöyle olacaktı :

• ACT’ın katsayısı (3.15) deki çoklu regresyonda


bulunandan 3 kat daha yüksek çıktı.
• Ancak, bu regresyon, bize, lise GPA’sı aynı iki
öğrenciyi karşılaştırma olanağı vermiyor. Önceki
regresyon veriyordu.

17
k değişkenli modelde yorum:

• Bu modeli değişimler cinsinden şöyle yazabiliriz:

• x1’in katsayısının yorumu şöyledir:

• Tüm diğer açıklayıcı değişkenler sabit tutulduğunda,


x1’deki bir birimlik değişimin y’de meydana getireceği
(ortalama) değişim (y’nin birimi cinsinden)
18
Örnek 3.2 : Saat ücretleri denklemi,
GRETL wage1.gdt
• n=526 çalışan kapsanıyor. Tenure: O işyerinde çalışılan yıl
sayısı (kıdem)
• Regresyon :

• Çoklu regresyon söz konusu olduğu için katsayı tahminleri


(betaşapkalar) “ceteris paribus” koşuluyla yorumlanmalı.
• Bağımlı değişken log(=ln) cinsinden olduğu için, x’lerdeki bir
birimlik değişme, y’de, betalar kadar % değişme yaratacaktır.
• Örneğin, exper ve tenure sabit tutarak educ’u 1 yıl artırmak
ücretlerde 0.092 (=%9.2) kadar bir artış sağlayacaktır. Başka
bir ifadeyle, iş tecrübesi ve kıdemleri aynı olan iki işçiden biri
eğer diğerinden 1 yıl fazla okumuşsa, onun ücreti
diğerininkinden %9.2 fazla olacaktır (somut iki işçiden değil
ortalama durumdan söz ediliyor). 19
Regresyonda “Diğer Faktörleri Sabit
Tutma”nın Anlamı
• Çoklu regresyonda beta katsayılarını ceteris paribus
koşulu altında bağımsız değişkenlerin y üzerindeki
“kısmi etki”leri (partial effects) olarak yorumluyoruz.
• Örneğin, yukarıdaki regresyonda, β1=0.092, tecrübe ve
kıdemi aynı olan iki işçiden eğitimi 1 yıl fazla olanının
%9.2 daha yüksek ücret alacağı şeklinde yorumlandı.
• Bu yorum, verinin bu şekilde toplandığı anlamına
gelmez. Veri (data) rasgele seçilmiş 526 işçiye ait ücret,
eğitim ve kıdem bilgilerinden oluşuyor. Kıdemi ve
tecrübesi aynı olan işçileri ayrıca gruplandırmıyoruz.
• Aslında kıdemleri aynı olan işçilerden oluşan bir
örneklem olsaydı kıdem değişkenini modele koymaya
gerek kalmazdı. Ancak uygulamada çoğunlukla bu
mümkün değildir. Çoklu regresyon analizinde zaten
buna gerek yoktur. 20
Birden fazla bağımsız değişkeni aynı anda
değiştirmek
• Bazen x’lerden bir kaçını birden birer birim artırarak
bunların y’deki toplam etkisini bilmek isteriz, ya da,
x’lerden birini 1 birim artırdığımızda diğeri de
otomatik olarak artar.
• Örneğin, (3.19) daki regresyonda, kıdemi (tenure) 1
yıl artırdığımızda tecrübe (exper) de otomatik
olarak 1 yıl artar.
• Böylece, ikisinin ücret üzerindeki etkisi %2.61
olmuş olur:

21
EKK (OLS) den bulunan tahmini değer ve
artıklar (kalıntılar)
• (3.11) deki EKK (OLS) regresyonu her bir i.nci gözlem
için bir tahmini değer (fitted or predicted value)
verecektir :

• Yani, söz konusu i.nci gözleme denk gelen x


değerlerini regresyonda yerine koyup tahmini
değeri bulacağız.
• i.nci gözleme ait gerçek (actual) değerle regresyondan
bulunan tahmini değerin farkı ise artık terimi (residual)
verir :
22
SEK (OLS)’den bulunan tahmini değerlerin ve
artık terimlerin özellikleri
• Her bir gözlem için bir artık terim vardır.

1. Artıkların örnek ortalaması (sample average)


sıfırdır.
2. Her bir x ile EKK (OLS) artıklarının örnekten
bulunan kovaryansı sıfırdır (ilişkisizler). Bu, tahmini
değerlerle artıkların örnek kovaryanslarının da sıfır
olması anlamına gelir.

23
devam
• Bu özelliklerden ilk ikisi (3.13) deki SEKK (OLS)
denklemlerinden çıkan sonuçlardır.
• (3.13) deki ilk denklem artıkların toplamının sıfır
olacağını söyler.
• Diğer denklemler şeklindedir. Bunlar

ise, her bir x ‘in ile örnek kovaryansının sıfır


olmasını zorunlu kılar.
• 3.cü özellik 1.ci özelliğin bir sonucu olarak ortaya
çıkar.

24
x’leri birbirlerinin etkilerinden arındırarak da
betaşapkaları bulabiliriz
• İki bağımsız değişkenli, k=2, regresyonu ele alalım:

• x1’in eğim katsayı tahmin edicisi,

• olarak yazılabilir. Burada


x1’in x2 üzerine regresyonundan elde edilen kalıntılardır.

• (3.22) basitçe y’nin bu kalıntılar üzerine regresyonundan elde


edilen eğim parametresi olarak bulunabilir.
• Bu aslında ceteris paribus yorumunun başka bir versiyonudur.
Bu iki adımlı regresyonla x2’nin etkisi arındırılmıştır (partialled
out, netted out)
25
Basit ve çoklu regresyon tahminlerinin
karşılaştırılması
• y’nin x1 üzerine regresyonu ile y’nin x1 ve x2
üzerine regresyonu genel olarak farklı beta
tahminleri verir.

• Ancak, şu iki özel durumda iki regresyon da aynı


β1 tahminini verir :
1. x2’nin y üzerindeki kısmi etkisi sıfırdır,
2. Örneklemde x1 ve x2 ilişkisizdir.

26
Uyumun başarı derecesi ya da iyiliği
(Goodness of fit)
• Bütün kareler toplamı (total sum of squares): BKT (SST)

• Açıklanan kareler toplamı (explained sum of squares: AKT


(SSE)

• Kalıntı (artık) kareler toplamı(residual sum of squares):KKT


(SSR)

27
R2 : determinasyon katsayısı
• Son ifadenin her iki tarafını SST’ye bölersek

• Determinasyon katsayısı

olarak tanımlanır.
• R2’nin y’nin tahmin değerleri ile gözlenen değerleri
arasındaki korelasyon katsayısının karesi olduğu
gösterilebilir:

28
devam

• Tahmini değerlerin ortalaması gerçek (gözlenen,


actual) y değerlerinin ortalamasına eşittir :

= . Bunu, u’ların toplamının sıfır olduğunu ve

olduğunu dikkate alarak gösterebiliriz (son eşitlikte


her iki tarafın 1’ den n’ e kadar toplamını alınız,
sonra her bir terimi n’e bölünüz).

29
devam
• Regresyona yeni bir değişken
eklendiğinde R2 daima artış yönünde
hareket eder, hiçbir zaman azalmaz. Zira,
yeni değişkenler eklendikçe SSR (sum of
squared residuals) azalma yönünde
değişir, asla artmaz.
• Dolayısıyla, eklenen değişkenin katkısını
ölçmede R2 fazla iyi bir kriter değildir. Bu
amaç için “düzeltilmiş (adjusted) R2”
tanımlayacağız.
30
(devam) Örnek, Gretl gpa1.gdt

31
Orijinden geçen regresyon (regression
through the origin)
• Bazen iktisat teorisi regresyon sabitinin, β0, sıfır
olması gerektiğini telkin eder. Bu halde regresyon
şöyle olur :

32
devam
• Orijinden geçen regresyonda SEKK (OLS) yine SSR’ yi
minimize eder, ancak sabit terim (intercept) sıfıra eşit kılınarak
bu yapılır.
• Orijinden geçen regresyonda “1- SSR/SST” şeklinde
tanımlanmış R2 negatif çıkabilir.
• Negatif R2 sıfır olarak kabul edilebilir ya da sabit konarak
yeniden regresyon tahmini yapılır.
• R2’nin negatif çıkması, y’nin örneklem ortalamasının (ybar)
y’deki değişkenliği açıklamada modeldeki değişkenlerden daha
başarılı olduğu anlamına gelir.
• Eğer PRF’da β0 sıfırdan farklı ise orijinden geçen regresyonun
beta tahminleri sapmalı olacaktır.
• β0 gerçekte sıfır iken sıfır değilmiş gibi regresyona koymak
betaların varyanslarının daha büyük olarak tahmin edilmesine
yol açar.
33
SEK (OLS) tahmin edicilerin sapmasızlığını (kitle
parametreleri için) sağlayan varsayımlar

• VARSAYIM MLR.1: Parametrelerde Doğrusallık


• Bu varsayıma göre populasyon regresyon modeli
parametrelerde doğrusaldır:

34
Varsayımlar (devam)
• VARSAYIM MLR.2: Rassal Örnekleme

35
Varsayımlar (devam)
• VARSAYIM MLR.3: Sıfır Koşullu Ortalama

• Varsayım MLR.3 ‘ün sağlanamadığı bir durum regresyonun


fonksiyonel biçiminin yanlış seçildiği (misspecification)
durumdur.
• Önemli bir değişkenin regresyon dışında bırakılması (omitted
variable) da yine bu varsayımın ihlaline yol açar.
• Değişkenlerin ölçülmesinde yapılan hatalar (measurement
errors) yine varsayımın ihlalini doğurur.
• Varsayım MLR.3 sağlandığında, yani, x’lerle u’lar ilişkisiz ise,
“açıklayıcı değişkenlerimiz dışsaldır (exogenous)” deriz. Aksi36
halde, içsel (endogenous) x’ler söz konusudur.
Varsayımlar (devam)
• VARSAYIM MLR.4: Çoklu bağıntı olmaması varsayımı :

• x’ler bu varsayıma göre ilişkili olabilirler, ancak, tam çoklu-


bağıntı olmaması gerekir. x’ler tam ilişkili olurlarsa katsayılar
tahmin edilemez.
• Bu varsayıma göre açıklayıcı değişkenler ilişkili (correlated)
olabilirler. x’ler arasında korelasyona izin vermezsek çoklu
regresyondan istediğimiz faydayı alamayız.
• Örneğin, öğrenci notları, harcamaları ve aile geliri
regresyonunda aile geliri (avginc) ile harcama (expend)
arasında ilişki olduğunu bilerek bu değişkenleri modele
37
sokuyoruz. Amaç geliri kontrol etmek.
devam
• Regresyona, aynı bağımsız değişkenin değişik
doğrusal-olmayan (nonlinear) fonksiyonları sokulabilir.
Bu çoklu- bağıntıya yol açmaz. Örneğin :

• Oysa, şu örnekte çoklu-bağıntı vardır :

38
devam
• x’lerden birisi diğer x’lerin doğrusal kombinezonu
ise çoklu-bağıntı durumu gerçekleşir. Örneğin,
regresyona x1 ve x2’nin yanında x3(=x1+x2)
şeklinde, ya da, x3=ax1+bx2 şeklinde (a, b sabit)
başka bir değişken sokamayız.
• Gözlem sayısının (n) tahmin edilecek parametre
(k+1) sayısından küçük olması da çoklu-bağıntıya
yol açar : n<k+1.
• Pratikte tam çoklu-bağıntı durumu ile çok seyrek
karşılaşılır. Daha çok x’ler arasında yüksek bağıntı
söz konusudur.
• Tam çoklu-bağıntı durumunda SEK tahmin
edicilerini hesaplayamayız.
39
Yukarıdaki dört varsayım altında EKK (OLS)
tahmin edicileri sapmasızdır (unbiased)
• “SEKK (OLS) tahmin edicileri sapmasızdır” derken
örnekten bulunan tahminlerini
(estimates) kastetmiyoruz. Örnekten bulunan tahmin
sabit bir sayıdır ve sapmasız (unbiased) olamaz.
Sapmasız olan SEKK (OLS) tahmin edicilerinin elde
edildiği süreçtir (procedure).

40
devam
• Dört varsayım :
1. Parametreler bakımından doğrusallık,
2. Rasgele örnekleme,
3. Sıfır koşullu ortalama (zero conditional mean), yani,
u ile x’lerin ilişkisiz olması ve
4. Tam çoklu-bağıntı olmaması.
• En kritiği 3.cü varsayım. Modelde spesifikasyon
hatası ve ihmal edilmiş önemli değişken(ler)
yoksa bu varsayım sağlanabilir.
• Diğer 3 varsayımın sağlanması zor değil.

41
Modele gereksiz (irrelevant) bağımsız
değişken sokulması
• Çoklu regresyona kitle bakımından y üzerindeki
kısmi (partial) etkisi sıfır olan değişken ya da
değişkenlerin sokulması.Yani, PRF’da beta
katsayısı sıfır olan değişkenin sokulması.
• Bu duruma modelin “overspecifying” i denir.
• (3.38) deki PRF’da x3’ün kısmi katkısının sıfır
olduğunu varsayalım.

42
devam
• X3’ün kısmi katkısının sıfır olduğunu (PRF’ da β3=0
) bilmediğimiz için onu SRF’a dahil edeceğiz :

• Bunun regresyona etkisi ne olur?


• Diğer betalar yine sapmasızdır , β3 ise SRF’da belli
bir değer alacak, ancak, değişik tekrarlanan
örneklerdeki ortalama değeri (beklenen değeri) sıfır
olacaktır. Modele gereksiz x ‘lerin sokulması tahmin
edicilerin varyanslarının yüksek çıkmasına yol açar.

43
İhmal edilmiş değişkenin yol açtığı
sapma (Omitted variable bias)

• Yukarıdakinin tersine, PRF’da sıfır


olmayan bir beta katsayısına sahip geçerli
bir değişkeni dışarıda bırakalım.
• Bu duruma “modelin eksik spesifikasyonu”
(underspecifying the model) veya “geçerli
değişkenin dışarıda bırakılması “
(excluding a relevant variable) denir.
• Bu sorun EKK (OLS) tahmin edicilerin
sapmalı olmasına yol açar .
44
devam

• PRF iki tane x içersin ve MLR1-MLR4


varsayımlarını sağlasın :

• y : ücretler, x1: eğitim (educ), x2: ölçemediğimiz


doğuştan gelen yetenek “ability” olsun. Asıl
ilgilendiğimiz katsayı β1 olsun. Veri olmadığı için x2
‘yi zorunlu olarak dışlayacağız. SRF :

45
devam
• Örnek : Veri olmadığı için ability değişkenini
dışarıda bırakıyoruz:

46
Sapmanın miktarı
• (2.49) dan:

• (3.43) de yi yerine gerçek modeldeki değerini koyalım:

47
devam
• (3.46) da β2 ‘nin sağındaki oran, dikkat edileceği
üzere, x2 ‘nin x1 üzerine regresyonunun eğim
katsayısıdır :

• Böylece sapma miktarı :

• Eğer ise (yani, x1 ve x2 ilişkisiz ise) ya da


β2=0 ise (x2 geçersiz bir değişken ise) , bu halde, ,
β1 ‘in sapmasız bir tahmin edicisidir. 48
Sapmanın işareti
• X1 ve x2 ilişkili iken, x2’ nin dışarıda bırakılmasının
yol açacağı sapmanın işareti
‘nin her ikisine de bağlıdır. Aşağıdaki
tablo durumu özetliyor :

49
devam
• Sapmanın büyüklüğü de önemlidir.β1 ‘in büyüklüğüne
kıyasla küçük bir sapma ciddi bir sorun oluşturmazken,
görece olarak büyük bir sapma arzu edilir bir şey değildir.

• Pratikte β2 ‘nin büyüklüğünü çoğu kez bilemeyiz. Ancak, x2


‘nin, x1 ile ilişkisinin ve y üzerindeki etkisinin yönünü tahmin
edebiliriz. Örneğin, ability, educ ile muhtemelen doğru
orantılıdır ve ücretler üzerinde + etki yapmaktadır.
• Demek ki, ability’nin dışarıda bırakılması educ katsayısının
tahmininde pozitif bir sapmaya yol açacaktır. Yani,
> β1 olacaktır. Ability’nin katkısı yinelenen örneklerde
educ’un katkısı gibi görülecek.
50
devam
• Dışarıda bırakılan değişkenin etkisi u içinde yer
alacağı için, dışlanan x ile ilişkili olan diğer x’ler u ile
ilişkili çıkacak, bu ise, tüm katsayıların sapmalı
olmasına yol açacaktır.
• x3 dışarıda bırakılsın. x3, x1 ile ilişkili, x2 ile ilişkisiz
olsun. Gerçek (true) ve tahmin edilen modeller
şunlardır:

• Bu durumda, ‘nin her ikisi de sapmalı


olacaktır. Ancak, x1 ve x2 ilişkisiz ise, o zaman, β2
sapmasız olacaktır.
51
devam

• Örneğin, aşağıdaki regresyonda abil ‘in dışarıda


bırakılması β1 ve β2 ‘nin her ikisinin de sapmalı
olmasına yol açacaktır. Exper ‘in abil ile ilişkisiz
olduğunu varsaysak bile bu değişmiyor.

52
SEK (OLS) tahmin edicilerin varyansı
• Regresyondan tahmin edilen betalar bize ortalama hakkında
bilgi verecektir. Ayrıca, betaşapkaların nasıl dağıldıklarını
bilmek için onların varyanslarına da ihtiyacımız vardır.
• Artık terimlerin varyansının sabit olduğunu
(homoskedasticity) varsayacağız : iki nedenle, 1.varyans
formüleri daha basit hale gelir, 2. Tahmin ediciler etkinlik
(efficiency) özelliği kazanır.
• Sabit varyans varsayımı sapmasızlık (unbiasedness) için
gerekli değildir.
• VARSAYIM MLR.5: SABİT VARYANS

53
devam

• Örnek : Aşağıdaki regresyonda homoskedasticity,


gözlenemeyen hata terimleri u’nun varyansının
eğitim, tecrübe ve kıdem seviyesine bağlı
olmaksızın sabit bir değer almasını gerektirir :

54
Gauss-Markov varsayımları

• Yukarıdaki MLR.1 - MLR.5 deki beş varsayım


kesitler-arası (cross-section) regresyon için
Gauss-Markov varsayımları adını alır.
• Bu varsayımlar şunlardı: 1.parametreler
bakımından doğrusallık, 2.rasgele örnekleme, 3.
u’ların koşullu beklenen değerinin sıfıra eşitliği,
4. tam çoklu-bağıntı olmaması, 5.
homoskedasticity.
• Kesitler-arası verinin rasgele örnekleme
(random sampling) ile elde edildiğini
varsayıyoruz.
• Zaman serilerinde bu varsayımları yeniden
formüle edeceğiz.
55
Varsayım MLR.3 ve MLR.5’i y cinsinden de
ifade edebiliriz
• x kümesi, x1, x2,….,xk bağımsız değişkenlerini ifade etsin.
• (3.32) nin sağ ve sol tarafının x’e göre koşullu beklenen
değerini alır ve E(u|x)=0 (Varsayım MLR.3) yerine koyarsak
şu eşitliğe ulaşırız:

• Bu, varsayım MLR.3 ‘ün başka bir ifadesidir.


• Yine,(3.32)’nin her iki tarafının x’e göre koşullu varyansını
alırsak,
Var (y|x) = Var (u|x)=σ2
buluruz. Bu ise varsayım MLR.5 ‘in iki farklı şekilde ifadesidir.
56
Eğim katsayıları betaşapka’ların örnekten
bulunan varyansları
• Yukarıdaki beş Gauss-Markov varsayımlarının
tümünü kullanarak betaşapkaların varyansını şöyle
bulacağız :

57
SEK (OLS) varyanslarının bileşenleri
(components)
• (3.51) den, betaların varyansının üç faktöre bağlı olduğunu
görüyoruz :

• σ2 : Kitlenin hata terimleri varyansı ne kadar büyük ise,


yani, PRF’da gözlemler regresyon çizgisinden ne denli
uzak dağılmışsa (veride noise var diyoruz), betaların
varyansı o denli büyük olur. Bu ise, tahminin kesinlikten
uzak olmasına yol açar. Kurulan güven aralıkları çok geniş
olur.
• σ2’ yi düşürmek için regresyona yeni güçlü açıklayıcı
değişkenler (bulabiliyorsak) eklememiz gerek.
58
devam
• xj’deki toplam değişme, SSTj, büyüdükçe
betanın varyansı düşer. Yani, bağımsız
değişkenlerde değişme ne kadar çoksa o kadar
daha kesin tahminler yapabileceğiz. Tersine,
değişmenin azlığı varyansın büyük olmasına, o
da tahminin muğlaklığına yol açacaktır.

• xj’deki toplam değişmeyi artırmanın tek yolu


örnek hacmini (n) artırmaktır. Dolayısıyla, n
arttıkça SSTj sınırsız olarak artacak, bu ise,
betaşapkaların varyansını düşürecek, daha
kesin tahminler yapmamız mümkün olacaktır.
59
devam
• OLS t.e.nin varyansı x’lerin birbirleriyle doğrusal ilişkilerinin
gücüne de bağlıdır. Rj2 bu ilişkiyi gösterir.
• Rj2 bire yaklaştıkça yani x’ler arasında güçlü bir doğrusal
ilişki varsa varyans büyür.
• Tek bir tane x’in olduğu basit regresyonda β1’in varyansını
veren formülde bu terim yer almaz.
• İki bağımsız değişkenli durumu, k=2, ele alalım:

60
devam

• , xj’nin örnek değerlerindeki toplam değişmenin diğer


x’ler tarafından açıklanan % kısmıdır, yani, şu regresyonun
determinasyon katsayısıdır :
xj = β0 + β1 x1 + ... + βk xk + u
• xj, diğer x’lerle ne kadar az ilişkili ise βj’nin (3.51) den
hesaplanacak varyansı da o denli küçük olacaktır.Aksine,
, ne kadar 1’e doğru yaklaşırsa varyans o kadar büyük
olacaktır.
• Yani, x’ler arasında yüksek çoklu-bağıntı (multicolinearity)
olması tahminin kesinliğine zarar verir. Tam çoklu-bağıntı
halinde, =1 , zaten betaları hesaplayamıyorduk
(Varsayım MLR.4 ‘ün ihlali).
61
devam
• Örnek hacminin (n) küçüklüğü ve yüksek çoklu-
bağıntının her ikisi de betaların varyanslarının
yüksek olmasına yol açtığı için, yüksek –çoklu
bağıntı sorununu bir “küçük örnek hacmi sorunu”
olarak görebiliriz. Arthur Goldberger buna
micronumerosity diyor.
• x’ lerin bazıları arasında (x2 ile x3 diyelim) yüksek
ilişki var, bazıları arasında (x1 ile x2 ve x1 ile x3
arasında diyelim) ilişki yoksa, ilişkisiz olan x’e (x1
burada) ait betaşapkanın varyansı, Var(β^1), ilişkili
x’ler arasındaki korelasyondan etkilenmez. Yani,
Var(β^1) formülüne sadece girecektir.
62
devam

63
Varyans ve sapmasızlık arasında seçim
• Gerçek kitle modeli şu olsun :

• Bu modeli önce iki bağımsız değişkenle (x1 ve x2),


sonra sadece x1 ile tahmin edelim:

• Var (β^1) ilk ve ikinci modelde şunlara eşittir :

64
devam
• Tahmin edilen iki beta’nın varyans ve sapmasızlık
mukayesesi şöyledir :

65
devam
• ise seçim daha zor. x2 ‘ yi dışarıda bırakmak β1’ in
tahmininin sapmalı olmasına yol açacak. Dahil etmek ise
β1’in varyansını yükseltecek. İkilem (trade-off) durumu.
• Ekonometrisyen bu iki zıt yönlü etkiyi ölçüp tartacak ve x2 ‘yi
denkleme sokup sokmayacağına karar verecek.
• Ancak, x2’ yi dahil etme yönünde işleyen iki etken var : 1.
Sapma (bias) örnek hacmi n arttıkça azalmaz, oysa, çoklu-
bağıntı (ve onun yol açtığı vayans artışı) azalır. Dolayısıyla,
x2’ yi denkleme dahil edip mümkün olduğu kadar büyük
örnek bulmalıyız. 2. Formül (3.54) ve (3.55) ‘deki σ2, x2’nin
dışlanmasını dikkate almadan hesaplanan hata terimleri (u)
varyansıdır. x2’ yi dışladığımızda u’nun varyansı artacaktır.
Dolayısıyla (3.55) deki σ2 orada gözükenden daha büyüktür.
• Yani, x2’yi dışlamanın getireceği düşük varyans avantajı
formüllerde gözükenden daha azdır. 66
σ2’nin tahmini: OLS t.e.nin standart hataları
• PRF’daki u’ları gözlemleyemeyiz. Onların yerine,
tahmin edilen regresyondan hesaplayacağımız artık
terimleri vardır :

• Çoklu-regresyonda σ2’nin sapmasız bir tahmin


edicisi şudur :

67
devam
• Serbestlik derecesi (df) =n-(k+1) eşitliği şuradan
gelmektedir:
Birinci sıra (first order) SEKK (OLS) koşulları k+1
tane idi :

Böylece SEKK (OLS) artıkları (residuals) üzerine


k+1 tane kısıt koyuyoruz. Yani n tane artık’tan
n-(k+1) tanesi verilince geriye kalan k+1 artığı
otomatik olarak biliyoruz. Demek ki, artıklardaki
serbestlik derecesi n-(k+1) dir.
• Kitleye ait hata terimleri (errors), u(i), için df ise
n ‘dir. 68
σ2 ‘nin sapmasız tahmin edicisi

(ispatı Appendix E ‘de verilmektedir).

• Regresyona yeni bir açıklayıcı değişken eklendiğinde SER


düşebilir de artabilir de. Zira, yeni bir x eklenince SSR
düşer, ancak df de 1 azalır. (3.56), net etkinin hangi yönde
olacağını gösterecektir. 69
Betaşapkaların standart sapmaları

• Betalarla ilgili hipotez testleri yapmak ve güven


aralıkları oluşturmak (buna inference denir) için
onların standart sapmalarına ihtiyacımız vardır :

70
devam

• Standart hataların hesaplandığı (3.51) u’ların


varyansının sabit olduğu (homoskedasticity)
varsayımına, MLR.5, dayanıyordu. Artıklar
değişken-varyansa sahipse (heteroskedasticity)
(3.58) doğru sonuç vermeyecektir.
• Yani, değişken-varyans betaların sapmasızlığını
etkilemediği halde, betaların varyans formüllerini
geçersiz kılmaktadır.
• Değişken-varyans durumunda ne yapılabilceğini
ch. 8 de göreceğiz.

71
SEK (OLS)’nin etkinliği: Gauss-Markov Teoremi
• Neden SEKK (OLS) tahmin edicileri diğer tahmin
edicilere tercih ediyoruz?
• Gauss-Markov teoremi SEKK (OLS) ‘i tercih
etmemizin gerekçelerini sunar.
1. Varsayım MLR.1-MLR.4 altında SEKK (OLS)
sapmasız tahmin ediciler verir.
2. Varsayım MLR.1-MLR.5 altında SEKK (OLS)
tahmin edicileri, minimum varyanslı, doğrusal ve
sapmasızdırlar :

72
BLUE

73
Gauss-Markov teoremi

• Gauss-Markov teoreminin önemi şuradan gelmektedir:


Eğer varsayım MLR.1-MLR.5 sağlanıyorsa, bu durumda
artık (3.59) daki türde başka doğrusal ve sapmasız tahmin
ediciler aramamıza gerek yoktur. En küçük varyanslı
tahmin edici SEKK (OLS) dir.
• 5 varsayımdan birisi ihlal edilirse teorem geçersiz olur.
MLR.3 sağlanamazsa sapmasızlık, MLR.5 sağlanamazsa
minimum varyanslılık özelliği kaybolur.
74
Appendix : Sapmasızlık teoreminin
(Th. 3.1) ispatı
devam

76
Teorem 3.2 (sh.93)’nin ispatı:

77
Gauss-Markov teoreminin (Th. 3.4) ispatı

78
devam

79
devam

80
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 4:
Çok Değişkenli Regresyon Analizi:
Çıkarsama

Doç. Dr. Hüseyin Taştan1

1 Yıldız Teknik Üniversitesi, İktisat Bölümü, Yıldız Kampüsü H Blok, Oda no. 124, Beşiktaş, İstanbul.
Email: tastan@yildiz.edu.tr
Ch. 4: Çoklu Regresyon Analizi:
Çıkarsama
• Bu bölümde PRF’nın parametreleri için hipotez testleri
oluşturacağız.
• “anakitle hata terimleri (u) normal dağılmıştır” varsayımı
(Varsayım MLR.6) altında SEKK (OLS) tahmin edicilerin
dağılımlarını inceleyeceğiz.
• Önce tek tek parametreler hakkında hipotez testleri
kuracağız (Section 4.2-4.3), sonra birden çok
parametreyi içeren testler yapacağız (Section 4.4).
• Bir gurup bağımsız değişkenin tümünün birden model
dışında bırakılıp bırakılmayacağına nasıl karar
vereceğimizi göreceğiz.

2
SEKK (OLS) tahmin edicilerin örnekleme
dağılımları (sampling distributions)
• SEKK (OLS) tahmin edicilerin beklenen değer ve
varyanslarını bildiğimize göre bu tahmin edicilerin
kesinlik derecelerini (precision) ele almamız yararlı
olacaktır.
• Ancak, istatistiksel çıkarım (inference)
yapabilmemiz için ‘nin ilk iki momentinden
(ortalama ve varyans) başka bunların tüm örnek
dağılımlarını bilmemiz gerek.
• Gauss-Markov varsayımları altında dahi ‘lerin
dağılımları herhangi bir biçimi alabilir.
3
VARSAYIM MLR.6: Normallik

• Bu varsayıma göre hata terimi ortalaması 0


varyansı σ2 olan bir normal dağılıma uyar.
• Varsayım MLR.6 daha önceki varsayımlardan çok
daha kuvvetli bir varsayımdır.
• Bu varsayımın yapılması, MLR.3 (sıfır koşullu
ortalama) ve MLR.6 (sabit varyans) varsayımlarının
da yapıldığı anlamına gelir.

4
devam
• Gauss_Markov varsayımları (MLR.1-5) +
Normallik varsayımı (MLR.6) = Klasik Doğrusal
Model (CLM) Varsayımları
• CLM varsayımları altında SEKK (OLS) tahmin
edicileri sadece doğrusal tahmin ediciler
arasında değil, yi’ler cinsinden doğrusal olsun ya
da olmasın tüm tahmin ediciler arasında en
küçük varyansa sahip sapmasız (unbiased)
tahmin edicilerdir (bkz. Appendix E).
• CLM anakitle varsayımları özet bir biçimde şöyle
gösterilebilir:
5
Tek açıklayıcı değişkenli modelde sabit varyanslı normal dağılım
(Figure 4.1)

6
u’ların dağılımını neden normal dağılım sayabiliriz?
• u’lar y’yi etkileyen (x’ler dışında) pek çok
faktörün toplam etkisini yansıtır.
• Bu nedenle, merkezi limit teoreminden (central
limit theorem, CLT) (App.C) yararlanarak u’ların
Normal dağıldığını söyleyebiliriz.
• Ancak, bu varsayımın zayıf tarafları da çoktur.
Örneğin, u’yu oluşturan faktörlerin anakütle
dağılımları çok farklı biçimlerde olabilir. CLT’in
bu durumlarda hala işlediğini varsayıyoruz.
• Bazı durumlarda değişkenlerin dönüştürmeleri
(örneğin log) kullanılarak normal dağılıma yakın
dağılımlar elde edilebilir.
7
devam
• CLT, u’ları oluşturan gözlenemez faktörlerin
toplam (additive) biçiminde yer aldıklarını
varsayar. Oysa, bunun garantisi yoktur. Eğer, u,
bu gözlenemez faktörlerin daha komplike
(karmaşık) bir fonksiyonuysa, CLT bu konuda
bize yardımcı olmaz.
• Uygulamada u’ların N dağılıp dağılmadığı
ampirik bir sorundur. Örneğin, ücretlerin; eğitim,
tecrübe ve kıdem’e koşullu dağılımının N olup
olmadığı bir ampirik sorundur. Bunun böyle
olması gerektiğini söyleyen bir teorem yoktur.
• Ücretlerin negatif değer almaması ve asgari
ücret uygulaması, ücretler için N dağılım
varsayımının fazla geçerli olmadığını telkin eder.
8
devam
• Log dönüştürme dağılımın normale
yaklaşmasına oldukça yardımcı olur.Örneğin,
fiyat (price) değişkeninin dağılımı normalden çok
uzak iken Log (price) N dağılıma yakın
olmaktadır.
• MLR.6 varsayımının açıkça sağlanamadığı
durumlar vardır. Örneğin, sadece birkaç değer
alan y’ler böyledir. “ankete katılanların belli bir
yılda, 2004 diyelim, hapse giriş sayıları”
değişkeni böyledir. Çoğu gözlem için 0, bazı
gözlemler için 1,2,3 … gibi değerler alacak.
• Ch.5’de göreceğimiz gibi, büyük örnek
hacimlerine sahipken hata terimlerinin N
dağılmaması ciddi sorun yaratmayacaktır.

9
OLS t.e.’nin Örnekleme Dağılımları Normaldir
• THEOREM 4.1: MLR.1-MLR.6 varsayımları altında OLS
tahmin edicilerinin, x’lere koşullu olarak örnekleme
dağılımları normaldir:

• Standardize edersek:

• Theorem 4.1’in ispatı zor değildir. CLM varsayımları


sağlanıyorsa, normal dağılmış bir rassal değişkenin
doğrusal kombinasyonları da normal dağılır.

10
devam
• SEK t.e. şöyle yazılabiliyordu:

• Burada,

• xj’nin tüm diğer açıklayıcı değişkenler üzerine


regresyonundan gelen i.nci kalıntı terimi ve SSRj bu
regresyonunun kalıntı kareleri toplamıydı.
• wj’ler x’lere koşullu olarak sabit kabul edilebildiğinden
(sadece x’lerin fonksiyonu olduklarına dikkat edin) her bir
SEK t.e. u’ların doğrusal bir kombinasyonudur.
11
Bir populasyon parametresine ilişkin testler: t-testi
• Aşağıdaki PRF’nun CLM varsayımlarını sağladığını
varsayalım :

• Bilmediğimiz anakitle parametreleri hakkında


hipotezleri oluşturabilmek için şu teoreme ihtiyacımız
vardır :

12
devam
• Teorem 4.1’de SEK t.e.nin örnekleme dağılımlarının
normal olduğunu ve böylelikle

yazılabileceğini göstermiştik. Ancak bu ifadenin


paydasında yer alan sd(betahatj) teriminde hata terimi
u’nun populasyondaki gerçek varyansının karekökü σ yer
almaktaydı.
• Bunun yerine tahmin edicisini koyarsak

• Ortaya çıkan rassal değişken (n-k-1) s.d. İle t-dağılımına


uyar
13
devam
• Teorem 4.2 betalara ilişkin hipotezleri test etmemize olanak
tanır. Özellikle parametrenin gerçek değerinin sıfır olduğunu
söyleyen null hipotezi ile ilgileneceğiz:

• Boş (null, sıfır) hipotez şunu söylüyor: “x1,x2,…,xj-1, xj+1,…xk’nın


y üzerindeki etkileri dikkate alındığında,yani, xj dışındaki x’ler
kontrol edildiğinde, xj’nin y’nin beklenen değeri üzerindeki etkisi
sıfırdır.”
• Örneğin,

regresyonunda hipotezi, eğitim ve kıdemin etkisi


kontrol edildikten sonra exper’in saat başına ücretler üzerinde
14
etkisi olmadığını söyler.
t istatistiği (t değeri)

• (4.4) deki testi t değerini kullanarak yapacağız:

• Sıfıra karşı değil de herhangi bir başka değere karşı (beta*)


test yapıyorsak, formül şöyle olur:
t =(betahat – beta*)/ se(betahat)
• se(betahat) >0 olduğu için t ile betahat’in işareti aynıdır.
• se ile t değeri ters yönlü ilişkilidir.se ne kadar yüksekse t
değeri mutlak olarak o denli küçük çıkar.
• Beta(hat) Ho hipotezi doğru olsun olmasın tam olarak sıfır
çıkmaz. İstatistiksel olarak sıfır olup olmadığı ise
se(betahat)’ine bağlı.
15
devam
• Anlamlılık düzeyi (significance level) =1.ci tip hata =
Doğru bir H0 hipotezini (yanlışlıkla) reddetme
olasılığı =α
• (4.4)ü reddetmek için bir karar kuralı
belirleyebilmek için “Ho doğru iken ‘nin
örnekleme dağılımını (sampling distribution)”
bilmemiz gerek. Teorem 4.2’den biliyoruz ki,bu
dağılım ‘ye eşittir.
• Test ettiğimiz bilinmeyen kitle parametresi beta’dır,
yoksa örnekten bulunan ve somut bir değer almış
olan betahat değildir.
16
Tek yanlı alternatiflere karşı test
• H0’ı reddetmek için bir karar kuralı geliştirebilmek
için geçerli bir alternatif hipotez kurmamız gerek:
• H1: βj >0, H1: βj <0 veya H1: βj ≠ 0
• Bunlardan hangisini alternatif hipotez olarak
alacağımıza iktisat teorisi bilgimize başvurarak
karar veririz.
• H1: βj >0 almışsak,boş hipotez
şeklinde teşkil edilmiş demektir.
• Karar kuralı: Verilen α düzeyinde ise
(c, kritik değer) H0’ı reddederiz.

17
28 serbestlik derecesinde sağ kuyruk testi için %5 düzeyinde karar kuralı

18
19
Sol kuyruk testi için karar kuralı, s.d.=18

20
Örnek

• Example 4.2: Student Performance and School


Size
• GRETL, meap93.gdt
• ABD’nin Michigan eyaletindeki 408 liseye (high
school) ilişkin 1993 yılı verileri
• Okul büyüklüğü öğrenci sayısı ile ölçülüyor
(enroll).
• Totcomp: average annual teacher
compensation,
• Staff: 1000 öğrenci başına öğretmen sayısı
• Math10: 10 üzerinden math testi sonuçları
21
Örnek 4.2

22
Regresyonun fonksiyonel biçimini
değiştirelim:Level-Log model

23
devam

24
H0:βj=0 hipotezinin iki-taraflı karşı hipotezle testi

• Alternatif hipotez iki taraflı olduğunda yani

için karar kuralı

• olur. Burada c, α düzeyinde test için t(n-k-1,α/2) kritik


değeridir.
• Eğer parametrenin işaretinin ne olacağına dair teori
yeterince bilgilendirici değilse bu şekilde iki taraflı
alternatif hipotez kullanılabilir.
• Alternatif hipotez verilere bakılmadan (regresyon tahmin
edilmeden önce) formüle edilmelidir.
25
İki taraflı karşı hipotez için %5 anlamlılık düzeyinde karar
kuralı, s.d.(df)=25

26
Örnek 4.3: Determinants of College GPA,
(GRETL, gpa1.gdt)

27
devam

28
βj’nin sıfırdan farklı değerler için testi

29
Örnek 4.4: Campus Crime and Enrollment
GRETL: campus.gdt

30
31
32
Örnek 4.5: Housing Prices and Air Pollution
GRETL: hprice2.gdt

33
t-testi için p-değerinin hesaplanması

• Farklı anlamlılık düzeyleri (%1, %5, %10 gibi) –


farklı 1. tip hata payları-için test yapacağımıza,
hesaplanan t değeri için “H0’ı
reddedebileceğimiz en düşük anlamlılık düzeyi
(α*) ”ni belirleyebiliriz.
• İşte bu “en düşük α” düzeyine p-değeri (p-value)
denir.
• Standart regresyon paketlerinde otomatik olarak
hesaplanan p-değerleri “H0: βj=0” boş hipotezi
için hesaplanmış p değerleridir.

34
35
Terminoloji
• H0 boş hipotezini %α anlamlılık düzeyinde
reddedemiyorsak, “H0’ı % α anlamlılık düzeyinde
reddedemiyoruz” (we fail to reject H0 at the α %
level).
• “H0,%α düzeyinde kabul edildi (H0 is accepted at
th α % level)” demeyeceğiz.
• Beta katsayılarının istatistiksel olarak anlamlı
olup olmadıkları (statistical significance)
tamamen t değerlerine bağlıdır.
• Oysa ekonomik yönden anlamlı olup olmadıkları
(economic significance), ciddi bir büyüklüğü
temsil edip etmedikleri ise betahat’lerin mutlak
büyüklüklerine bağlıdır.
36
Büyük standart hatalar ve küçük t değerleri
• Örnek hacmi (n) arttıkça betaların varyansları ve
dolayısıyla da standart hataları, se(betahat),
düşer.Yani, beta parametrelerini çok daha kesin
bir şekilde (more precisely) tahmin edebiliriz.
• Bu nedenle, n büyükken küçük anlamlılık
düzeyleri (%1 gibi) ile test yapmak daha
uygundur. n küçükken α’yı %10’a kadar
düşürerek test yapabiliyoruz.
• Büyük standart hataların diğer bir nedeni bazı
x’ler arasındaki yüksek çoklu-bağıntıdır (high
multicollinearity).
• Yüksek çoklu-bağıntı durumunda daha fazla
gözlem toplamak dışında yapabileceğimiz çok
fazla bir şey yoktur.
37
Ekonomik ve istatistiksel anlamlılığın
yorumlanmasında bazı ilkeler:
• Öncelikle değişkenin istatistik bakımından anlamlı olup
olmadığı kontrol edilmelidir. Eğer anlamlı ise (statistically
significant) katsayı tahmininin büyüklüğünden hareketle
ekonomik anlamlılık tartışılabilir.
• Bu tartışma özenle yapılmalıdır. Özellikle ölçü birimlerine, log
dönüştürmesi olup olmadığına dikkat edilmelidir.
• Eğer bir değişken geleneksel düzeylerde (%1, %5, %10)
anlamlı olmasa bile, y üzerindeki etkisinin büyüklüğüne
bakılabilir. Bu etki büyükse p-değeri hesaplanıp yorumlanabilir.
• Küçük t-oranlarına sahip değişkenlerin yanlış işarete sahip
olmalarına sık rastlanır. Böyle durumda değişkenin etkisi
anlamsız olduğundan yorumlanmaz.
• Katsayı tahmini ekonomik ve istatistiksel açıdan anlamlı fakat
yanlış işaretli bir değişkenin yorumlanması daha zordur. Bu
durumda model spesifikasyonu ve veri problemi üzerinde 38
durulması gerekebilir.
4.3 Confidence Intervals (CI) (güven
aralıkları)
• Klasik doğrusal model (CLM) varsayımları
altında anakitle parametreleri (β’lar) için güven
aralıkları oluşturabiliriz.

• Bunlar, aralık şeklinde tahminlerdir (interval


estimates).
• Regresyondan bulunan betahat’ler ise nokta
şeklindeki tahminlerdir (point estimates).

39
Güven Aralıkları: devam
• Aşağıdaki oranın

• (n-k-1) s.d. İle t-dağılımına uyduğunu biliyoruz. Bunu


kullanarak katsayılar için güven aralıklarını kolaylıkla
hesaplayabiliriz.
• %95 güven aralığı:

• Burada c, t(n-k-1) dağılımının 97.5nci yüzdelik değeridir.


• Alt ve üst güven sınırları sırasıyla

40
Güven aralığının yorumu
• İstatistik dersinde öğrendiğimiz güven aralığı yorumunu
burda da yapacağız.
• Olanaklı tüm örneklemleri çeksek ve örneklem için
regresyon tahmin edip, ilgili populasyon katsayısı için
güven aralıkları oluştursak, bu güven aralıklarının
%100(1-α) kadarı doğru parametre değerini içerecektir.
• Örneğin 100 güven aralığından 95’inin doğru
parametreyi içerdiğini söyleriz. Burada α/2=0.025
olduğuna dikkat ediniz.
• Pratikte elimizde sadece bir güven aralığı vardır ve biz
doğru değerin bu aralık içinde olup olmadığını bilmeyiz.

41
devam
• Güven aralıklarını hesaplayabilmek için üç büyüklüğe
ihtiyaç vardır: katsayı tahmini, katsayı tahmininin
standart hatası ve kritik değer.
• Bir çok ekonometri programı ilk iki büyüklüğü hesaplar.
• c’yi bulmak için serbestlik derecesine (n-k-1) ve güven
düzeyine (1-α) ihtiyaç duyulur.
• Örneğin sd=25 ve %95 güven düzeyi ile herhangi bir
anakütle parametresi için güven aralığı

olur. Serbestlik derecesi arttıkça (n>120) t dağılımı


yerine standart normal dağılımın yüzdelik değerleri
kullanılabilir.
42
devam
• Rule of Thumb: n-k-1>50 ise %95 güven aralığı kısa yoldan

βˆ j ± 2 ⋅ se ( βˆ j )
• İle bulunabilir.
• Aşağıdaki hipotezi test etmek istediğimizi düşünelim.

• H0 ancak ve ancak %95 güven aralığı aj’yi içermiyorsa %5 anlamlılık


düzeyinde H1 lehine reddedilebilir.

43
Örnek 4.8: Hedonic Price Model for Houses
• Bir malın fiyatının o malın karakteristikleriyle açıklanması
hedonic fiyat modelinin oluşturur.
• Bir evin değerini belirleyen bir çok özelliği bulunur:
büyüklüğü, oda sayısı, şehir merkezine, parklara ve
okullara uzaklığı, vs.
• Bağımlı değişken: log(prices): ev fiyatlarının doğal
logaritması
• Açıklayıcı değişkenler:
– sqrft (square footage) evin büyüklüğü, footkare cinsinden 1
square foot = 0.09290304 m2, yani 100m2 yaklaşık 1076 ftsq.
– bdrms: evdeki oda sayısı
– bthrms: banyo sayısı

44
Örnek 4.8: Hedonic Price Model for Houses
GRETL: hprice1.gdt
• 19 gözleme dayanılarak tahmin edilen regresyon
şöyledir:

• Standart hatalar parantez içindedir. Katsayı tahminlerinin


yorumlanması:
• Hem price hem de sqrft logaritmik olduğundan ilgili
katsayı bize esnekliği verir: Oda ve banyo sayısı
sabitken evin büyüklüğü %1 artarsa fiyatlar %0.634
artar. 45
Örnek 4.8: Hedonic Price Model for Houses
GRETL: hprice1.gdt
• sd=n-k-1=19-3-1=15 olduğundan t15 dağılımının 97.5nci
percentile’i c=2.131 olur. Buradan %95 güven aralığı

• yani, (0.242, 1.026) olur. Hipotezi sıfır bu


aralıkta yer almadığından iki taraflı karşı hipotez lehine
reddedilir.
• Bdrms değişkeninin katsayısı beklentilerimizin (?) aksine
negatif çıkmıştır. Ancak unutulmaması gereken şey,
bdrms katsayısını ceteris paribus yorumladığımızdır.
Evin büyüklüğü ve banyo sayısı aynıyken oda sayısını
arttırmak daha küçük odalar anlamına gelir ve bu
genellikle tercih edilmez.
46
Örnek 4.8: Hedonic Price Model for Houses

(-0.192, 0.060)

• olarak bulunmuştur. Bu güven aralığı sıfırı içerdiğinden


bdrms değişkeninin ev fiyatları üzerindeki etkisinin
istatistik bakımından anlamsız olduğunu söyleyebiliriz.
• Bthrms: katsayı tahmini 0.158 olarak bulunmuştu.
Yorum: banyo sayısı bir arttığında ev fiyatları yaklaşık
%100(0.158)=%15.8 artacağı tahmin edilmektedir.
• Bu değişken için %95 güven aralığı (CI) (-0.002, 0.318)
olarak bulunmuştur. Teknik açıdan sıfırı içerdiğinden
anlamsız olduğu söylenebilir. P-değerini hesaplayıp
yorumlamak daha doğru olur. 47
Güven aralıkları ve varsayımlar
• Güven aralıkları ancak temelindeki CLM
varsayımları sağlanıyorsa güvenle kullanılabilir,
yoksa yanlış bilgi verir.
• Mevcut x’lerle ilişkili önemli değişkenler dışta
bırakılmışsa u’lar x’lerle ilişkili olacak, bu da
betahat’lerin sapmalı olmasına (omitted variable
bias) yol açacaktır.
• Yine, eğer heteroscadasticity varsa, örneğin,
yukarıdaki örnekte, Log(price)’ın varyansının
x’lerden birisi ile birlikte değişmesi durumu,
standart error’lar, sd(betahat,j)’in tahmin edicisi
olarak geçersiz olacaklardır.
• “u’ların Normal dağıldığı varsayımı” da gereklidir.
Ancak,örnek büyükse bu genellikle sorun olmaz.
48
Parametrelerin tek bir doğrusal kombinasyonuna
ilişkin hipotez testleri

• Bu bölümde birden çok betaya ilişkin testleri nasıl


yapacağımızı göreceğiz.
• Üniversitede okunan bir yılla yüksek okulda okunan bir yılın
ücrete katkısı (getirisi) aynı mıdır?

• jc: junior college (yüksek okul, mesleki okul)’da okunan yıl


sayısı ; univ: üniversitede okunan yıl sayısı
• Boş hipotez : H0 : β1=β2 → (β1-β2=0)
• Alternatif hipotez : H1 : β1<β2 → (β1-β2<0)

49
devam
• Test birden fazla betayı (iki beta) ilgilendirdiği için t
istatistiği tek beta durumundakinden farklı hesaplanacaktır;

50
devam
• betahat’lerin kovaryanslarını veren formül doğrusal cebir
kullanılarak türetilecektir (bkz. Appendix E).
• Ancak, burada, regresyonu yeniden düzenleyerek
‘yi direkt olarak bulabiliriz.
• Bunun için yeni bir parametre tanımlayalım:

• Test etmek istediğimiz hipotez şöyle olur:

• Modeli şu şekilde yazabiliriz:

51
(4.17) deki orijinal regresyonun tahmini

52
(4.25) deki yeniden düzenlenmiş modelin tahmini

53
Çoklu Doğrusal Kısıtların Testi: F-Test

• Regresyondaki t istatistikleri anakitleye ait beta


parametrelerinin belli bir sabit’e eşit olup
olmadığını test etmemize yarar.
• Beta’ların tek bir doğrusal kombinezonunun belli
bir sabite eşit olup olmadığının testini ise,
yukarıdaki örnekte gördüğümüz gibi,
değişkenleri dönüştürerek modeli yeniden
düzenlemek suretiyle yapıyorduk.
• Ancak, şu ana kadar hep “tek bir kısıt
(restriction)”la ilgili test yapıyorduk.
• imdi çok sayıda kısıt varken nasıl test
yapacağımızı görelim.
54
Dışlama Kısıtlarının Testi
(Testing Exclusion Restrictions)
• Regresyonda yer alan bir değişkenler grubunun birlikte y üzerinde
anlamlı bir etkisinin olup olmadığını test etmek istiyoruz.
• Örnek olarak şu modeli düşünelim:

y = β0 + β1x1 + β2 x2 + β3 x3 + β4 x4 + β5 x5 + u
• Test etmek istediğimiz hipotez şudur:

• Sıfır hipotezi x3, x4 ve x5 değişkenlerinin birlikte y üzerinde bir etkisinin


olmadığını söylemektedir. Alternatif hipotez en az birinin sıfırdan farklı
olduğunu söylemektedir.
55
Kısıtlanmış (restricted) ve kısıtlanmamış
(unrestricted) modeller:

• H0 altında (yani H0 doğru kabul edildiğinde) elde edilen


modele kısıtlanmış model denir. Örneğimizde H0’daki
kısıtları koyarsak aşağıdaki restricted modele ulaşırız.

y = β 0 + β1 x1 + β 2 x2 + u

• Kısıtlanmamış model ise orijinal modelimizdir:

y = β0 + β1x1 + β2x2 + β3x3 + β4x4 + β5x5 +u

56
F-testi:
• Kısıtlanmış ve kısıtlanmamış modellerin kalıntı kareleri
toplamları (SSR) kullanılarak F istatistiği tanımlanır :

• Burada, SSRr: kısıntlanmış modelin KKTsi, SSRur:


kısıtlanmamış modelin KKTsi
• q= toplam kısıt sayısı: payın serbestlik
derecesi=kısıtlanmamış modelin sd’inden kısıtlanmış
modelin sd çıkarılarak bulunabilir. H0 ile konan kısıt
sayısına eşit olmalıdır.
• Paydanın serbestlik derecesi kısıtlanmamış modelin
serbestlik derecesine eşittir.
57
Dışlama kısıtı için F-testi genel gösterim

58
F-testi için karar kuralı
• H0 doğruyken yukarıda hesapladığımız F test istatistiği
payın serbestlik derecesi q paydasının serbestlik
derecesi (n-k-1) olan F dağılımına uyar:

• Karar kuralı

• Burada c ilgili anlamlılık düzeyinde F dağılımının kritik


değeridir.
59
F(3,60) dağılımında %5 red bölgesi

60
F testi, aralarında yüksek çoklu-bağıntı bulunan
x’lerin tümünün birden model dışında tutulmasının
testinde başarıyla uygulanabilir.

• Örneğin, firmaların başarı performanslarını


ölçeceğiz ve kullanabileceğimiz performans
ölçütleri genellikle birbirleriyle ilişkili olacaktır.
• Bu durumda tek tek t testleri yararlı
olmayacaktır, zira, çoklu-bağıntı yüzünden
se(betahat)’lar hatalıdır.
• F testi uygulayarak, tüm performans ölçütlerinin
birden (aynı anda) model dışına çıkarılmasının
SSR’yi ne ölçüde yükselttiğine bakabiliriz.

61
F ve t istatistiği arasındaki ilişki

• Tek bir bağımsız değişkene F testi uygulamak t


testi ile aynı sonucu verir.
• q=1 iken “t2 = F” olur.

62
F Testinin R2 formu:

• F test istatistiğini SSR’ler yerine kısıtlanmış ve


kısıtlanmamış regresyonlardan elde edilen R2’ler
cinsinden de yazabiliriz.
• Hatırlarsak,

• Olarak yazılabiliyordu. F rasyosunda yerine koyarsak

• Elde edilir. R2ur: kısıtlanmamış modelin R2si, R2r:


kısıtlanmış modelin R2si. R2ur> R2r
63
Örnek 4.9: Parents’ Eduction in a Birth Weight Equation

• Değişken tanımları:
• Bağımlı değişken: bwght=birt weight, libre
• Açıklayıcı değişkenler:
– cigs: annenin hamilelik süresince günde içtiği ortalama sigara
sayısı,
– parity: bebeğin doğum sırası,
– faminc: ailenin yıllık geliri,
– motheduc: annenin eğitim düzeyi (yıl),
– fatheduc: babanın eğitimi düzeyi (yıl)
64
Örnek 4.9: Parents’ Eduction in a Birth Weight Equation
• GRETL bwght.gdt dosyası bu verileri içermektedir. Bu
veri setinde toplam 1388 gözlem vardır. Ancak anne ve
babanın eğitim düzeylerine ilişkin kayıp gözlemler
yüzünden regresyonda kullanılabilecek veri sayısı daha
azdır.

• GRETL, SAMPLE, count missing values

• Kayıp gözlem sayısı 196’dır. Bu durumda n=1191

• GRETL, SAMPLE, drop all obs with missing values

65
66
Örnek 4.9: devam
• u hipotezi test etmek istiyoruz: anne ve babanın eğitim
düzeylerinin yeni doğan bebeklerin ağırlıkları üzerinde
etkisi yoktur:
H0: β4=0, β5=0
H1: en az biri sıfırdan farklı

• H0 modele iki kısıt koymaktadır. Öyleyse q=2, payın


serbestlik derecesi
• Paydanın serbestlik derecesi: n-k-1=1191-6=1185
• Kısıtlanmamış ve kısıtlanmış model tahminleri şöyledir.

67
Örnek 4.9 Kısıtlanmamış model

• Model 1: OLS estimates using the 1191 observations 1-1191


• Dependent variable: bwght

• VARIABLE COEFFICIENT STDERROR T STAT P-VALUE

• const 114.524 3.72845 30.716 <0.00001 ***


• cigs -0.595936 0.110348 -5.401 <0.00001 ***
• parity 1.78760 0.659406 2.711 0.00681 ***
• faminc 0.0560414 0.0365616 1.533 0.12559
• motheduc -0.370450 0.319855 -1.158 0.24702
• fatheduc 0.472394 0.282643 1.671 0.09492 *

• Mean of dependent variable = 119.53


• Standard deviation of dep. var. = 20.1412
• Sum of squared residuals = 464041= SSRur
• Standard error of residuals = 19.7888
• Unadjusted R-squared = 0.0387482= R2ur
• Adjusted R-squared = 0.0346923
• F-statistic (5, 1185) = 9.5535 (p-value < 0.00001)
68
Örnek 4.9 Kısıtlanmış model

• Model 2: OLS estimates using the 1191 observations 1-1191


• Dependent variable: bwght

• VARIABLE COEFFICIENT STDERROR T STAT P-VALUE

• const 115.470 1.65590 69.733 <0.00001 ***


• cigs -0.597852 0.108770 -5.496 <0.00001 ***
• parity 1.83227 0.657540 2.787 0.00541 ***
• faminc 0.0670618 0.0323938 2.070 0.03865 **

• Mean of dependent variable = 119.53


• Standard deviation of dep. var. = 20.1412
• Sum of squared residuals = 465167= SSRr
• Standard error of residuals = 19.7961
• Unadjusted R-squared = 0.0364164= R2r
• Adjusted R-squared = 0.0339811
• F-statistic (3, 1187) = 14.9533 (p-value < 0.00001)

69
Örnek 4.9: devam
• F test istatistiği, SSR form:

F =
(SSR r
− SSR ur ) / q (465167 - 464041)/2
= = 1 .4377
SSR ur /( n − k − 1) 464041/(11 91 - 5 - 1)

• R2 form:

F=
(R
2
ur )
− R r2 / q
=
(0.0387482 - 0.0364164) /2
= 1.4376
(1 − )/( n − k − 1)
2
Rur (1 - 0.0387482) /(1191 - 5 - 1)

• Kritik değer: F(2, 1185) tablosundan %5 kritik değer c=3, %10 kritik
değer 2.3
• Karar: Bu anlamlılık düzeylerinde H0 reddedilemez. Anne ve
babanın eğitim düzeylerinin doğum ağırlıkları üzerinde etkisi yoktur.
Başka bir deyişle bu iki değişken birlikte istatistik bakımından
anlamsızdır. 70
71
72
73
Regresyonun bütününü anlamlılığına ilişkin F-testi
• Sıfır hipotezimiz şudur: regresyona eklenen açıklayıcı
değişkenlerin y üzerinde birlikte etkisi yoktur:

• Alternatif hipotez betalardan en az birinin sıfırdan farklı


olduğunu söylemektedir.
• Dışlama kısıtı için geliştirdiğimiz F testi regresyonun
bütününün anlamlılığı için kullanılabilir.

74
Regresyonun bütününü anlamlılığına ilişkin F-testi
• H0 kısıtı altında modeli yeniden yazarsak

• Bu kısıtlanmış modeldir. Sadece sabit terimin yer


aldığına dikkat edin.
• F test istatistiği

• Olur. Buradaki R2 kısıtlanmamış modelden elde edilen


determinasyon katsayısıdır. Bütün ekonometri
programları bu istatistiği otomatik olarak hesaplar.
75
Örnek 4.9
• Bebeklerin doğum ağırlıkları örneğinde regresyonun
bütün olarak anlamlı olup olmadığını test edelim.
• GRETL çıktısından (bkz. Model 1) bunun

• F-statistic (5, 1185) = 9.5535 (p-value < 0.00001)


olduğunu görüyoruz.
• P-değeri oldukça küçük çıkmıştır. Yani H0’ı reddedersek
1.tip hata olasılığımız çok küçük olacaktır.
• Öyleyse H0 güçlü bir şekilde reddedilir.
• Regresyonun bütününün anlamsız olduğunu söyleyen
sıfır hipotezine karşı kanıtlar güçlüdür. Regresyon bir
bütün olarak anlamlıdır.
76
Genel Doğrusal Kısıtların Testi
• F testi, sadece dışlama (sıfıra eşitleme) kısıtları
için değil daha genel kısıtların testi için de
kullanılmaktadır.
• Örnek: ev fiyatlarını, ekspertiz değeri (assess),
bahçe alanı (lotsize), evin alanı (sqrft) ve yatak
odası sayısı (bdrms) değişkenleriyle açıklayalım.

77
Genel Doğrusal Kısıtların Testi (devam)
• Evin uzmanlarca saptanan ekspertiz değerinin rasyonel
olup olmadığını test etmek istiyoruz.
• Eğer ekspertiz değeri rasyonel olarak belirlendiyse,
bundaki %1’lik bir artışın ev fiyatlarında %1’lik bir artışı
yol açması gerekir. Ayrıca, assess dışındaki
değişkenlerin evin değerini açıklamada anlamsız
olmaları gerekir.
• Yani sıfır hipotezimiz

olur.
78
Genel Doğrusal Kısıtların Testi (devam)

• F testinin adımları aynıdır. Kısıtlanmamış ve kısıtlanmış


modelleri ayrı ayrı tahmin edeceğiz.
• Kısıtlanmamış modeli şöyle yazalım.

• H0 kısıtları altında kısıtlanmış modelimiz

• olur. Bu modeli aşağıdaki şekliyle tahmin edebiliriz:

79
Örnek: Gretl, hprice1.gdt
• Unrestricted model: SSRur=1.822

• Restricted Model: SSRr=1.880

80
Örnek: Gretl, hprice1.gdt

• F test istatistiği

• %5 düzeyinde F(4,83) kritik değeri, c=2.5


• H0 reddedilemez.
• Değerlemelerin rasyonel olduğunu söyleyen sıfır
hipotezine karşı kanıt yoktur.

81
Regresyon sonuçlarının sunulması:
• Tahmin edilen beta katsayılarını, ilgili bağımsız
değişkenin ve bağımlı değişkenin ölçü birimlerini
ve regresyona giriş şekillerini dikkate alarak
yorumlayınız.
• Katsayıların tek tek (t testi) ve tümü bir arada (F
testi) istatistiksel olarak anlamlı olup
olmadıklarını gösteriniz.
• Betahat’lerin standart hatalarını (se) katsayıların
altında veriniz. Bazen t değerleri de
verilmektedir.Ancak, t yerine se’leri vermek daha
doğrudur. Güven aralığı teşkil vs. için se’lar
gerekecektir.
• R2 ve n mutlaka verilmeli. Bazen SSR ve
regresyonun standart hatası (σ ) da
verilmektedir. 82
Aynı veri kümesi ile birden çok regresyon tahmin
ediyorsak sonuçlar bir tablo şeklinde verilebilir:

83
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 5:
SEKK (OLS)’nin Asimptotik Özellikleri

Doç. Dr. Hüseyin Taştan1

1Yıldız Teknik Üniversitesi, İktisat Bölümü, Yıldız Kampüsü H Blok, Oda no. 124, Beşiktaş, İstanbul.
Email: tastan@yildiz.edu.tr
Bölüm 5: SEKK (OLS) Asimptotik
(büyük örneklem) özellikleri
• CH 3 ve 4’ de SEKK (OLS) tahmin
edicilerinin belirli sayıda gözlem içeren
örneklem (finite sample), küçük örnek
özelliklerini gördük.
• Bu özellikler herhangi bir örneklem
büyüklüğü, n, için geçerliydi.
• Bunlar şu özelliklerdi :
– Sapmasızlık (MLR.1-MLR4 altında)
– BLUE özelliği (MLR.1-MLR5 altında)
(Best=En Etkin)
Varsayım MLR.6’nın işlevi : Hata terimi, u,
normal dağılmıştır ve açıklayıcı
değişkenlerden (x’lerden) bağımsızdır.
• Bu varsayım, bize, OLS tahmin edicilerin x’lere
koşullu kesin örneklem dağılımlarını (exact
sampling distribution conditional on the
explanatory variables in the sample)
türetebilmemize imkan verir.
• Teorem 4.1, OLS tahmin edicilerin, MLR.1-
MLR.6 varsayımları altında “normal örnekleme
dağılımları”na sahip olduklarını gösterdi.
• Bu, hesaplanan t ve F istatistiklerinin standart t
ve F dağılımlarını izleyeceği anlamına gelir.
3
Asimptotik (büyük örneklem)
özellikleri
• OLS tahmin edicilerin sonlu (finite) ve küçük
örneklem özelliklerinin yanında büyük örneklem
özelliklerini de incelememiz gerekmektedir.
• Bu özellikler “örneklem hacmi, n, sınırsız olarak
artarken” durumu altında incelenecektir.
• Tutarlılık (consistency): Bkz. EK C, sh.709

4
Sapmasızlık her zaman sağlanamaz. Bu durumda, çoğu
kez, “bir tahmin edici hiç olmazsa (en azından) tutarlılık
koşulunu sağlamalıdır” diye düşünürüz .

5
devam
• Her bir örnek hacmi n için , bir olasılık
dağılımına sahiptir. Bu dağılım, hepsi n hacimli
farklı yinelenen örneklerde ‘nin alabileceği
mümkün değerleri gösterir.
• Sapmasızlık özelliği gereği bu dağılımların
ortalaması ‘ye eşittir.
• Eğer tahmin edici tutarlı ise, n arttıkça bu
dağılımlar βj etrafında daha dar olarak dağılır.
• n→∞ iken, ‘nin dağılımı tek bir nokta üzerine,βj,
düşer.
• Yani, ne kadar çok büyük örnek alabilirsek,
bilinmeyen kitle parametresi βj’yi o kadar az hata
ile tahmin edebiliriz. 6
devam

• Eğer n büyürken, kitle parametresi βj’ye daha


yakın bir noktaya gelmiyorsak o tahmin edici
tutarsız (inconsistent) bir tahmin edicidir.
• Sapmasızlık (unbiasedness) için gereken
varsayımlar tutarlılık için de yeterlidir : MLR.1-
MLR.4

7
• Aşağıdaki (5.3) nolu formül OLS tahmin edicisinin
“x’lerle u’lar arasında korelasyon olmaması” koşulu
sağlandığında tutarlı olduğunu gösterir :

8
Varsayım MLR.3´
• MLR.3 (zero conditional mean),MLR.3´’nün
otomatik olarak geçerli olmasını sağlar (implies),
ancak, tersi doğru değildir.
• MLR.3´ daha zayıf (yumuşak) bir koşuldur. Bu
koşul OLS tahmin edicisinin tutarlı olmasını
sağladığı halde sapmasız olmasını
sağlayamıyor.
• Sapmasızlık için daha kuvvetli koşul olan MLR.3
gerekli.
• E(u | x1,…,xk)=0 varsayımının
ihlali→sapma(bias) yol açar.
• Corr (u, x1, x2,…,xk’lardan birisi) ≠0 →
tutarsızlık (inconsistency) 9
Asymptotic bias
• Asimptotik sapma :

Asimptotik sapmanın işareti x1 ile u arasındaki


kovaryansın işaretine bağlıdır. Cov(x1,u)’nun tahmin
edilmesi, u gözlemlenemez olduğundan, mümkün değildir.

• x2 değişkeni dışlanırsa tutarsızlık yaratır. Aşağıdaki


modeli düşünelim:

İlk dört G-M varsayımları sağlanıyor olsun. Ayrıca hata terimi


ν, x1 ve x2 ile ilişkisiz olsun. 10
Asimptotik sapma
• x2 dışlanırsa hata terimi

olur.
• Bu durumda olasılık limiti

11
Sapmada (Bias) ise örneklem değerlerini
kullanıyoruz. (x’e koşullu Beklenti (E) alıyoruz).

Tutarsızlıkta (Inconsistency) popülasyon varyans


ve kovaryansını kullanıyoruz.

12
devam
• Tahmin edici tutarsız ise örnek hacmini artırarak
sorunu çözemeyiz. n arttıkça OLS tahmin edicisi
ye yaklaşır.
• x’lerden sadece birisinin (x1 diyelim) u ile ilişkili
olması genellikle (eğer x1 diğer tüm x’lerle ilişkili
ise) tüm OLS tahmin edicilerinin tutarsız olmasına
yol açar.
• x1 ile ilişkisiz olan x’ler varsa onların katsayıları
tutarlıdır.

13
Tutarsızlık: Örnek

• y: ev fiyatları
• x1: arıtma tesislerine uzaklık
• x2: evin kalitesi (büyüklük, oda sayısı, bulunduğu
semtin çekiciliği vs gibi tüm faktörler)
• x2’nin model dışında bırakıldığını düşünelim.
• β1>0, β2>0
• Eğer ortalamada kaliteli evler çöp arıtma
tesislerinin uzağındaysa bu iki değişken (pozitif)
ilişkili olur: δ1>0

14
OLS tahmin edicilerinin tutarsızlığı
• Daha fazla gözlem toplamak tutarsızlığı ortadan
kaldırmaz.
• Hatta problemi daha kötü hale getirir, çünkü

OLS t.e. bu değere yaklaşır.


• Eğer herhangi bir x değişkeni u ile ilişkiliyse
modelde yer alan tüm OLS t.e. Tutarsız olur.
• Eğer x1 ve x2 ilişkisiz ise, x1 ile u arasındaki ilişki
beta2şapkanın tutarlılığını etkilemez.

15
Asimptotik normallik
• MLR.6 u’ların Normal dağıldığını ifade ediyordu.
Bu, y’nin x1, x2,…., xk verilmişken normal
dağıldığı anlamına gelir (y’nin x’lere koşullu
dağılımı).
• OLS t.e.’nin sapmasızlığı için normallik
varsayımına gerek yoktu. Normallik varsayımı
betaşapkaların örnekleme dağılımlarının elde
edilmesi ve istatistiksel çıkarsama yapılabilmesi
için gerekliydi.
• y’lerin x’lere koşullu dağılımı Normal değilse t ve
F testleri yapamayacak mıyız? Büyük örnek
hacimlerinde yapabiliriz (MLT).
16
Teorem 5.2: OLS’nin Asimptotik Normalliği

• Gauss-Markov varsayımları MLR.1-MLR.5


altında

• Asimptotik varyans:
• xj’nin tüm açıklayıcı değişkenler üzerine
regresyonundan elde edilen kalıntılar

17
Teorem 5.2
• Teorem 5.2 çok yararlı bir teoremdir. Zira
varsayım MLR.6’ya gerek duymuyor.
• Hata terimlerinin dağılımı ile ilgili getirdiği tek yeni
kısıt “u’ların varyansının sonlu olması” dır (σ2<∞).
Bunu zaten daima varsayıyoruz.
• Teorem 5.2, “homoscedasticity ve zero conditional
mean” varsayımlarını yapmaktadır.
• n arttıkça t(n-k-1) test istatistiğinin dağılımı Normal
dağılıma yaklaşacağı için şunu yazabiliriz:

18
OLS t.e.nin standart hataları
• OLS t.e.’nin varyansı

• SSTj: xj’nin ortalama çevresindeki değişkenliği


(bütün kareler toplamı)
• Rj2: xj’nin tüm x’ler üzerine regresyonundan elde
edilen belirlilik katsayısı
• Terimlerin n sonsuza giderken davranışları

Betaşapkaların varyansı 1/n oranında sıfıra


19
yakınsar.
Asimptotik standart hata ve asimptotik t değerleri

• u’lar N dağılmadığında (5.9) un kare kökünden


bulunan standart hatalar büyük n’ler için
“asimptotik standart hatalar” adını alır.
• t istatistiklerine de asimptotik t değerleri deriz.
• Betaşapka’ların standart hataları n’nin kare
kökünün tersi ile küçülür :

20
(5.10) nolu formülde n ile ilişkisi (c=5 için)

se'deki
se
n se % değişme
1
30 0.91 0.9
0.8
60 0.65 -0.2929 0.7
0.6
120 0.46 -0.2929 0.5
0.4
240 0.32 -0.2929
0.3
0.2
480 0.23 -0.2929
0.1
960 0.16 -0.2929 0
0 500 1000 1500 2000 2500
1920 0.11 -0.2929
21
Diğer bir büyük örneklem testi :Lagrange
Multiplier (LM) test istatistiği
• Buna score testi de denir.
• Çoklu regresyonda bir grup betanın aynı
anda sıfıra eşit olup olmadığını test
edeceğiz :
y = βo+ β1x1 + β2x2 + β3x3 + β4x4 + u
• Son iki betanın aynı anda sıfır olup
olmadığını test edelim:
• Ho: β3= β4=0
• H1: En azından birisi sıfırdan farklıdır.
22
LM test (devam)
• Ho’daki betalara karşılık gelen x’leri dışarıda
bırakarak regresyonu (kısıtlı model) tahmin
ediniz :
y = βo*+ β1*x1 + β2*x2 + u*
• Kısıtlı modelin artıklarını x’lerin tümü üzerine
regress ediniz (yardımcı regresyon-auxiliary
regression):
u*=αo + α1x1 + α2x2 + α3x3 + α4x4 + e
• Bu regresyonun R2’si ile n’in çarpımı test
istatistiğini verir.
• LM=nR2 istatistiği q (Ho’daki kısıt sayısı)
serbestlik derecesine sahip bir ki-kare dağılımı
izler. 23
24
25
26
OLS’nin asimptotik etkinliği

• Gauss-Markov varsayımları altında OLS tahmin


edicilerin BLUE olduğunu biliyoruz.
• OLS,aynı zamanda, belli bir sınıf tahmin ediciler
arasında “asimtotik olarak etkin” dir
(asymptotically efficient).

27
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri I Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 6:
Çok Değişkenli Regresyon Analizinde Ek
Konular
Çok Değişkenli Regresyon Analizinde Ek
Konular
Bu bölümde aşağıdaki konuları inceleyeceğiz:
• Veri ölçeğinin (data scaling) tahminlere etkisi
• Fonksiyonel kalıp ile ilgili ek konular
– Karesel (quadratic) modeller
– Etkileşim terimli (interaction term) modeller
• Regresyonda uyumun iyiliği ölçüleri ve
değişkenlerin seçimi
– Düzeltilmiş R2
• Kestirim ve kalıntı analizi
Veri ölçeğinin (data scaling)
tahminlere etkisi
• Modelde yer alan değişkenlerin ölçü
birimlerini değiştirdiğimizde bunun sabit
(intercept) ve eğim (slope) katsayıları
üzerinde nasıl etki yarattığını daha önce
(CH.2) görmüştük.
• imdi, ölçü birimi değiştirmenin standart
hatalar (SE), t istatistiği, F istatistiği ve
güven aralıkları üzerinde meydana
getireceği etkileri görelim.
Data scaling (devam)

• Değişkenlerin ölçü birimlerini değiştirmek,


katsayılardaki fazla sıfırları yok etmek gibi
“regresyonun görünümünü iyileştirmek ve
yorumunu kolaylaştırmak” amacıyla yapılır.
• Regresyonun özünü değiştirmez, tüm test
sonuçları ve bulgular aynı kalır.
• Ölçü birimlerinin regresyon parametrelerine
etkisini bir örnek üzerinde görelim.
• Örnek: yeni doğan bebeklerin ağırlıklarını
belirleyen faktörler
Data scaling: örnek

Birimler :
Bwght: ounces (1 ounce=28.35 gr),
Bwghtlbs: pounds (lbs), 1 pound=16 ounces= 454 gr
Faminc : bin $ (000$)
Bwght Model Tahmin Sonuçları
Bağımlı değişkenin birimini 16’ya bölerek
ounce ‘dan pound’a çevirelim :
• (6.1) deki regresyonun her iki tarafını 16’ya bölelim:

• Görüldüğü gibi, pound cinsinden yeni regresyonun


(Tabloda 2.ci sütun) tüm katsayıları ounce
cinsinden olan regresyonun (Sütun 1) katsayılarının
1/16’sına eşittir.
• Ancak, beta katsayıları aynı enformasyonu
vermektedir. Örneğin, annenin bir günde içtiği
sigara sayısı bir birim (bir adet) artığında, bebeğin
ağırlığı ilk regresyonda 0.4634 ounces, ikinci
regresyonda 0.0289 pound azalmaktadır. Bunlar
aynı şeydir.
devam

• Değişkenlerin ölçü birimini değiştirmek


betaların anlamlılık düzeyini etkilemez.
• Tablodan görüldüğü gibi, ounce’dan
pound’a geçildiğinde betaların standart
hataları da 16’ya bölünmekte ve böylece t
değerleri aynı kalmaktadır.
• se(cigs) ilk regresyonda 0.0916, ikinci
regresyonda 0.0916/16=0.0057 dir.
• t(cigs)=-0.4634/0.0916=
-0.0289/0.0057=-5.05
devam
• 2.ci regresyonda güven aralığının alt ve üst limitleri
1.ci regresyondakinin 1/16 katıdır :

• Değişkenlerin ölçü biriminin değişmesi


determinasyon katsayısı R2’yi etkilemez.
• Buna karşılık SSR ve SER [(standard error of the
regression,σ(u)] ölçü birimine göre değişmektedir:

• Diğer her şey aynı iken, y’yi c sayısı ile bölmüşsek


(burada c=16), SSR c2 (ckare)’ye, SER ise c’ye
bölünecektir.Tablo 6.1’in ilk iki sütunundan bunu
görebiliriz.
devam
• y, c ile (c=16) bölündüğünde, artık terimler (u hat)
de c ile bölünmüş olacak, böylece ukare’ler (SSR)
ckare’ye (256) bölünmüş olacaktır:

• SER ise, SSR’nin kare kökünden bulunduğu için, c


ile bölünecektir :

• y’yi pound ile ölçtüğümüzde uhat’lerin st.sapması


y’nin ounce ile ölçüldüğü duruma göre 16 kat daha
küçük olmaktadır. Ancak, bu azalma tamamen ölçü
birimi değişikliğiyle ilgilidir. Yoksa, uhat’lerin
varyansında gerçek bir azalma olduğu anlamına
gelmez.
x’lerden birinin birimini değiştirelim :içilen
sigarayı önce adet ve sonra paket olarak ölçelim.
• Tablo 6.1 de 1.ci ve 3.cü sütunları
karşılaştıracağız. cigs değişkeni ilk regresyonda
adet, 2.ci regresyonda paket (packs) ile
ölçülmektedir. “Packs=cigs/20” oldu.
• y, her iki regresyonda da ounce ile ölçülmektedir.
• Görüldüğü gibi, packs ‘in betası(=-9.268) cigs’in
betasının (=-0.4634) 20 katıdır.
• Standart hata da (se) benzer şekilde 20 ile
çarpılmıştır. Dolayısıyla, t istatistiği ölçü birimi
değişiminden etkilenmedi.
• Yukarıda görüldüğü gibi, x’lerden birinin ölçü birimini
değiştirmek diğer x’lerin betalarını ve regresyon
sabitini (intercept) etkilememektedir.
• Eğer, bağımlı değişken y LOG(=Ln) cinsinden
verilmişse, y’nin biriminin değiştirilmesi betalarda bir
değişikliğe yol açmaz (zira betalar bu halde %
değişmeleri gösterecektir).
• Sadece sabit (intercept) değişir :
Log(y/c)=log(y)-log(c)
• “yeni sabit = eski sabit – Log(c)”
devam
• Benzer şekilde, log cinsinden ifade edilmiş
herhangi bir x’in ölçü biriminin değiştirilmesi
sadece sabit’i değiştirir. Çünkü, betalar bu
halde yüzde değişme ve esneklikleri
gösterecektir, ki, onlar da ölçü biriminden
bağımsızdırlar.
• Örnek 1: y’nin ölçü birimi değişsin:
• Log(bwght)=4.74-
0.00403cigs+0.00084faminc
• Log(bwghtlbs)=1.97-
0.00403cigs+0.00084faminc
• 1.97 = 4.74 – Log(16) = 4.74-2.77=1.97
Örnek 2: x’in ölçü birimi değişsin : faminc’ı 1000 ile
çarpalım ($ olarak alalım)
• Bwght=113.9-0.4672cigs+1.85Log(faminc)
• Bwght=101.2-
0.4672cigs+1.85Log(faminc*1000)
• 101.2=113.9- 1.85*Log(1000)=113.9-
1.85*6.907=101.2
• Yani,
“yeni sabit=eski sabit-1.85*Log(1000)
Standartlaştırılmış değişkenler
• Bazen, “xj, 1 birim değil de 1 standart sapma
değişseydi y ne kadar değişirdi?” diye sormak ve
yanıtını bilmek isteyebiliriz.
• Bu soruyu yanıtlayabilmek için regresyondaki
tüm değişkenleri(y ve x’ler) standart hale getirip
sonra bu standartlaştırılmış değişkenlerle
regresyon tahmin etmemiz gerekir.
• Bir değişkeni, kendi ortalamasından farkını alıp
standart sapmasına bölersek, o değişeni
standartlaştırmış oluruz : z(y)=(y-ybar)/σ(y),
z(x1)=(x1-x1bar)/ σ(x1),….
Devam
• Örnek : x1 :orijinal seri, z(x1): standardize
edilmiş seri,
• xbar=26, σ(x1)=21.78
X1 __z(x1)__
7 -0.872360
9 -0.780533
12 -0.642792
23 -0.137741
45 0.872360
60 1.561065

• z(x1) = (x1-xbar) / σ(x1) = (x1 – 26) / 21.78


• (6.2) deki orijinal SEKK (OLS) regresyonunu
standart hale getirmek için,tüm gözlemler itibariyle
(6.2) nin ortalamasını alalım ve kendisinden
çıkaralım (uhat’lerin ortalaması sıfır idi):
Devam

• Standardize edilmiş regresyonda, (6.3),


standardize edilmiş x1 değişkeninin beta katsayısı
‘ye eşittir.
• Ortalamadan sapmalar alındığı için regresyonda
sabit yoktur.
devam
• b1hat’in yorumu : eğer x1 bir standart
sapma artarsa, y, b1hat kadar standart
sapma değişecektir.
• Böylece, x’in y üzerindeki etkisini
değişkenlerin orijinal ölçü birimleriyle değil
standart sapma cinsinden ölçüyoruz.
• Bu, kısmi etkilerin ölçü birimlerinden
bağımsız olarak görülebilmesini ve
karşılaştırılmasını sağlıyor.
Orijinal değişkenlerle regresyon
• Dependent Variable: PRICE
• Method: Least Squares
• Date: 02/02/06 Time: 10:37
• Sample (adjusted): 1 506
• Included observations: 506 after adjustments


• Variable Coefficient Std. Error t-Statistic Prob.


• C 20871.13 5054.599 4.129136 0.0000
• NOX -2706.433 354.0869 -7.643413 0.0000
• CRIME -153.6010 32.92883 -4.664636 0.0000
• ROOMS 6735.498 393.6037 17.11239 0.0000
• DIST -1026.806 188.1079 -5.458603 0.0000
• STRATIO -1149.204 127.4287 -9.018408 0.0000


• R-squared 0.635666 Mean dependent var 22511.51
• Adjusted R-squared 0.632022 S.D. dependent var 9208.856
• S.E. of regression 5586.198 Akaike info criterion 20.10577
• Sum squared resid 1.56E+10 Schwarz criterion 20.15589
• Log likelihood -5080.760 F-statistic 174.4733
• Durbin-Watson stat 0.864650 Prob(F-statistic) 0.000000



Regresyonun fonksiyonel biçimi (functional
form)
• Daha önce, bağımlı ve/veya bağımsız değişkenleri doğal
logaritma cinsinden ifade ederek regresyonda doğrusal-
olmayan (nonlinear) ilişkilerin yakalanabileceğini görmüştük.
• Örnek :

• Burada, β1 : fiyatın, nox (hava kirliliği) esnekliğidir. β2: Oda


sayısı 1 birim ( 1 oda) artınca, log(price)’da meydana gelen
değişmedir. Yani, ∆rooms =1  Log (price)’daki değişme.
100x β2, bize, fiyattaki % değişmeyi (percentage change)
verecektir.
• 100x β2 ‘ ye bazen yarı-esneklik (semi-elasticity) denir.
• (6.6) nın HPRICE2.RAW veri setinden tahmini
yukarıda görülüyor.
• Oda sayısını sabit tuttuğumuzda, hava kirliliği ölçüsü
nox’da %1 artış olduğunda ev fiyatları %0.718
azalmaktadır.Yani, fiyatların kava kirliliği esnekliği -
0.718 dir (birim esneklikten daha küçük).
• Hava kirliliği aynı kalmak koşuluyla, oda sayısında 1
odalık artış ev fiyatlarını 100x0.306 = %30.6
artırmaktadır.
• Log(y) ‘deki değişme büyüdükçe
“%∆y ≈ 100x ∆Log(y)” eşitliği bozulur ve önemli
miktarda bir yakınsama hatası (approximation error)
ortaya çıkar. Bu durumda, y’deki % değişmeyi tam
olarak şöyle hesaplayabiliriz:
devam
• Modelimiz şöyleydi :
• X1’i sabitlediğimizde şunu elde ederiz:

• ∆x2=1 iken,

• Bu son formülde, β2hat = 0.306 konursa,


%∆price=100x [exp(0.306)-1]=%35.8 bulunur.
• Exp(…) bir doğrusal-olmayan (nonlinear) fonksiyon
olduğu için bulunan 0.358 katsayısı sapmasız
(unbiased) değildir. Ancak, tutarlı (consistent) bir
tahmin edicidir. Zira,olasılık limiti (probability limit)
sürekli fonksiyonlarda geçerliliğini korurken,
beklenen değer (E) koruyamaz.
LOG kullanmanın avantajları
• Negatif-olmayan değerler alan bir bağımlı
değişkeni (y>0) logaritmik olarak ifade etmek
pek çok avantaj sağlar :
• Betalar, bu halde, x’lerin ölçü birimlerinden
bağımsız olarak, esneklik ya da yarı-esneklik
şeklinde tahmin edilir.
• y>0 iken, Log (y), CLM varsayımlarının
sağlanması açısından, y serisine kıyasla çok
daha elverişlidir. y>0 düzey (level) değişkeni
genellikle heteroscedastic ve çarpık (skewed)
bir koşullu dağılıma sahiptir. Logaritma alınması
çarpıklığı azaltır ve varyansdaki değişmeyi
yumuşatır.
devam
• Log alınması değişkenin aralığını (range) büyük
ölçüde düşürür. Bu ise, tahmin edicilerin aşırı uç
değerlerden (outliers) fazla etkilenmemesini sağlar.

• Ücret, gelir, nüfus, üretim, satışlar vb gibi pozitif


sayılar şeklindeki değişkenleri regresyona genellikle
düzey (level) olarak değil logaritmik olarak sokarız.

• İşsizlik oranı, faiz oranı, herhangi bir projeye vs


katılma oranı gibi oranları genellikle düzey olarak
regresyona dahil ederiz. Ancak, her gözlemi >0 olan
oranların bazen Log biçiminde regresyona
sokulduğu da görülmektedir.
devam
• Oranlar (işsizlik oranı, örneğin) düzey olarak
alınmışsa, yorum yaparken, “işsizlik oranında bir
birimlik (= yüzde 1 puanlık, a percentage point
increase) artış olduğunda” deriz.

• Oran Log olarak (Log(işsizlik oranı)) alınmışsa,


“işsizlik oranında %1’lik (a percentage increase)
artış olduğunda” diye yorumlarız.

• İşsizlik oranı düzey olarak %8 den %9’a


yükselmişse, artış %1 puandır. Ama yüzde artış
olarak Log(9)-Log(8)=0.1177=%11.77 ‘lik bir
artış olmuştur. İkisinin birbirine karıştırılmaması
gerek.
devam
• Seri ≥0 şeklinde ise, yani pozitif sayıların
yanında bazı gözlemler sıfır değerini de alıyorsa
Log kullanamayız, zira Log(0) tanımlanamaz.
• Bu halde, y serisini Log (y) ‘ye çeviremeyiz,
ancak, Log(1+y) serisini Log(y) yerine
kullanabiliriz. Eğer seride 0 değeri seyrek ise bu
yola başvurabiliriz. Bu durumda betaların
yorumu yine Log (y) kullanıldığındaki gibidir.
Büyük bir fark oluşmamaktadır.
• Bağımlı değişkenleri Log(y) ve y olan iki
regresyonun R2’leri doğrudan karşılaştırılamaz.
Gerekli dönüşürme işlemlerini yapmamız gerek.
Karesel (quadratic) modeller
• Değişkenlerin marjinal etkileri sabit değil de artan ya
da azalan türde ise karesel modeller kullanmalıyız.
• Bu durumda, eğim, ∆y/∆x, sabit değil, x’in düzeyine
bağlıdır:
devam
• Ekonomik değişkenlerde genellikle β1>0, β2<0 çıkar.
örnek:

• Bu regresyon, tecrübenin ücretler üzerinde azalan


(diminishing) bir etki yarattığını gösteriyor. Türevi :
d(wage)/d(exper) = 0.298 - 0.0122exper
• İlk 1 yıllık tecrübe 0.298$=30 cent ‘lik bir ücret artışı (saat
başına ücretlerde) getirirken, 2.ci yıldaki tecrübe(x=1
konacak),
0.298-0.0122(1)=0.286$ ‘lık artış yaratıyor.
• Tecrübe 10.cu yıldan 11’e geçerken
0.298-0.0122(10)=0.176 $ ‘lık artış sağlıyor.
β1>0 ve β2<0 iken karesel fonksiyon parabol
şeklindedir. Eğimin (katkının) negatife geçişi
“ |β1 / 2β2 |” noktasına rastlar.
β1<0 ve β2>0 iken karesel fonksiyon U şeklindedir
devam
• Ev fiyatları regresyonunda oda sayısının
katkısının negatiften pozitife geçtiği nokta
0.545 / (2x0.062) = 4.4 odadır.
• Rooms değişkeninin 4.4 den küçük değer
aldığı gözlemler görece olarak az sayıda
ise eğrinin negatif eğilimli ilk kısmı ihmal
edilebilir, sadece ikinci kısmı kullanılır.
• N=506 evden sadece 4’ünde oda sayısı
4.4 ün altındadır. Dolayısıyla eğrinin
negatif eğimli ilk kısmını atabiliriz.
devam

• İlave bir odanın fiyatlarda yaratacağı % değişme :


Değişken esneklik
• Log-Log regresyona [Log(x)]2 terimini ekleyerek
x’in düzeyine bağlı (değişken) esneklik
tanımlayabiliriz. Örnek :
Kübik fonksiyonlar

• Toplam maliyet (total cost) için şu model


kullanılabilir :
Karşılıklı etkileşim (interaction) terimi içeren
modeller :
• Bazen y’nin x1’e göre esnekliği ya da yarı-
esnekliği bir başka x’e (x2 diyelim) bağlı
olabilir. Örnek :
devam
• Eğer β3>0 ise, ilave bir odanın ev fiyatlarına
katkısı evin büyüklüğüne (sqrft) bağlı olacaktır.
Büyük evlerde bu katkı daha büyük, küçük
evlerde daha küçük olacaktır.

• Yani, oda sayısı ile ev alanı değişkenleri


arasında bir “karşılıklı etkileşme” (interaction
effect) söz konusudur.

• (6.17) de oda sayısının fiyatlara katkısı sqrft


yerine bu değişkenin çeşitli değerleri
(ortalaması, medyan ya da birinci ve sonuncu
çeyrek yüzde değerleri vb. gibi) konarak
somutlaştırılabilinir..
(6.18) in tahmini : veri seti attend.gdt
• Stndfnl : standardize edilmiş öğrenci final notu { (xbar-µ) /
σ}; atndrte :devamlılık oranı (%) ; priGPA : önceki sınıfların
ortalama notu (4 üzerinden); ACT: genel yetenek notu,

• Atndrte’nin katsayısı (-0.0067), denklemde interaction terimi


olduğu için priGPA=0 iken geçerli olan etkiyi ölçüyor.
PriGPA serisinde ise sıfır bulunmamaktadır, dolayısıyla,
β1’in negatif işaretli olması önemli değildir. Bu katsayı tek
başına devamlılığın etkisini ölçmüyor.
• Derse devamın finale etkisini β6 veriyor. β1 ve β6 tek tek t
testini geçemedikleri halde ikisinin aynı anda sıfır olduğu
testi (Ho: β1=β6=0 , F testi) reddedilmektedir.

• Bu regresyonda atndrte’nin stndfnl üzerindeki kısmi


etkisini (partial effect) nasıl ölçeceğiz ? Bunun için
interaction terimindeki 2.ci değişken olan priGPA yerine
somut bir değer koymamız gerek. Genellikle söz konusu
değişkenin ortalama ya da medyan değeri kullanılır.
priGPA’nın ortalaması 2.59 dur.

• Regresyonun atndrte’e göre kısmi türevini alır ve


priGPA=2.59 koyarsak devam oranının final notu
üzerindeki etkisini bulmuş oluruz:
-0.0067+0.0056(2.59)=0.0078

• Yani, devam oranında yüzde 10 puanlık bir artış stndfnl


değişkeninde 0.078 standart sapma kadar bir artış
yaratır.
• Peki, bu 0.0078’lik kısmi etkinin istatistiksel
olarak anlamlı olup olmadığını nasıl bileceğiz?
• İnteraction değişkenini “(priGPA-2.59)*atndrte”
ile değiştirip regresyonu yeniden tahmin
edeceğiz.
• Bu yeni regresyonda atndrte’nin katsayısı (β1),
devam oranının, priGPA=2.59 iken, final notuna
ne kadar kısmi etki yaptığını (ki bu 0.0078 idi)
verecektir.
• Yeni regresyonda β1’in t değeri devam oranının
kısmi etkisinin sıfırdan farklı olup olmayacağını
verecektir.
(6.19) u interaction terimini değiştirerek yeniden
tahmin edelim:

• Dependent Variable: STNDFNL



• Included observations: 680 after adjustments

• Variable Coefficient Std. Error t-Statistic Prob.




• C 2.050293 1.360319 1.507215 0.1322
• ATNDRTE 0.007755 0.002639 2.938125 0.0034
• PRIGPA -1.62854 0.481002 -3.385720 0.0008
• PRIGPA^2 0.295905 0.101049 2.928314 0.0035
• ACT -0.12803 0.098492 -1.299998 0.1940
• ACT^2 0.004533 0.002176 2.082939 0.0376
• (PRIGPA-2.59)*ATNDRTE0.005586 0.004317 1.293817 0.1962


• R-squared 0.228654 Mean dependent var 0.029659

Değişkenlerin ortalamaları düzeyinde priGPA’nın
kısmi etkisinin bulunması

• priGPA kare ve interaction değişkenlerini şöyle


değiştireceğiz:
• Dependent Variable: STNDFNL

• Sample (adjusted): 1 680
• Included observations: 680 after adjustments


• Variable Coefficient Std. Error t-Statistic Prob.


• C 0.065335 1.446060 0.045182 0.9640
• ATNDRTE -0.006713 0.010232 -0.656067 0.5120
• PRIGPA -0.091174 0.363261 -0.250987 0.8019
(PRIGPA-2.59)^2 0.295905 0.101049 2.928314 0.0035
• ACT -0.128039 0.098492 -1.299998 0.1940
• ACT^2 0.004533 0.002176 2.082939 0.0376
• (PRIGPA)*(ATNDRTE-0.82)
0.005586 0.004317 1.293817 0.1962


• R-squared 0.228654 Mean dependent var 0.029659

Uyumun derecesinin ölçüsü: R2 (kare)
• R2, “ana kitlede, y’deki değişimin, x1, x2,…, xk
tarafından açıklanan yüzdesinin bir tahmini” dir.
Dolayısıyla, R2’nin düşük çıkması SEKK (OLS)
varsayımlarının ihlal edildiği vb gibi anlamlara
gelmez.
• Bağımsız değişken sayısı (x) arttıkça R2
yükselir. Dolayısıyla, uygun regresyonu
seçerken R2’nin kullanımı sınırlı olacaktır.
• Ancak, F testinden hatırlanacağı üzere, yeni bir
değişken eklerken R2’deki görece artış karar
kriterimizi oluşturmaktadır.
Düzeltilmiş R2 (adjusted R kare)
• R2’ yi şöyle tanımlıyorduk :
R2= 1- (SSR / SST) (3.28)
• Son terimin pay ve paydasını n’e bölelim :
R2= 1 – {(SSR/n) / (SST/n)} =

• Demek ki, R2, ana kitlede y’deki değişmenin


x’lerce açıklanan kısmıdır.
• Ancak, SSR/n ve SST/n ‘nin sapmalı (biased)
tahmin ediciler olduğunu biliyoruz. Onların yerine
şu sapmasız tahmin edicileri kullanacağız :
SSR / (n-k-1) ve SST / (n-1)
devam
• Bu sapmasız tahmin edicileri kullanarak
düzeltilmiş R2’yi şöyle tanımlayacağız :

• Düzeltilmiş R2, R-bar kare olarak da adlandırılır.


• Çoğu kez R-bar karenin, ana kitle R2’sinin
sapmasını düzelttiği sanılır. Oysa R-bar kare
R2’nin sapmasız tahmin edicisi değildir. “İki
sapmasız tahmin edicinin oranı sapmasız bir
tahmin edici değildir”.
• Yeni bir değişken eklendiğinde, SSR düşerken
serbestlik derecesi n-k-1 ‘ de düşer (k arttığı için).
• Dolayısıyla, yeni bir değişken eklendiğinde R2
daima arttığı halde (SSR düştüğü için), R-bar
kare artabilir de azalabilir de.
• Bu yüzden, yeni değişkeni regresyona dahil edip
etmemeye karar verirken R2’ yi değil, R-bar
kareyi kullanacağız.
• Yeni bir x değişkeni eklendiğinde R-bar kare,
ancak ve ancak, bu yeni değişkenin katsayısının
t değeri mutlak olarak 1’ den büyükse artar.
• Bunu genelleştirirsek, bir gurup x değişkenleri
regresyona eklendiğinde, eğer bu yeni
değişkenlerin ortak (joint) anlamlılık testinde F
istatistiği 1’den büyükse R-bar kare artacaktır,
aksi halde artmayacaktır.
Örnek
• Dependent Variable: LPRICE

• Included observations: 506 after adjustments



• Variable Coefficient Std. Error t-Statistic Prob.


• C 8.953481 0.181147 49.42664 0.0000
• LNOX -0.304841 0.082164 -3.710157 0.0002
• PROBTAX -0.007607 0.000978 -7.780075 0.0000
• ROOMS 0.288707 0.018119 15.93432 0.0000


• R-squared 0.566042 Mean dependent var 9.941057
• Adjusted R-squared 0.56344 S.D. dependent var 0.409255

• Dependent Variable: LPRICE (CRIME eklendi)


• Included observations: 506 after adjustments

• Variable Coefficient Std. Error t-Statistic Prob.




• C 8.855318 0.172131 51.44515 0.0000
• LNOX -0.275421 0.077951 -3.533245 0.0004
• PROBTAX -0.004222 0.001027 -4.109041 0.0000
• ROOMS 0.281587 0.017194 16.37713 0.0000
• CRIME -0.012489 0.001639 -7.621883 0.0000


• R-squared 0.611133 Mean dependent var 9.941057
• Adjusted R-squared 0.608028 S.D. dependent var 0.409255
• S.E. of regression 0.256225
• Sum squared resid 32.89123

• Dependent Variable: LPRICE(CRIME ve STRATIO eklendi)

• Included observations: 506 after adjustments

• Variable Coefficient Std. Error t-Statistic Prob.

• C 9.767490 0.222071 43.98365 0.0000


• LNOX -0.355701 0.076315 -4.660952 0.0000
• PROBTAX -0.001852 0.001063 -1.742785 0.0820
• ROOMS 0.251409 0.017290 14.54053 0.0000
• CRIME -0.012232 0.001581 -7.735139 0.0000
• STRATIO -0.037070 0.005992 -6.186787 0.0000

• R-squared 0.638785 Mean dependent var 9.941057
• Adjusted R-squared 0.63517 S.D. dependent var 0.409255
• S.E. of regression 0.24719 Sum squared resid 30.55237

• Wald Test: Ortak anlamlılık testi (joint significance test)


• Test Statistic Value df Probability
• F-statistic 50.34589 (2, 500) 0.0000
• Chi-square 100.6918 2 0.0000

• R-bar karenin R2 cinsinden ifadesi (6.22)
verilmektedir.
• Bir önceki regresyonda R2=0.6387, n=506, k=5
konursa; R-bar kare=0.6351 olarak bulunur.
• R2’nin sıfıra yakın değerleri için R-bar kare
negatif çıkabilir. Bu durumda R-bar kareyi sıfır
olarak alabiliriz.
• F testi yaparken kullandığımız (4.41) nolu
formülde R2’yi kullanmaktayız. R-bar kare
kullanılmaz burada.
Birbirinin içerisine yuvalanmış(nested) ve
yuvalanmamış (nonnested) modeller
• Yuvalanmış (nested) modeller :
y = βo + β1x1 + β2x2 + β3x3 + β4x4 + u
y= βo + β1x1 + β2x2
• 2.ci model 1.cinin özel bir halidir ve onun
içinde yuvalanmıştır. Ortak anlamlılık (joint
significance) F testinde bu tür modellerle
çalışıyorduk.
• Yuvalanmamış (nonnested) modeller :
y = βo + β1x1 + β2x2 + β3x3 + u
y = βo + β1x1 + β2x2 + β4x4 + u

• Bu regresyonlar birbirlerinin özel hali değildir.


Farklı x içermektedirler.
• Bu tür yuvalanmamış regresyonlar arasında
seçim yaparken R-bar karelerini kıyaslayarak
karar verebiliriz.
• Bağımlı değişkenleri aynı (y) olan iki
regresyondan birisi az, diğeri çok sayıda x ihtiva
etsin. Her şey aynı iken kısa (basit)model daha
üstündür. Buna parsimonious principle denir.
• Bu tür modellerin R-bar karelerini kıyaslayarak
model seçebiliriz.
• Bağımlı değişkenin farklı fonksiyonel biçimde yer
aldığı (birinde y, diğerinde log (y) gibi)
regresyonların R2 ve R-bar karelerini
kıyaslayamayız.
• Çünkü, R2, bağımlı değişkendeki toplam
değişmenin açıklanan kısmıdır ve bu değişme y’nin
ele alınış biçimine göre değişecektir.
Kontrol etmemiz gereken x’ler
• Nasıl önemli bir değişkeni regresyon dışında
bırakmak bir hata ise, bazı durumlarda belirli
değişkenleri regresyona sokmak da hatadır.
• Örneğin, ABD de eyaletlerde bira tüketimi
üzerine konan vergilerin trafik kazalarına etkisi
olup olmadığını araştıralım.
• Bu durumda tax değişkenini regresyona alırken
bira tüketimi değişkenini (beercons) almamamız
gerek. Zira, beercons’ını kontrol ettiğimizde tax
değişkeninin katsayısı “ bira tüketimi aynı olan iki
eyalette tax’i %1 puan artırdığımızda kazalar ne
kadar artar?” sorusunun yanıtını verecektir.
Oysa bizi ilgilendiren bu değildir.
• Bizim ilgilendiğimiz şey, tax’de %1 puan artışın
kazaları nasıl etkilediğidir.Onun için bira tüketimini
kontrol etmememiz gerek.

• Hangi etkenleri (faktörleri) kontrol etmemiz, hangilerini


etmememiz gerektiği konusu her zaman açık değildir.
• Örneğin, okul kalitesi (Scqual) ve alınan eğitim süresi
(EDUC) aynı regresyona x olarak giriyor. Eğer, iyi okul
kalitesi zaten zorunlu olarak eğitim süresinin uzun
olmasını gerektiriyorsa ve aralarında böyle bir ilişki
varsa bizim EDUC değişkenini regresyona
sokmamamız lazım.
Yeni açıklayıcı değişkenler eklenmesi Var (u)’yu azaltır.
• Yeni bir açıklayıcı değişken bir yandan artıkların
varyansını, σ2(u), azaltırken, diğer yandan eğer
mevcut x’lerle ilişkili ise çoklu-bağıntıyı artırabilir.
• Bu nedenle yeni değişken eklerken çoklu-bağıntı
yaratılıp yaratılmadığına dikkat etmek gerekir.
• y ile ilişkili, dolayısıyla da, Var(u)’yu düşüren yeni
bir değişken eğer diğer x’lerle ilişkisiz ise mutlaka
regresyona alınmalıdır.
• Örneğin, bira tüketiminin fiyat esnekliğini tahmin
etmek isteyelim.
Log(beercons)=βo + β1Log(price) + u
• Bu regresyona tüketicilerin bireysel
karekteristikleriyle ilgili değişkenler eklersek (yaş,
eğitim vs.) bu değişkenler hem bira talebiyle ilişkili
hem de fiyatla ilişkisiz oldukları için hata terimlerinin
varyansını büyük ölçüde düşürebilecektir.
SEKK(OLS) regresyonundan elde edilen tahminler
için güven aralığı oluşturmak (confidence intervals for
predictions of E(y|x1,…, xk)):
• Regresyonda x değişkenlerinin belli somut
değerlerine (c1, c2,…., ck) karşılık gelen tahmini y
değeri olsun :
• Teta (o) için bir güven aralığı oluşturabilmemiz için
onun standart sapmasını bilmemiz gerektir. Bu
takdirde, %95’lik bir güven aralığı şöyle olacaktır:
“tetahat ± 2*se(tetahat)”.
• (6.28) dan,
• β(o)’ ı çekip şu denklemde yerine koyalım :
• (6.31) deki regresyonda sabit terim teta(o) ‘a eşittir ve
dolayısıyla onun standart hatası da teta(o)’ın st
hatasıdır.ÖRNEK: (6.32) deki regresyonda sat=1200,
hsperc=30, hsize=5 değerleri için bağımlı değişkenin
değerini tahmin edelim ve %95’lik güven aralığı
kuralım:(hsrank:rank in class; hsize:size of class;
hsper:100*(hsrank/hssize)
• x’leri verilen değerlerden çıkararak yeni değişkenler
elde edeceğiz ve regresyonu bu yeni değişkenlerle
tekrar tahmin edeceğiz :

• colGPA’nın verilen x değerleri için tahmini bu


regresyonun sabitidir : 2.700
• %95 Güv Aralığı: 2.70 ± 1.96 (0.020)={2.66, 2.74}.
• Tahminin (tetahat) varyansı en düşük noktasına x
değişkenlerini kendi ortalamalarına eşitlediğimizde
( ) ulaşacaktır.
• c(j) ‘ler, x ortalamalarından ne kadar çok uzak
değerleri alırsa bulunan tetahat tahminlerinin
varyansı da o kadar büyük olacaktır.
• Yukarıda, verilen belli x değerleri için bağımlı
değişkenin koşullu beklenen değeri-ortalaması- için
güven aralığı oluşturduk. imdi ise, orijinal
örnekte yer almayan yeni bireysel y’ler için
güven aralığı oluşturalım.
• Bireysel tahminler için güven aralığında hem
yhat(o)’ın varyansı hem de artık terim u’ların
varyansı rol oynayacaktır.
• orijinal örnekte yer almayan yeni bir bireyi (kişi, firma
vb.) temsil etsin.

• Onun belli x değerleri için OLS regresyonundan elde


edilen tahmini :

• Tahmin hatası (prediction error):

• Sapmasızlık özelliğinden dolayı bhat’lerin beklenen


değerleri betalara eşit olduğu için son denklemden
tahmin hatasının beklenen değerini sıfır olarak elde
ederiz :
• (6.34) den, tahmin hatasının varyansını şöyle buluruz
( ):

• örnek hacmi ile ters orantılı olduğu için, n


büyüdükçe küçülür. Oysa σ2, ana kitle artıklarının
varyansıdır ve n arttıkça azalmaz. Dolayısıyla, tahmin
hatasının varyansını büyük ölçüde σ2 belirler.
• Tahmin hatasının standart hatası ve %95’lik güven
aralığı şöyle olacaktır:
• Bireysel tahminler için bulduğumuz güven
aralıkları ortalama yhat için bulduklarımızdan
çok daha geniş olacaktır. Zira, (6.36) da σ2hat,
Var (yhat(o)) dan çok daha büyüktür.
• Örnek : sat=1200, hsperc=30 ve hsize=5 olan
bir lise öğrencisinin gelecekteki colGPA’sı için
%95’lik bir güven aralığı kuralım. Yukarıdaki
regresyondan se(yhat(o))=0.02, σhat=0.56.
Bunları (6.36) yerine koyarsak:
se(ehat(o))=0.56
• Güven aralığı: 2.70±1.96(0.56)={1.6, 3.8}
• Bu oldukça geniş bir güven aralığıdır ve
muğlaklık uhat’lerin varyansının büyüklüğünden
ileri gelmektedir.
• ÖRNEK:
• HPRICE2.DATA’yı kullanarak değişkenlerin
ortalama değerine denk gelen yhat=Log(price)
için %95’lik bir güven aralığı oluşturalım.
• Ortalamalar : lnox=1.69309, proptax=40.8237,
crime=3.6115
• Regresyon:
Lprice = 11.18 - 0.504 lnox - 0.0056 proptax
- 0.0095 crime.
• Buradan, x ortalamaları için
lpricehat = 9.94 bulunur.
Dönüştürülmüş regresyon:
Lprice = 9.94 – 0.46(lnox-1.69309)-
0.0056(proptax-40.8237)-0.0139(crime-3.6115).
• Se(βo)=Se(yhat)=0.0147; σhat=0.3314,
G.Aralığı: 9.94±1.96(0.0147) = {9.91, 9.968}
• Antilog’larını alırsak {20,131$; 21,332$}
• Bireysel tahmin için güven aralığı: imdi, x ortalama
değerlerine sahip herhangi bir bölgede ev fiyatları
tahmini için %95’lik bir güven aralığı oluşturalım:

• Dönüştürülmüş regresyondan, se(yhat)=0.0147,


σhat=0.3314 değerleri burada konursa,
Se(ehat)= SQRT[0.0147*0.0147)+(0.3314*0.3314)]
=0.3317
• Logprice için güven aralığı : 9.94 ± 1.96 (0.3317)=
{9.289; 10.59}.
• Antilog’larını alırsak, price için G.A.:
{10,818$; 39,735$}
Artıkların analizi (residual analysis)
• Ev fiyatları regresyonunda artıkları inceleyerek hangi
evlerin regresyonun öngördüğü fiyattan daha yüksek
(overvalued), hangi evlerin daha düşük (undervalued)
fiyatlandırıldığını görebiliriz.
• Burada, y : istenen fiyat, yhat: regresyondan elde
edilen tahmini fiyat.
• Mutlak olarak en yüksek negatif uhat’e sahip evler
düşük değerlendirilmiş (undervalued), en yüksek
pozitif uhat’e sahip evler ise en fazla aşırı
değerlendirilmiş (overvalued) olan evlerdir.
• uhat =y-yhat =Log(Y)-Log(Yhat) =Log (Y / Yhat)
obs Actual Fitted Residual obs Actual Fitted Residual

(log)
en düşük 10 en yüksek 10
400 8.74831 9.56705 -0.81874 369 10.8198 9.49062 1.32918
490 8.85367 9.66379 -0.81012 373 10.8198 9.63374 1.18606
401 8.63052 9.40469 -0.77416 366 10.2219 9.0516 1.1703
402 8.88184 9.62784 -0.746 372 10.8198 9.74455 1.07525
416 8.88184 9.60437 -0.72253 368 10.0476 9.10481 0.94278
420 9.03599 9.74106 -0.70507 370 10.8198 9.89351 0.92629
399 8.51719 9.10865 -0.59146 371 10.8198 9.97127 0.84853
491 8.99962 9.58358 -0.58396 408 10.2364 9.52692 0.7095
430 9.15905 9.6979 -0.53885 367 9.99424 9.39573 0.59851

413 9.79256 9.26113 0.53143


• Dependent Variable: LPRICE

• Included observations: 506

• Variable Coefficient Std. Error t-Statistic Prob.




• C 10.98524 0.299231 36.71153 0.0000
• LPROBTAX -0.073268 0.042150 -1.738238 0.0828
• LNOX -0.701876 0.107804 -6.510657 0.0000
• CRIME -0.012730 0.001521 -8.369419 0.0000
• ROOMS 0.242073 0.017006 14.23496 0.0000
• STRATIO -0.040195 0.005787 -6.945320 0.0000
• DIST -0.040705 0.008835 -4.607353 0.0000


• R-squared 0.654918 Mean dependent var 9.941057
• Adjusted R-squared 0.650769 S.D. dependent var 0.409255
• S.E. of regression 0.241852
obs Actual Fitted Residual obs Actual Fitted Residual
(log)
en düşük 10 en yüksek 10
400 8.74831 9.56705 -0.81874 369 10.8198 9.49062 1.32918
490 8.85367 9.66379 -0.81012 373 10.8198 9.63374 1.18606
401 8.63052 9.40469 -0.77416 366 10.2219 9.0516 1.1703
402 8.88184 9.62784 -0.746 372 10.8198 9.74455 1.07525
416 8.88184 9.60437 -0.72253 368 10.0476 9.10481 0.94278
420 9.03599 9.74106 -0.70507 370 10.8198 9.89351 0.92629
399 8.51719 9.10865 -0.59146 371 10.8198 9.97127 0.84853
491 8.99962 9.58358 -0.58396 408 10.2364 9.52692 0.7095
430 9.15905 9.6979 -0.53885 367 9.99424 9.39573 0.59851

413 9.79256 9.26113 0.53143


obs actual ($) fitted difference obs actual ($) fitted difference
400 6300.0 14286.2 -7986.2 369 50001.1 13235.0 36766.1
490 7000.0 15737.3 -8737.3 373 50001.1 15271.4 34729.6
401 5600.0 12145.2 -6545.2 366 27498.9 8532.2 18966.7
402 7200.0 15181.6 -7981.6 372 50001.1 17061.0 32940.1
416 7200.0 14829.4 -7629.4 368 23100.3 8998.5 14101.8
420 8400.0 17001.6 -8601.5 370 50001.1 19801.4 30199.6
399 5000.0 9033.1 -4033.1 371 50001.1 21402.6 28598.4
491 8100.0 14524.3 -6424.3 408 27900.5 13724.3 14176.2
430 9500.0 16283.4 -6783.3 367 21900.0 12036.9 9863.1

413 17900.1 10521.0 7379.1


Log(y) bağımlı değişken iken y’yi (ki, bu yhat’dir)
nasıl tahmin ederiz?
• (6.38) de verilen modelin tahmini (6.39) olsun:

• (6.39) dan, şeklinde bulursak y’nin


beklenen değerini sistematik olarak noksan tahmin
(underestimate) etmiş oluruz.
• Eğer (6.38) deki model klasik doğrusal model (CLM)
varsayımlarını, yani, MLR.1-MLR.6, sağlıyorsa, şunu
yazabiliriz:
• Eğer, u~ N(0, σ2) ise, exp(u) = exp(σ2/2).
• Dolayısıyla, logyhat’den hareketle yhat’i bulurken
ufak bir düzeltme yapmamız gerekecek :

• σ2>0 olduğu için exp(σ2/2)>1 olacak her zaman.


u’ların varyansı σ2 büyüdükçe bu düzeltme faktörü
1’den önemli ölçüde büyük olabilecektir.
• (6.40) daki yhat’in tahmini, sapmalı fakat tutarlıdır.
u’ların normal dağıldığı varsayımına dayanır.
Örnek büyüdükçe bu sorun olmaktan çıkar.
Düzeltme faktörünün N dağılım varsayımına
dayanmayan diğer bir tahmini
• u’nun açıklayıcı değişkenlerden (x’ler) bağımsız olduğunu
varsayarsak, y’nin koşullu beklenen değerini şöyle yazabiliriz:

• Burada, α(o) = E{exp(u)} ‘dur ve “y’ nin, exp(logyhat) üzerine


sabit terim olmaksızın regress edilmesi” suretiyle bulunur :
y = α(o) exp(logyhat) + e(t).
• Demek ki,önce (6.39) dan logyhat’i, sonra “y = α(o)
exp(logyhat) + e(t)” regresyonundan α(o)’ı ve nihayet (6.42) den
y’nin tahminini (yhat) elde edeceğiz.
Örnek: CEO maaşları

• Bağımlı değişkenin log(salary) olduğu CEO maaşları


denkleminin tahmini şöyledir:lmktval=log(market value),

• Bu denklemden, x’lerin değerlerini yerlerine koyarak lsalaryhat’i


hesaplayacağız. Sonra, sabit terim kullanmaksızın “salary =
α(o) lsalaryhat + e” regresyonundan α(o)hat= 1.117 olarak
bulacağız.
• (6.42) de bu düzeltme faktörünü kullanarak verilen herhangi
belli x değerleri için maaş tahminleri (yhat) yapabileceğiz.
• Örneğin, sales=5000 million$, mktval=10,000
million$, ceoten=10 için ceo maaşlarını tahmin
edelim.
• Bunları (4.43) de kullanırsak:
Lsalaryhat=4.504+0.163*log(5,000)+0.109*
log(10,000)+0.0117*10 = 7.013
• Düzeltme faktörünü uygulayarak maaş tahminini
şöyle buluruz :
1.117*exp(7.013) =1,240.967 bin $=1,240,967$.

• Düzeltme faktörü kullanmasaydık,


salaryhat=1,110,983$ bulacaktık. %11.7 daha
düşük tahmin yapmış olacaktık.
Bağımlı değişkenleri log(y) ve y olan iki
regresyonun R2’lerini nasıl mukayese edeceğiz?

• Çoklu bir regresyonda “R2 = corr(y,yhat)2” idi.


• Adımlar :
• i) logy regresyonundan logyhat’i bulunuz.
• ii) serisini hesaplayınız.
• iii) Sabit terim kullanmaksızın (orijinden geçen regresyon) “y =
α(o)mhat +e” regresyonunu tahmin ediniz.
• iv) Bu regresyondan bulduğunuz yhat ile verilen y serisi
arasındaki korelasyonu hesaplayınız.
• v) Bulduğunuz katsayının karesi R2’dir :
R2 = [corr(y, yhat)]2.
• Bu R2’yi bağımlı değişkeni y olan ikinci regresyonun R2’si ile
karşılaştırabilirsiniz.
Örnek

• Yukarıdaki CEO maaşları örneğinde


tahmin etmiştik. Aktüel salary serisi
ile buradan bulunan salaryhat serisi arasındaki
korelasyon 0.493 olarak hesaplanmaktadır. Bunun
karesi, R2=0.243 değerini vermektedir.
• Demek ki, log modelinde açıklayıcı değişkenler
maaşlardaki değişmelerinin %24.3 ünü izah
edebilmektedir.
• Oysa, (6.43)deki log modelin R2’si 0.318 dir ve
bundan farklıdır. 0.318 değeri, logsalary serisindeki
değişkenliğin açıklanan yüzdesini göstermektedir.
• Dependent Variable: SALARY

• Included observations: 177 after adjustments

• Variable Coefficient Std. Error t-Statistic Prob.

• C 613.4361 65.23685 9.403214 0.0000
• SALES 0.019019 0.010056 1.891290 0.0603
• MKTVAL 0.023400 0.009483 2.467719 0.0146
• CEOTEN 12.70337 5.618052 2.261169 0.0250

• R-squared 0.201274 Mean dependent var 865.8644
• Adjusted R-squared 0.187424 S.D. dependent var 587.5893
• S.E. of regression 529.6707 Akaike info criterion 15.40473
• Sum squared resid 48535332 Schwarz criterion 15.47651
• Log likelihood -1359.318 F-statistic 14.53168
• Durbin-Watson stat 2.166043 Prob(F-statistic) 0.000000

• (6.43) deki LOG model y ’deki değişmelerin %24.3 ünü açıkladığı


halde, level model %20.12 sini açıklayabiliyor. Yani, Log model daha
başarılıdır.
• Ayrıca, Log modelin katsayıları (esneklikler) daha kolay youmlanabilir
türdendir.
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern
Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 7:
Çoklu Regresyon Modelinde Nitel Değişkenler

1
CH 7 : REGRESYON ANALİZİNDE NİTEL BİLGİ
İkili (binary) ya da kukla (dummy) değişkenler
• Önceki bölümlerde bağımlı ve bağımsız
değişkenlerimiz her zaman nicel (quantitative)
nitelikte bilgiler içeriyorlardı: ücretler, iş deneyimi, ev
fiyatları, oda sayısı vs.
•Ancak, uygulamada çoğu kez nitel (qualitative)
değişkenleri de regresyona dahil etmek zorundayız.
•Bireylerin cinsiyeti, ırkı, dini, doğduğu bölge (kuzey/
güney ya da batı/doğu gibi), eğitimi (lise/yüksek
gibi)… Tüm bu değişkenler nitel türde enformasyon
içermektedirler.

2
Bölüm Planı

• Altbölüm 7.1: Nitel Bilginin Betimlenmesi


• Altbölüm 7.2: Tek Kukla Açıklayıcı Değişken
• Altbölüm 7.3: Çok Kategorili Kukla Değişkenler
• Altbölüm 7.4: Etkileşimli Kukla Değişkenler
• Altbölüm 7.5: Bağımlı Değişkenin Nitel Olduğu
Durum (Doğrusal Olasılık Modeli)

3
Nitel Bilgi

• Nitel enformasyon çoğu kez ikili (binary) yapı


gösterir :
– erkek/kadın, arabası olan/olmayan, beyaz/beyaz
olmayan, yerli/yabancı, ölüm cezası olan/olmayan
ülkeler, vb…
• Bu tür enformasyonu ikili (binary)
değişkenlerle ifade edeceğiz. Bunlara
“sıfır/bir” (0/1) değişkenler ya da “gölge ya da
kukla (dummy)” değişken de denir.

4
Nitel Bilgi
• Hangi kategoriye 1 ya da 0 dediğimiz regresyon
sonuçlarını değiştirmez, ancak yorum
yapabilmemiz için hangi kategoriye 1 hangisine 0
dediğimizi bilmemiz gerek.
• Örnek :
Cinsiyet kuklası : kadın=1, erkek=0,
Evlilik kuklası : evli=1, evli değil=0
• Nitel kategorileri ayırt etmek için aslında 1/0
yerine başka iki değer de kullanabilirdik. Ancak
1/0 ile gösterildiklerinde katsayılarının yorumu
çok kolaylaşmaktadır.
5
Örnek Veri Seti: cinsiyet ve medeni durum bilgisini
içeren ücret verileri

6
TEK KUKLA DEĞİŞKENLİ REGRESYON
• İkili (nitel) enformasyonu regresyona nasıl dahil
edeceğiz?
• X’lerden birisi kukla değişken olsun. Örnek:

• Female=1 olan bireyler kadın, female=0 olan bireyler


ise erkek olacaktır.
• δo= Aynı eğitim durumuna sahip bir erkekle bir
kadının saat ücretleri arasındaki fark.
• Eğer δo sıfırdan farklı çıkmazsa (t testi yapacağız)
erkek-kadın arasında ücret farklılığı yok demektir.
7
• Tersine, δo<0 çıkarsa, kadınlar erkeklere göre
daha düşük saat başına ücretle çalışıyor
demektir (discrimination).Burada kıyaslama
ceteris paribus (diğer her şey ayni iken) koşulu
altında yapılmaktadır.
• “E(u | female, educ)=0” olduğu için şöyle
yazabiliriz:
δo=E(wage |female=1, educ)- E(wage |female=0, educ).
Female=0 → male olduğundan:

8
Sonucu, regresyonun sabit teriminde bir kayma
(intercept shift) olarak görürüz: δo<0

9
• Bir kukla değişken (dummy) iki kategoriyi
birbirinden ayırabilmektedir.
• Dolayısıyla, erkek için ayrı, kadın için ayrı bir
kukla oluşturmuyoruz. Tek bir kukla ile iki
kategoriyi ayırıyoruz.
• “Gerekli kukla sayısı=kategori sayısı-1”
formülünü kullanacağız.
• Grafik 7.1 de erkek için sabit terim βo, kadın
için ise βo+δo‘dır.Kaç kategori (grup) varsa o
kadar da sabit (intercept) olacaktır.
10
• Erkek/kadın için 2 dummy kullansaydık tam
çoklu bağıntı (perfect multicollinearity)
oluşacaktı ve regresyonu tahmin
edemeyecektik. Zira “female+male=1” dir.
• Buna kukla değişken tuzağı (dummy variable
trap) denir.
• Sıfır değerini alan kategori (7.1 de male) baz
ya da kıyaslama (base or benchmark)
kategorisidir.
• βo, baz kategorisinin sabitidir.
• δo ise, baz kategorisi ile diğer kategorinin
sabitleri arasındaki farktır.
11
• Kadınların baz kategori olmasını istiyorsak modeli şöyle yazarız :

12
• Diğer bir alternatif, regresyonda hiç sabit
(intercept) kullanmayıp her bir kategori için bir
dummy kullanmaktır.
wage = δo female + γ0 male + β1 educ + u
• Burada female = 1 eğer çalışan kadınsa, =0 değilse
• male = 1 eğer çalışan kadınsa, =0 değilse
• Bu durumda kukla değişken tuzağına düşmeyiz.
• Çünkü her bir kategori için bir sabit (intercept)
tahmin etmiş oluruz.
• Ancak sabitsiz bir regresyonda R2
hesaplanamamaktadır.
• Üstelik iki sabitin birbirinden farklı olup olmadığının
testi de zordur. Dolayısıyla, bu alternatife pek
başvurmayacağız.
13
• Birden fazla açıklayıcı değişken olması durumu
değiştirmez. Örneğin;

Eğer “Ho: δo=0” boş hipotezi “H1: δo<0” alternatif


hipotezine karşı testi geçemezse, kadınlara karşı ücret
ayrımcılığı (discrimination) var demektir.
• δo için t testi yaparak anlamlı olup olmadığına karar
vereceğiz. Bu bakımdan gölge değişkenlerin diğer
değişkenlerden bir farkı yoktur.
• Fark sadece gölge değişkenlerin katsayılarının
yorumundadır.

14
• Örnek 7.1

• Burada, female kukla değişkeninin katsayısı -1.81, eğitim,


tecrübe ve son işyerindeki kıdemi aynı olan bir kadınla bir
erkeğin saat ücretleri arasındaki ortalama farkı ölçer. Bu
fark saat ücretlerde 1.81$ kadardır.
• Regresyon sabiti (-1.57), female=0 iken geçerli sabit, yani
erkeklere ait regresyonun sabitidir. Educ=exper=tenure=0
iken ücretin ne olduğunu gösterdiği için bu örnekte fazla
bir anlam ifade etmemektedir.
15
• (7.4) de female değişkeninin katsayısının ücret farkını
gösterdiğini şöyle de kanıtlayabiliriz:
• (7.4) de tüm açıklayıcı değişkenleri dışarıda bırakıp sadece
female’i tutalım. Regresyon şöyle tahmin edilmektedir.

• Burada sabit (intercept), 7.10, female=0 iken geçerli olan


sabittir, yani erkeklere ait ortalama saat-ücrettir. Kadınlara
ait ortalama saat-ücret ise:
7.10 - 2.51(1) = 4.59 $
olur.
• Fark 7.10 - 4.59 = 2.51$ = β(female)
16
• Yukarıdaki örneğe 274 erkek, 252 kadın dahil
edilmiştir. Dolayısıyla, kategoriler dengelidir
(balanced).
• (7.5) deki regresyon kategorilere ait
ortalamaların birbirinden farklı olup
olmadığını test etmenin basit bir yoludur.

• Ortalama kadın ve erkek saat-ücretleri farkı -


2.51$ dır ve standart hatası 0.30 olan bu
katsayının t değeri -8.37 (=-2.51/0.3) gibi çok
yüksek (mutlak olarak) bir değerdir.
• Yani, istatistiksel olarak %1 düzeyinde bile
anlamlıdır.
17
• Bu t testinin geçerliliği sabit varyans
(homoscedasticity) varsayımının sağlanmasına bağlıdır.
• Yani,erkeklerin ücretlerine ait varyans (populasyonda)
kadın ücretleri varyansı ile aynı olmalıdır ki test
yapabilelim.
• Cinsiyetler-arası ücret farkı (7.4) de (7.5)dekinden
daha az çıkmıştır. Çünkü, ilk regresyonda bireylere ait
diğer özellikler (educ, exper , tenure) regresyona dahil
edilerek kontrol altına alınmıştır.
• Eğitim, deneyim gibi faktörler (ki bu değişkenlerin
ortalaması kadınlarda daha düşüktür) dikkate
alındığında ücret farkı biraz daha azalmaktadır.

18
• Kukla değişkenler her zaman cinsiyet gibi
önceden belirlenmiş (predetermined)
kategorileri değil, bireylerin seçimleri, mülkiyet
durumu vb. farklılıkları da temsil ederler.
• Bu durumlarda nedensellik (causality) temel
konudur.
• Örneğin, kişisel bilgisayarı (PC) olan üniversite
öğrencilerinin GPA puanlarının bilgisayarı
olmayanların puanlarından daha yüksek
olduğunu saptamış olalım.
• Bu neyi gösterir? Nedenselliğin yönü nedir?
“Bilgisayar sahipliği yüksek GPA” mi yoksa
“Yüksek GPA bilgisayar sahipliği” mi?
19
• Demek ki, nedenselliğin yönünü tayin edebilmek için
öğrencilerin başarı durumları ile ilgili bazı değişkenleri
kontrol altına almamız gerektir. Bunlar lise bitirme notları,
genel yetenek testi sonuçları vs. olabilir.
• Bu değişkenleri regresyona dahil ettiğimizde, bilgisayar
sahipliğinin üniversite notuna hala pozitif katkısı çıkıyorsa,
nedenselliğin yönü “bilgisayar başarı” dır diyebileceğiz.

• hsGPA: lise (high school) not ortalaması, PC=1 bilgisayarı


varsa, ACT=yetenek sınavı sonucu 20
• Regresyonda, lise notu üniversite notunun
belirlenmesinde kuvvetle etkili olduğu halde
ACT yetenek sınav sonuçları etkili değildir.
• Bu iki değişkenin üniversite notlarına etkisi
dikkate alındığında da PC ‘nin katkısı hala
pozitiftir ve istatistiksel olarak anlamlıdır.
• Yani, sadece zaten iyi öğrenci (lisede) olanlar
PC almamış, bazı öğrenciler PC aldıkları için
üniversitede iyi öğrenci haline gelmiştir.
• hsGPA ve ACT değişkenlerini regresyon dışında
bıraktığımızda PC’nin katkısı 0.170 (se:0.063)
‘ye çıkıyor.
21
Kukla Değişkenlerle Etkileşim
• Farklı eğimler (slopes) elde etmek
• Yukarıda kukla değişkenler kullanarak aynı
regresyonda çok sayıda farklı sabite (intercept) yer
verebildik.
• Şimdi farklı eğimler türetmeyi görelim.
• Örneğin, ücret regresyonunda bir yıllık ilave bir
eğitimin erkek ve kadın ücretlerinde yaratacağı
etkinin farklı olup olmadığını ölçmek isteyelim.
• Bunun için kadın gölge değişkeni female’i educ
değişkeni ile etkileşime (interaction) sokacağız.
22
• Regresyonu şöyle yazacağız:

• Bu regresyonda “female = 0” değerini yerine


koyarsak, β0’ ın erkekler için sabit, β1’ in ise
erkekler için eğim (slope) katsayıları olduğunu
görürüz.
• Female=1 aldığımızda (yani, kadın kategorisini
seçtiğimizde), “β0 + δ0”, kadın için sabiti,
“β1 + δ1” ise kadın için eğim katsayısını
gösterecektir.
23
• Böylece δo, iki kategorinin sabitleri arasındaki
farkı, δ1 ise, eğimleri arasındaki farkı
verecektir.
• Kadın ve erkekler arasında bir yıllık ilave bir
eğitimin ücret getirisi δ1 kadar farklıdır.
• Regresyonu fark katsayılarının almaşık pozitif
ve negatif değerleri için şöyle gösterebiliriz:

24
25
• Grafik (a) da, kadınlara ait regresyonun erkeklere ait
regresyonunkilere kıyasla hem sabiti, hem de eğimi
daha düşüktür.
• Yani, kadınların saat-başına ücretleri tüm eğitim
düzeylerinde erkeklerinkinden daha düşüktür.
• Fark (gap) educ yükseldikçe artmaktadır.
• Grafik (b) de ise, erkeklere kıyasla, kadın
regresyonunun sabiti daha düşük, ancak educ
değişkeninin eğimi daha yüksektir. Bu şu anlama
gelir: düşük eğitim düzeylerinde kadınlar, yüksek
eğitim düzeylerinde ise erkekler daha az
kazanmaktadır.
26
• (7.16) daki modeli female ve educ değişkenleri arasında
karşılıklı etkileşim (interaction) kurarak tahmin edeceğiz :

• Etkileşim değişkeni “female*educ” , erkekler için 0, kadınlar


için ise educ değişkeni değerini alacaktır.
• Şu hipotezi test edeceğiz : Eğitimin getirisi erkek ve kadınlar
için aynı mı? Ho: δ1 = 0, H1: δ1 ≠ 0.
• Ho hipotezi, “log(wage)’in educ’ya göre türevi erkek ve
kadınlar için aynıdır” anlamına gelmektedir.
• Burada, sabitlerle ilgili bir kısıt yoktur. Yani, eğitimin
getirisinin iki grup için de eşit olduğunu söylüyoruz.
• Eğitim dışındaki faktörlerden dolayı eşitsizlik olabilir.
27
• Şu hipotezle de ilgiliyiz :
“Aynı eğitim düzeyine sahip erkek ve
kadınların ortalama ücreti aynıdır (Ho)/
farklıdır (H1)”.

• Bu hipotez, δo ve δ1 katsaylarının aynı anda


sıfıra eşit olup olmadıklarının testidir.

28
29
• Bir yıllık ilave eğitimin getirisi erkek ve kadınlar için
aynıdır. “Female*educ” etkileşim değişkeninin
katsayısının (δ1) t istatistiği -0.0056/0.0131 = -0.43
dür ve istatistiksel olarak anlamsızdır.
• Regresyonda interaction değişkeni bulunduğundan,
female değişkeninin katsayısı (δo), educ=0 iken erkek
ve kadınlar arasındaki ücret farkını ölçecektir.
Örnekte eğitim yılı sıfır olan kişi bulunmadığı için ve
ayrıca female ile female*educ değişkenleri arasında
çoklu-bağıntı (multicollinearity) olduğundan δo’ın
standart hatası yüksek, dolayısıyla da t değeri
düşüktür (-1.35).
30
• Bu nedenle, female’in katsayısını şöyle tahmin edeceğiz :
Etkileşim değişkeninde educ yerine onun ortalamasından
sapmasını (educ- ortalama) kullanacağız. Educ değişkeninin
ortalaması 12.5 yıldır.
• Yeni etkileşim değişkenimiz “female*(educ-12.5)” olacaktır.
Bu değişiklikten sonra regresyonu yeniden tahmin edeceğiz.
Bu durumda, δo, educ=12.5 iken geçerli olan ücret farkını
gösterecektir. Yani ortalama eğitim düzeyinde ücret farkı
olup olmadığını göreceğiz.
• F testi sonucu, δo ve δ1 ‘ in ikisinin birden sıfıra eşit
olmadığını gösteriyor. O halde sabit terim erkek ve kadın
için farklıdır. Dolayısıyla, yukarıdaki (7.9) modelini tercih
edeceğiz. İki farklı sabit tahmin ediyordu.

31
• ÖRNEK : Oyuncunun ırkının ve kentin ırk bileşiminin beyzbol
oyuncuları maaşlarına etkisi

• Örnek 330 oyuncu kapsıyor. Black ve hispan, siyah ve


ispanyol kökenli oyuncuları gösteren kukla değişkenleridir.
Baz kategori beyaz oyunculardır. Percblck ve perchisp,
takımların ait olduğu kentlerde siyah ve ispanyol kökenli
vatandaşların oranıdır.
• Önce dört ırk değişkeninin (black, hispan, black*percblck ve
hispan*perchisp) ortaklaşa (jointly) anlamlı olup olmadığına
bakalım. F testini , kısıtsız ve kısıtlı modelin R2’lerini
kullanarak yapalım.
• 4 değişken dışarıda bırakıldığında R2=0.626 bulunuyor. Kısıt
sayısı=4, kısıtsız modelde df=330-13. F istatistiği 2.63 olarak
elde edilir (p değeri:0.034). 4 değişken birlikte anlamlıdır.
32
• Örnek :

33
• Oyuncuların verimliliği ile ilgili tüm değişkenleri sabit
tutarak ırk kuklalarını yorumlayalım.
• Black’in katsayısı, -0.198 : diğer her şey sabitken, hiç
siyah nüfusun bulunmadığı (percblck=0) bir şehirde
oynayan siyah oyuncu beyaz oyunculara kıyasla
%19.8 daha az kazanmaktadır. O şehirde siyah nüfus
oranı arttıkça siyah oyuncunun kazancı artacaktır
(black*percblck etkileşim değişkeninin katsayısı +
işaretli).
• Örneğin, siyahların %20 olduğu bir şehirde siyah
oyuncular beyazlardan (baz kategori) %5.2
(= -0.198 + 0.0125* 0.20 = 0.052) daha fazla ücret
alacaktır.
34
• Benzer şekilde ispanyol kökenli oyuncular, ispanyol
kökenlilerin az oranda bulunduğu şehirlerde beyaz
oyunculara kıyasla daha az kazanacaklardır.

• Siyah nüfus sabitken, ispanyol nüfusun %9.45 ‘i geçtiği


şehirlerde ispanyol kökenli beyzbolcular beyaz
oyunculardan daha fazla kazanacaktır : -0.190 +
0.0201*perchisp = 0  perchisp = 9.45.

• Oyuncu kazancı ile oyuncunun oynadığı şehrin nüfus yapısı


ilişkili çıkıyor. Ancak, ilişkinin yönünü bu regresyondan
bulamayız. Yoğun siyah nüfusun yaşadığı şehirlerde siyah
oyuncuların daha çok kazanması, en iyi siyah oyuncuların
siyahların ağırlıklı olduğu şehirlerde yaşamak
istemelerinden ileri gelebilir. Ya da şehir takımları şehrin
etnik yapısına göre oyuncuların ücretlerini farklılaştırıyor
olabilir.
35
İki ayrı kategoriyi aynı regresyonla açıklayabilir miyiz?
• İki grup arasında regresyonun tüm katsayılarının farklı olup
olmadığını test edelim.
• Üniversitenin erkek ve kız öğrencilerden oluşan atletizm
takımı bulunuyor. Soru şu : Bu atletlerin notlarını aynı
regresyonla açıklayabilir miyiz?
• Regresyon :

• SAT, genel yetenek testi sonuçları; hsperc, lise (high school)


mezuniyet sıralaması (%); tothrs, alınan toplam ders saati.
• Hem sabit terimin hem de eğimlerin kız ve erkek atletler
arasında farklı çıkacağını düşünüyorsak modeli şu hale
getiririz :
36
• Modele sabit ve eğim kuklaları koyuyoruz :

• “Erkek ve kız atletlerin notlarını aynı regresyonla


açıklayabiliriz” şeklindeki Ho hipotezi şöyle
olacaktır :

• Eğer H1 kabul edilirse, yani katsayıların en az


birisi sıfırdan farklı çıkarsa modelin iki grup için
ayrı ayrı olacağına karar vereceğiz. 37
• Tahmin edilen regresyon :

38
• Kısıtlı modelde R2=0.352 bulunuyor. F=8.14 hesaplıyoruz.
Bu ise çok yüksek bir değer ve p-değeri sıfıra eşit, Yani,
katsayılar aynı anda sıfıra eşit değildir. Erkek ve kadın
atletlerin notları aynı model tarafından açıklanamaz. Farklı
modeller gerektir.
• Katsayıların tek tek t değerleri 2 ‘den küçük olmakla
beraber ortak anlamlılık testini kuvvetle geçebilmektedirler.
• Female’in katsayısını yorumlarken, bu katsayının
sat=hsperc=tothrs=0 iken not farkını gösterdiğini
unutmayalım. Her üç değişkenin sıfır alınması ilginç bir
senaryo olmadığı için regresyonda bu değişkenlerin
ortalama değerleri konarak female değişkeninin katsayısı
yeniden hesaplanır :
39
• Sat =1,100, hsperc=10 ve tothrs=50
koyduğumuzda puan farkı: {-
0.353+0.00075*1100-0.00055*10-
0.00012*50} = 0.461
olarak bulunur.
• Yani, kadın atletlerin GPA’leri aynı özelliklere
sahip erkeklerinkine kıyasla yarım puana yakın
daha yüksektir.

40
Chow testi
• Chow İstatistiği
• Değişken sayısı fazla ise yukarıdaki gibi her bir
değişken için interaction yaratmak pratik
olmayacaktır. İki grubun aynı modelle açıklanıp
açıklanamayacağını Chow testi ile daha kısa yoldan
belirleyebiliriz.
• Grup 1=g1, grup 2 = g2 diyelim.

• Soru, tüm beta katsayılarının her iki grup için eşit


olup olmadıklarıdır. 41
• Sabit ve eğim farkı gölge değişkenleri SAT dışında
anlamlı çıkmamıştır.
• Ancak, yukarıda belirtildiği gibi, biz tek tek t
testlerine değil ortak (jointly) anlamlılık testine (F
testi) dayanarak karar vereceğiz.
• Tüm sabit ve eğim fark katsayılarının aynı anda sıfır
olduğu şeklindeki Ho hipotezini test edebilmek için
söz konusu değişkenleri (female ve tüm interaction
değişkenleri) dışarıda bırakarak kısıtlı modeli tahmin
ediyor ve R2 ya da SSR ‘lerden hareketle F
istatistiğini hesaplıyorduk.
42
Chow istatistiği ve testi
• Değişken sayısı fazla ise yukarıdaki gibi her bir
değişken için interaction yaratmak pratik
olmayacaktır. İki grubun aynı modelle açıklanıp
açıklanamayacağını Chow testi ile daha kısa
yoldan belirleyebiliriz.
• Grup 1=g1, grup 2 = g2 diyelim.Modelimiz :

• Soru, tüm beta katsayılarının her iki grup için eşit


olup olmadıklarıdır. 43
• Test için şu adımlar izlenir :
• (7.23) ü her iki grup verileri ile ayrı ayrı tahmin ediniz ve
elde ettiğiniz regresyonların artık kareler toplamlarını
SSR1 ve SSR2 olarak adlandırınız. Bu iki SSR’nin toplamı
kısıtsız modelin SSR’sini verecektir : SSRur = SSR1 +
SSR2.
• İki grubun verilerini birleştirerek (7.23) ü tek bir
regresyon olarak tahmin ediniz ve artık kareler toplamını
SSR olarak adlandırınız. SSR, kısıtlı modelin artık kareler
toplamıdır : SSR = SSRr.
• Kısıt sayısı k+1 dir (= (7.23) deki parametre sayısı).
Kısıtsız modelin serbestlik derecesi, df = sabit kuklası + k
değişkenin her birisi için interaction kuklası +
regresyonun kendi sabiti + k tane değişken = n – 2(k+1)
dir.
44
• Şu formülden Chow istatistiğini hesaplayınız :

• Bulunan Chow istatistiğini F tablosundan F


{k+1 ; (n-2(k+1)} kritik değeri ile karşılaştırarak
karar veriniz : cal F > tab F ise Ho red, aksi
halde kabul.
• Ho : βo(g1) = βo(g2), β1(g1)= β1(g2), .....
βk(g1)= βk(g2),

45
• Yukarıdaki GPA örneğine Chow testi uygulayalım :
• Kız atlet sayısı n1= 90, erkek atlet sayısı n2= 276, toplam
örnek n =n1+n2 = 366.
• İki grubun verileri bir arada ele alınarak birleştirilmiş
regresyon (pooled regression) uygulandığında artık kareler
toplamını 85.515 olarak buluyoruz : SSRr (= formüldeki SSR)
= 85.515. Kadın atlet regresyonundan SSR1=19.603, erkek
regresyonundan SSR2=58.752 elde ediyoruz. Bölece SSRur
= 19.603 + 58.752 = 78.355 bulunur.

• F =[(85.515-78.355) / 78.355] [358 / 4] = 8.18 . Yukarıdaki


ile aynı sonuca ulaştık. %5 için tab F(4 ; 358) =
2.372 < cal F  Ho red. 46
• Chow testinin önemli bir yetersizliği, Ho hipotezinde grup
modelleri arasında hiçbir farkın olmadığının kabul
edilmesidir. Oysa, bazen “eğim katsayıları aynı ancak sabit
terim farklıdır” diye test yapmak isteriz.

• Bunu Chow testi ile yapamayız. Example 7.10 da


gördüğümüz gibi regresyona interaction terimleri koyup
sonra da bu interaction katsayılarının ortak anlamlılık (joint
significance) F testini yapmamız gerekmektedir. Sabit
üzerine kısıt konulmayacaktır.

• GPA örneğinde, Ho : δ1=δ2=δ3 = 0 için F=1.53 bulunuyor.


Bu da ancak p=0.205 düzeyinde anlamlıdır. Yani, Ho ‘ı
reddedemiyoruz. O halde, interaction ‘li model i değil
sadece sabit kuklasının bulunduğu şu modeli tercih
edeceğiz :
47
• (7.25) de eğim katsayıları (7.22) de baz grup (erkekler) için
bulunan katsayılara yakındır. Interaction terimlerini
bırakmamız fazla bir değişmeye yol açmadı.
• Ancak, (7.25) de female’in katsayısı yüksek bir t değerine
sahiptir. Yani, aynı SAT, hsperc ve tothrs düzeyine sahip
erkek ve kadın atletlerin GPA notları kadınlar lehine 0.31
puan daha yüksektir.
48
İkili (binary) bağımlı değişken: Doğrusal Olasılık
Modeli (The Linear Probability Model)
• Şimdiye kadar gördüğümüz örneklerde bağımlı değişken y
hep nicel (quantitative) nitelikte bir değişkendi : ücret, not,
Log(ücret) gibi ….
• y, nitel türde ikili (binary) bir değişkense ne olacak ?
• y, 1 ve 0 değerini alan bir değişken olabilir. Yerli/yabancı, evi
olanlar/olmayanlar, yabancı dil bilenler/bilmeyenler vb. ikili
(binary) türde değişkenler.
• y’nin ikili değişken olduğu şu regresyon neyi ifade
edecektir?

49
• Bu regresyonda y, sadece 1 ve 0 değerlerini
aldığı için betaların yorumu eskisi gibi (diğer
tüm faktörler sabitken, x(j)’de 1 birimlik
değişmenin y’de yol açacağı değişme)
olmayacaktır.

• Zira, y sadece 1 den 0’a, 0’dan 1’e


değişebilecektir.

• Buna rağmen bu regresyondaki betalar da


oldukça yararlı olabilecek yorumlara
sahiptirler.

50
• Eğer sıfır-koşullu ortalama varsayımı, MLR.3,geçerliyse,
E (u|x1,…xk)=0, her zamanki gibi şun yazabiliriz :

• X, tüm bağımsız değişkenleri gösteren bir vektördür.


• y, 1/0 değerlerini alan ikili bir değişken iken,
P(y=1|x) = E(y|x) eşitliği bulunmaktadır. Yani, y’nin 1
değerini alması (buna başarı diyelim) olasılığı, y’nin
beklenen değeri ile aynı şeydir :

51
• (7.27), başarı olasılığının, buna p(x)=P(y=1|x) diyelim,
x’lerin doğrusal bir fonksiyonu olduğunu söyler.

• (7.27), ikili tepki modeline (binary response model) bir


örnektir. P(y=1|x), tepki olasılığı (response probability)
olarak da adlandırılır.
• Başarı (y=1) ve başarısızlık (y=0) oranları toplamı 1
olduğu için, başarısızlık olasılığı da x’lerin doğrusal bir
fonksiyonudur :

• y’nin ikili (binary) bir değişken olduğu çoklu-regresyon


modeli doğrusal olasılık modeli (linear probability
model (LPM) adını alır. Çünkü, P(y=1|x), betaların
doğrusal bir fonksiyonudur.
52
• Bu modelde, β(j)’nin yorumu şöyle olacaktır : Diğer
faktörler sabitken, x(j)’de bir birimlik değişme başarı
şansında β(j) kadar bir değişme yaratacaktır.

• Böylece çeşitli değişkenlerin y=1 olma olasılığına yapacağı


katkıyı saptayabileceğiz. SEKK (OLS) nin tüm diğer özellikleri
aynen burada da geçerlidir.
• Tahmin edilen regresyon :

• Burada yhat, başarı oranı tahminidir. Βo, x’ler sıfırkenki


başarı oranı tahminidir. 53
Örnek: işgücüne katılma
[Mroz (1987) verileri]
• Eğer örneğe giren evli kadınlar 1975 yılının
herhangi bir ayında işgücüne katılmışsa
(ücretli çalışmışsa) inlf =y değişkeni 1, hiç
katılmamışsa 0 değerini alsın.
• Diğer değişkenler :
nwifeinc : kocanın geliri (bin$)
kidslt6 : 6 yaşından küçük çocuk sayısı,
kidsge6: 6-18 yaş arasındaki çocuk sayısı
54
• Regresyon şöyle tahmin ediliyor (753 kadının 428’i işgücüne
katılmıştır):

• kidsge6 hariç tüm değişkenler istatistiksel olarak anlamlı


çıkmıştır ve katsayıların işaretleri iktisat teorisi ya da
sağduyu ile uyumludur.
• Betaların yorumları : Örneğin educ değişkeninin betası,
0.038, diğer faktörler sabitken, ilave bir yıl eğitimin
işgücüne katılma (inlf=1) olasılığını %3.8 artırdığı anlamına
gelmektedir.
55
• (7.29) da değişkenleri belli değerlerde sabitleyerek (nwifein
= 50, exper = 5, age = 30, kidslt6 = 1, kidsge6 = 0), inlf
(=yhat) ile educ değişkeninin ilişkisini grafik 7.3 de
veriyoruz:

56
• Örnekte en çok eğitim alan kadının eğitimi 17 yıldır.
EDUC=17 için işgücüne katılma olasılığı 0.5
bulunuyor, ceteris paribus.
• Örnekte EDUC değişkeni >5 olduğu için Figure 7.3 ün
sağ tarafını kullanacağız. Eğitimin işgücüne katılma
olasılığını negatif etkilediği kısım geçerli değildir.
• nwifeinc’in katsayısının yorumu : Kocanın yıllık maaşı
10 birim (yani 10,000$)artarsa, karısının işgücüne
katılma olasılığı 0.034 düşer.
• Exper karesel biçimde alınmış. İşareti +, karesinin
işareti – olduğu için, deneyim işgücüne katılma
şansını artırıyor, ancak bu artış giderek azalıyor.

57
• Beklendiği üzere kadının işgücüne katılma
olasılığını belirleyen en önemli faktör küçük
çocuğunun olmasıdır. Kidslt6 değişkeninin
katsayısı -0.262 dir.
• Yani,ceteris paribus, 6 yaşından küçük çocuk
sayısında 1 birimlik (1 çocuk) artış kadının
işgücüne katılma olasılığını %26.2
azaltmaktadır.
• Örnekte 6 yaşından küçük en az bir çocuğu
olan kadınlar toplamın beşte biri kadardır.

58
LPM modelinin yetersizlikleri
• (7.29) daki LPM modeli dikkat edilebileceği gibi,
bağımsız değişkenlerin belli değerleri için sıfırdan
küçük ya da birden büyük olasılık tahminleri (inlf hat
= yhat) verebilir, ki bu olasılık ilkeleri ile çelişir. Olasılık
o ile 1 arasında her zaman negatif-olmayan bir
sayıdır.

• (7.29) daki örnekte içerilen 753 kadından sadee 16’sı


için inlfhat<0, 17’si için de >1 çıkmıştır.
• Ancak, LPM modelinin asıl yetersizliği bu değildir.
Modelde, olasılığın x değerlerine doğrusal bir şekilde
bağlı olması büyük mahsur yaratmaktadır.
59
• Örneğin, (7.29) da bir kadının ilave bir küçük
çocuğa sahip olması onun işgücüne katılma
şansını %26.2 puan azaltmaktadır.İlişki
doğrusal (linear) olduğu için, bu 0.262 rakamı,
sıfırıncı çocuktan 1.ci çocuğa geçişte de,
diyelim, 3.cü çocuktan 4.cü çocuğa geçişte de
aynıdır.
• Oysa bu gerçekçi değildir. İlişki büyük olasılıkla
doğrusal-olmayan (nonlinear) niteliktedir. Yani
ilk çocukta annenin evde kalma olasılığı 2.ci
çocuk olduğunda evde kalma olasılığından
daha yüksektir.
60
• Bu yetersizliklerine rağmen doğrusal olasılık modeli
(linear probability model, LPM) faydalı bir modeldir
ve iktisatta çokça kullanılmaktadır.
• Özellikle,bağımsız değişkenler (x’ler) kendi
ortalamalarına yakın değerler aldıklarında LPM
oldukça başarılı tahmin vermektedir.
• Örneğin, (7.29) daki örnekte kadınların %96’sı ya hiç
ya da 1 tane küçük çocuğa sahiptir. Dolayısıyla
kidslt6 değişkeninin katsayısı (-0.262) aslında
bize ilk çocuğun annenin işgücüne katılma şansını
ne kadar azalttığını vermektedir. Bu katsayısı,
diyelim, 4.cü çocuktan 5.ci çocuğa geçiş vb için
kullanmamak lazım.
61
LPM’in artıklarının varyansı heteroscedastic’dir.

• LPM’de y ikili (binary) değişken olduğu için


Gauss-Markov varsayımlarından birisi
(homoscedasticity) ihlal olmaktadır:
• Var (u)= Var(y|x) = p(x)*[1-p(x)] dir.
• Burada “p(x) = βo + β1x1….+ β(k)x(k) + u”
olduğu için artıkların varyansı y’nin koşullu
beklenen değerine, o da x’lerin alacağı
değerlere bağlıdır.
• Heteroscedasticity altında OLS tahmin
edicilerin sapmasız olduklarını ancak etkin
olmadıklarını (inefficient) biliyoruz. 62
• Bu heteroscedasticity’nin bir sonucu olarak(7.29)
daki standart hatalar genellikle geçerli
olmayacaktır.Onları kullanırken bu özelliklerini
unutmamalı.
• Ancak, çoğu çalışmada LPM katsayılarının
standart hatalarının gerçeği oldukça yansıttıkları
da gözlemlenmekte ve standart OLS analizi
yapılmaya devam edilmektedir.

63
• Arr86 =1 kişi 1986 yılında tutuklanmışsa,
=0 tutuklanmamışsa.
Örnek (sample) : 1960-61 California doğumlu ve 1986
dan önce en az bir kez tutuklanmış gençler. CRIME
1.RAW
pcnv : hükümle sonuçlanan önceki tutuklamaların
oranı;ptime86: 1986 da yatılan süre;
avgsen: önceki hükümlerden içeride yatılan süre (ay);
tottime: 18 yaşından itibaren 1986 ya kadar yatılan
hapis süresi. qemp86: 1986 da çalışılan çeyrek-yıl
sayısı.
64
• Tahmin edilen denklem :

• Avgsen’in katsayısı + işaret taşıyor. Yani, eski


mahkumiyetlerin caydırıcı etkisi yok.
• Tottime anlamsız çıkmış. Bazi diğer çalışmalarda bu
katsayı + bulunmuş [Grogger (1991)].

65
• 1986 da hapiste geçirilen her ay 1986 da tutuklanma
olasılığını %2.2 azaltıyor. Tüm yılı içeride geçiren
birisinin tutuklanma olasılığı sıfır çıkmalı : Diğer
değişkenleri sıfıra eşitlersek, 0.441- 0.022*(12) =
0.177 kalıyor. Yani, “LPM’i x’lerin tüm değerleri için
uygulayamayız “ sonucu burada da karşımıza çıkıyor.
• İşte çalışmak (qemp86) tutuklanma olasılığını ciddi
bir şekilde düşürüyor : Diğer faktörler sabitken 1986
‘nın 4 çeyreğinde de çalışmış bir kişinin tutuklanma
olasılığı işsiz birisinden -0.043*4 = -0.172
kadar daha düşüktür.

66
• (7.31) e kukla bağımsız değişkenler ekleyebiliriz. Örneğin
ırk kuklaları ekleyelim : black ve hispan

• Baz gruba (beyazlar) göre siyahların tutuklanma olasılığı


ceteris paribus %17 puan daha fazladır. İpanyol
kökenlilerinki ise %9.6 puan daha fazla.
67
LPM’in program değerlendirmede (evaluation)
kullanımı

• Herhangi bir programın sonuçlarını


değerlendirmek istiyoruz. İki farklı grup
(kategori) olacaktır : 1) programa katılanların
oluşturduğu grup. Bu gruba deney grubu
(experimental group) ya da terapi grubu
(treatment group) diyoruz.
• 2) Programa katılmayan ancak kontrol
(mukayese) amacıyla kapsanan grup.Bu gruba
kontrol grubu (control group)
diyoruz.Genellikle grupların seçimi rasgele
(random) değildir. 68
• hrsemp: firma bazında çalışan başına yapılan eğitim
(saat); grant, 1988 yılında firmanın herhangi bir eğitim
yardımı alıp almadığını gösteren kukla değişken. employ
:çalışan sayısı, sales : satışlar.

69
• Grant’ın katsayısı anlamlı ve pozitiftir. Eğitim
yardımı almış firmalar, ceteris paribus,
ortalama olarak 26.25 saat daha fazla eğitim
yapmaktadırlar. Hrsemp değişkeninin örnek
ortalaması 17, max değeri ise 164 dür.
Dolayısıyla, eğitimi büyük ölçüde yardım
belirlemektedir.
• Firma satışlarının eğitim çabaları ile ilişki
çıkmamaktadır.
• İstihdam düzeyi eğitimle ters yönde ilişkili ve
katsayının t değeri -1.56 (=-6.07/3.88), %10
düzeyinde anlamlı.
70
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 8:
Değişen Varyans

1
Ch.8 : Değişen Varyans (Heteroscedasticity)
• Ch. 3, MLR.5: sabit varyans (homoscedasticity)
varsayımı, “gözlenemeyen hata terimi u’nun
açıklayıcı x değişkenlerine koşullu varyansının
sabitliği” anlamına geliyordu.

• Eğer anakütlenin (population) farklı kesimlerinde


bu varyans değişiyorsa varsayım sağlanamıyor
demektir.
• Örneğin, bir tasarruf fonksiyonu regresyonunda
eğer tasarrufları etkileyen gözlenemez faktörlerin (u)
varyansı gelir düzeyiyle birlikte değişiyorsa
heteroscedasticity var demektir. 2
• Ch 3 ve 4’de doğrusal SEKK (OLS)
tahmininde homoscedasticity varsayımının
t, F testleri yapabilmek ve güven aralıkları
oluşturmak için gerekli olduğunu gördük.
• Büyük örneklem hacimleri için bile bu
gereklilik vardır.
• Bu bölümde değişken varyansın olup
olmadığını nasıl anlayacağımızı ve
heteroscedasticity varsa ne gibi çözüm
yolları geliştireceğimizi göreceğiz.
3
SEKK (OLS) de değişen varyans
ne gibi sorunlara yol açar?
• CH.3 ve CH.5’de gördüğümüz gibi,
regresyonda betaların sapmasızlık
(unbiasedness) ve tutarlılık (consistency)
özellikleri MLR.1-MLR.4 varsayımlarına
bağlıydı ve homoscedasticity (MLR.5)
varsayımına ihtiyaç duymuyorlardı.
• Örneğin, önemli bir değişkenin dışarıda
bırakılması sapma ve tutarsızlığa yol açtığı
halde değişen varyans açmamaktadır. 4
• Peki, sapmaya ve tutarsızlığa yol açmıyorsa,
homoscedasticity’yi neden Gauss-Markov varsayımları
arasına katıyoruz?
• Yanıt : Çünkü bu varsayım yoksa sapmalı
çıkacaktır. Betaşapkaların standart hataları (se)
doğrudan bu varyanslardan elde edildiği için,
heteroscedasticity varsa t istatistikleri ve onlara
dayanan güven aralıkları geçerli olmayacaktır.
• OLS t istatistiği heteroscedasticity varsa t dağılımı
izlemeyecektir. Benzer şekilde F istatistiği F dağılımı
izlemeyecek, LM istatistiği asimtotik ki kare dağılımı
izlemeyecektir.
• Üstelik sorun büyük örneklem kullanmakla da
aşılamayacaktır. 5
• Yine, OLS tahmin edicilerin BLUE olduğunu
söyleyen Gauss-Markov teoremi de kuvvetli bir
şekilde homoscedasticity varsayımına bağlıdır.

• Bu varsayım olmaksızın OLS’nin asimtotik


etkinliği (asymptotical efficiency) de kaybolur.
8.4 de göreceğimiz gibi, heteroscedasticity
altında OLS’den daha etkin tahmin ediciler
mevcuttur.

• Örneklem görece olarak büyükse OLS test


istatiklerini, asimtotik olarak geçerli olacak
şekilde düzeltmeye tabi tutmak mümkün
olacaktır.
6
Değişen varyanstan etkilenmeyen
(heteroscedasticity-robust) standart hatalar
• Hipotez testleri değişen varyans durumunda
geçerli olmuyorsa, OLS’den tamamen vaz mı
geçeceğiz?
• Hayır !
• Son 20 yılda ekonometride değişen varyans
altında standart hataların nasıl düzeltileceği
konusunda önemli gelişmeler kaydedildi.
• Biçimi bilinmeyen heteroscedasticity’nin
varlığında betaşapkaların se’lerini, t, F ve LM
istatistiklerini nasıl bir düzeltmeye tabi
tutacağımızı artık biliyoruz.
7
• Heteroscedasticity’dan etkilenmeyen (robust)
yöntemler sayesinde u’ların varyansı sabit
olsun ya da olmasın en azından büyük
örneklemlerrde hipotez testleri yapabileceğiz.
• Heteroscedasticity’den etkilenmeyen varyans
hesaplama formülleri çok karmaşık olduğu için
burada türetmeyeceğiz. Hazır ekonometri
paket programlarında bu yöntemler mevcuttur.

8
• Bu basit regresyon modelinde Gauss-Markov
varsayımlarının ilk dördünün gerçekleştiğini
varsayalım.
• Eğer hata terimlerinde heteroscedasticity varsa
şöyle yazacağız :

• σ2 formülündeki i alt-endeksi,hata terimleri


varyansının xi değerlerine bağlı olarak değiştiğini
göstermektedir.

9
• Basit regresyonda beta(1) ‘in OLS tahmin edicisini
yazalım :

• Yine basit regresyonda var (β1hat) de şuna eşitti :

10
• (8.2), homoscedasticity altında basit regresyon
için hesaplanan varyansın heteroscedasticity
altında geçerli olmayacağını gösteriyor.

• Beta1hat’in standart hatası (se) doğrudan


Var(β1hat)’ in karekökü olduğu için
heteroscedasticity altında (8.2) nin tahminini bir
şekilde yapmamız gerektir.

• White (1980) bunun nasıl yapılacağını gösterdi.

11
• , orijinal regresyonumuzun artıkları olsun.
• Herhangi bir biçim (form) altında ortaya çıkan
heteroscedasticity (ki, bu, homoscedasticity’yi özel bir
hal olarak içerir) için Var(β1hat)’in geçerli bir tahmini
şudur :

• (8.3) veriden kolayca hesaplanabilir.


• (8.3)’ün geçerli bir varyans tahmini olduğunun teorik
dayanağı şudur : (8.3)’ün örnek hacmi n ile çarpılmış
hali olasılık olarak ifadesine
yakınsar.
12
• Büyük sayılar yasası ve merkezi limit teoremine
dayanan bu yakınsama, standart hataların hipotez
testleri ve güven aralıkları için kullanılabilmesinin
gerekçesini oluşturur.
• Çoklu regresyon için de MLR.1-MLR.4 varsayımları
altıda benzer bir formül yazılabilir:

• (8.4) ün kareköküne “değişen varyanstan


etkilenmeyen standart hatalar” (heteroscedasticity-
13
robust standard errors) denir.
• White (1980)’dan önce Eicker (1967) ve
Huber (1967) de bu tür sağlam (robust)
standart hatalar üzerinde çalışmışlardı.
• Bu yüzden bazen bu yöntemle bulunan
standart hatalara “White, Huber ve Ecker
standart hataları” da diyoruz.
• Bazen (8.4)’ün karekökü alınmadan önce
df düzeltmesi yapılarak (8.4) “n/(n-k-1)”
ile çarpılır.
• Heteroscedasticity’den etkilenmeyen se’ler
hesaplandıktan sonra bunları kullanarak
Heteroscedasticity’den etkilenmeyen t
istatistiklerini hesaplayabiliriz. (bkz s.251)
14
Değişen varyanstan etkilenmeyen standart hatalar köşeli
parantez içinde gösterilmiştir.

15
• (8.6) dan görüldüğü gibi, homoscedasticity
varsayımı altında hesaplanan se’ ler (parantez
içinde) ile heteroscedasticity’den etkilenmeyen
se’ler (köşeli parantez içinde) test sonuçlarını
değiştirecek kadar farklı çıkmamışlardır.Ama bu
her zaman böyle çıkmaz.

• (8.6) daki regresyondan da görüldüğü gibi


heteroscedasticity’den etkilenmeyen se’ler
(robust se’s) geleneksel se’lerden büyük ya da
küçük olabilmektedirler.

• Ancak, genellikle robust se’ler geleneksel


se’lerden daha büyük çıkma eğilimindedirler. 16
• (8.6) daki robust se’ler, kitlede ne tür bir
heteroscedasticity olduğu, hatta
heteroscedasticity olup olmadığı bile bilinmeden
hesaplanan asimtotik olarak geçerli se’lerdir.
• Uygulamada çoğu kez heteroscedasticity’den
etkilenmeyen (robust) se’ler geleneksel
se’lerden daha geçerlidir. Buna rağmen ikisi de
hesaplanır.
• Çünkü, robust se’ler örneklem büyükken
kullanılır. Küçük örneklerde ise, eğer
homoscedasticity ve artıkların normal dağıldığı
varsayımları geçerli ise hesaplanan t istatistiği t
17
dağılımı izler, dolayısıyla t dağılımını kullanırız.
• Regresyonda her iki se’lerin verilmesinin
bir amacı da, test sonuçlarının se tanımına
göre değişip değişmediğini görmektir.
• Örneğin, (8.6) da test sonuçları se
tanımına göre değişmemektedir, yani, se
türüne karşı hassas değildir.
• Se ve t değerlerine benzer şekilde, F ve
LM istatistiklerini de heteroscedasticity’den
etkilenmeyecek şekilde
(heteroscedasticity-robust F statistics or
Wald statistics) hesaplayabiliriz. (bkz. ss.
252-255)
18
Değişen-varyans (heteroscedasticity) testleri

• Heteroscedasticity’den etkilenmeyen (robust)


se’lerden hesaplanan t değerleri asimptotik olarak t
dağılmıştır, dolayısıyla, başka herhangi bir teste
ihtiyaç duymadan t testlerimizi yaparız.
• Ancak, yine de veride heteroscedasticity olup
olmadığını bilmek isteriz.
• Bunun için çeşitli testler geliştirilmiştir.
• Eğer heteroscedasticity varsa OLS artık BLUE
değildir, best (min varyans) özelliği kaybolmuştur.

19
• Çok sayıda heteroscedasticity testi geliştirilmiştir. Burada,
geleneksel (usual) OLS istatistiklerini geçersiz kılan
heteroscedasticity’nin tespitine yönelik modern testler
göreceğiz.
• MLR.1-MLR.4 varsayımları geçerli olsun. Böylece OLS
tahmin edicileri sapmasız ve tutarlı olacaktır.
• Model :

• Ho’a MLR.5’in sağlandığı hipotezini koyacağız :

20
• Eğer belli bir anlamlılık düzeyinde veriler Ho’ı
reddetmemize olanak vermiyorsa “heteroscedasticity
yoktur ya da ciddi bir sorun değildir” diyeceğiz.
• u’ların koşullu beklenen değerinin sıfır olduğunu
varsaydığımız için, Var(u|x)=E(u2 |x) dir. Dolayısıyla,
(8.11) şöyle de yazılabilir :

• Demek ki, homoscedasticity varsayımının ihlal edilip


edilmediğinin testi, u2’nin x’lerden birisi ya da
bazılarıyla ilişkili olup olmadığının testine
dönüşmektedir. 21
• Eğer Ho yanlış ise, u2’nin x’lere koşullu beklenen
değeri herhangi bir x’in, (x(j),bir fonksiyonu olabilir.
• En basit yaklaşım şöyle bir doğrusal fonksiyon
varsaymaktır :

• Ho’daki homoscedasticity varsayımı burada şu hali


alır :

• (8.12) de artık terim v, x’lerden bağımsız ise, ki öyle


varsayacağız, (8.13)’ü F veya LM istatistiği
hesaplayarak test edebiliriz. 22
• u2 normal dağılmasa bile asimptotik olarak F ve LM
istatistiklerini kullanabiliriz.
• (8.12) yi, u yerine örnek regresyonunu artıklarını
(uhat) kullanarak tahmin edeceğiz :

• (8.14)’ün determinasyon katsayısını, kullanarak


F istatistiğini hesaplayacağız:

• k, (8.14) deki bağımsız değişken sayısıdır.


23
• LM istatistiği ise şuna eşittir:

• Ho doğru iken, LM istatistiği, asimtotik olarak


dağılmıştır.
• Bu testin LM versiyonu “Breusch_Pagan(BP)
heteroscedasticity testi” diye bilinir.
• Adımlar :

24
• ÖRNEK:

• Bu regresyon bize kitlede hata terimleri varyansının


değişken olup olmadığı konusunda bilgi vermaz.
• BP testi yapacağız. (8.17)’nin artıkları karelerinin x’ler
üzerine regresyonunun R2’si 0.1601 dir. n=88, k=3. Buradan
F=5.34 (p:0.002), LM=14.09 (p:0.0028). Demek ki, Ho‘ı
kabul edemeyeceğiz, heteroscedasticity var. (8.17) deki
se’lere güvenemeyiz. 25
• Ch.6’da değişkenlerin log alınması halinde
heteroscedasticity’nin azalacağını söylemiştik.
• Gerçekten (8.18) deki regresyonda BP testi
sonuçları şöyle çıkmaktadır:
F=1.41 (p:0.245), LM=4.22 (p:0.239).
• Yani, log regresyon biçiminde heteroscedasticity
çıkmamaktadır.
26
WHITE Heteroscedasticity testi
• Ch. 5’de, Gauss-Markov varsayımlarının tümünün
sağlanması halinde OLS standart hatalarının ve test
istatistiklerinin asimtotik olarak geçerli olacaklarını
gördük.
• Bu, homoscedasticity varsayımının, daha zayıf şu
varsayımla yer değiştirebileceği anlamına gelir: “u2,
tüm bağımsız değişkenlerle, x(j), onların kareleriyle,
x(j)2, ve çapraz çarpımlarıyla, x(j)*x(h), j ≠ h, ilişkisizdir
”.
• Bu fikir White (1980) heteroscedasticity testinin
esasını oluşturdu.
• Test, OLS se’lerini ve test istatistiklerini geçersiz kılan
heteroscedasticity biçimlerinin (forms) testine yöneliktir.
27
• k=3 için White testi şu regresyonun
tahminine dayanır :

• Breusch-Pagan testiyle kıyaslarsak, bu


denklemdeki bağımsız değişken sayısının 6
değişken daha fazla olduğunu görürüz.
• White testi LM istatistiğini kullanır. (8.19) da
sabit hariç tüm δ(j) katsayılarının aynı anda
sıfır olup olmadığını test eder. Bu örnekte 9
kısıt test edilmektedir.
28
• Bu hipotez için F testi de yapabilirdik. Her iki test de
asimtotik geçerliliğe sahiptir.
• x sayısının 6 olduğu bir regresyonda White testi 27
açıklayıcı değişken kullanır. Bu, serbestlik derecesi
kaybına yol açar. White testinin zayıf yanı budur.
• White testini daha az açıklayıcı değişken kullanarak
yapmak mümkündür.
• (8.19) un sağ tarafında açıklayıcı değişken olarak çok
sayıda x, x kare ve x’lerin çapraz çarpımını kullanmak
yerine OLS regresyonumuzdan elde ettiğimiz yhat’i ve
onun karesini kullanabiliriz. Zira, yhat, x’lerin doğrusal
bir fonksiyonudur :

29
• Bu denklemde her iki tarafın karesini alırsak,
sağ tarafda x’lerin kareleri ve birbirleriyle çapraz
çarpımları olacaktır. Yani, (8.19) un sağ tarafına
benzeyecektir. O halde, heteroscedasticity’ yi
şöyle test edebiliriz :

• (8.20) de y ‘nin değil yhat’in kullanıldığı


unutulmamalı. Zira x’lerin ve tahmin edilen beta
katsayılarının doğrusal bir fonksiyonu olan y
değil yhat’dir.
• Ho hipotezi F ya da LM istatistiği ile test
edilebilir : 30
• Bu testte, orijinal modeldeki x sayısı ne olursa
olsun, sadece 2 kısıt vardır. Böylece, testin
orijinal halindeki serbestlik derecesi (df) kaybı
burada söz konusu değildir.
• yhat y’nin x’e koşullu beklenen değeri olduğu
için, yhat = E(y│x), (8.20) deki test, varyansın
bu koşullu beklenen değerle birlikte değiştiği
durumlarda oldukça yararlı bir testtir.
• (8.20), White testin özel bir hali olarak
görülebilir. Zira (8.20), (8.19) daki parametreler
üzerine kısıtlar koyar.
31
32
• Yukarıdaki heteroscedasticity testlerini yaparken
MLR.1-MLR.4 varsayımlarımızın sağlandığını
varsayıyoruz.
• Sağlanmazsa, örneğin, regresyonun fonksiyonel
biçimi yanlış belirlenmiş ise (ihmal edilmiş değişken
varsa ya da log-log yerine level model seçilmişse
vs.), heteroscedasticity testi varyans sabitken bile
Ho’ı reddedebilir.
• Bu yüzden, ekonometriciler heteroscedasticity
testlerini “yanlış biçim seçimi” (misspecification)
testleri olarak değerlendirirler. Ancak, biçim (form)
seçimi doğrudan başka testler kullanılarak test
edilmeli. Yanlış biçim seçimi heteroscedasticity’den
daha ciddi bir sorundur. 33
Ağırlıklı EKK
(Weighted Least Squares)
• Bölüm 8.3’deki testlerden biriyle
heteroscedasticity’yi tesbit etmiş olalım.
• Bir almaşık, Bölüm 8.2 de gördüğümüz
heteroscedasticity’den etkilenmez (robust) se
ve test istatistikleri hesaplamaktır.
• Ancak, bu robust se’leri hesaplamadan önce
heteroscedasticity’nin türünü tahmin etmeliyiz.
• Ne türden bir heteroscedasticity olduğunu
belirleyebilirsek, OLS’den daha etkin tahmin
ediciler bulabileceğiz.
34
Heteroscedasticity çarpan bir sabit
cinsinden biliniyor olsun
• x, (8.10) daki tüm açıklayıcı değişkenleri temsil etsin.
• unu varsayalım :

• Burada, h(x), x’lerin herhangi bir fonksiyonudur ve


heteroscedasticity’yi belirler. Varyans pozitif olacağı
için, tüm x değerleri için, h(x) >0 olacaktır.
• Burada, h(x) fonksiyonunun bilindiğini varsayacağız.
Bilinmeyen kitle varyansı σ2 yerine onun örnekten
bulunan tahminini kullanacağız.
35
• Örneğin, şu basit tasarruf fonksiyonunu ele alalım :

• Burada, h(inc) = inc ‘dır.


• Hata terimleri varyansı gelir seviyesine orantılı
olarak değişmektedir. Gelir arttıkça tasarruflardaki
değişkenlik artacaktır (β1 > 0 ise).
• Gelir (inc) her zaman pozitif olduğu için (8.23) deki
varyans da pozitif olacaktır.
• u’ların gelire koşullu standart sapması
olacaktır.
36
• (8.21) deki enformasyondan β ‘ların tahmini için
nasıl yararlanabiliriz ?
• Orijinal denklemimiz (8.24) de hata terimleri
heteroscedastic ‘dir. Bu regresyonu öyle
dönüştürmeliyiz ki, hata terimleri homoscedastic
olsun ve diğer Gauss-markov koşullarını da
sağlasın.
• h(i), x(i)’nin bir fonksiyonu olduğu için,
‘nin x’e koşullu beklenen değeri sıfırdır.
• Ayrıca oluğu için ,
nin x’e koşullu varyansı dir.
37
38
• (8.26) daki dönüştürülmüş regresyondan
elde edilen beta tahminleri OLS’ninkelerine
göre daha etkin olacaktır.
• Dönüştürülmüş regresyonun sabiti, eski
(orijinal) sabitin ile çarpımından
meydana gelmektedir.
• Tasarruf örneğinde dönüştürülmüş regresyon
şöyledir :

39
• (8.26), parametreler bakımından doğrusaldır (linear).
Dolayısıyla, MLR.1 varsayımını sağlar.
• Rasgele örnek (random sampling) varsayımımız yine
korunmaktadır.
• u*(i), x*’a göre koşullu olarak, sabit varyansa (σ2)
sahiptir.
• Demek ki, eğer orijinal regresyonumuz Gauss-markov
varsayımlarından 4’ünü sağlıyorsa, (8.26) bu
varsayımların tümünü sağlayacaktır.
• Eğer u(i) ~ N ise, u* da N dağılacak, böylece
dönüştürülmüş regresyon tüm CLRM varsayımlarını
(MLR.1-MLR.6) sağlamış olacaktır.
• (8.26)’ nın beta tahminleri (β1*,..., βk*) orijinal modelin
betalarından farklı olacaktır.
• Bu β* ‘lar genelleştirilmiş en küçük kareler (GEKK)
tahminidir : generalized least squares (GLS)
estimators. 40
• Burada, GLS tahmin edicilerini hata terimlerindeki
değişken varyansı düzeltmek için kullandık. Ch.12 ‘de
diğer GLS tahmin edicileri de göreceğiz.
• Dönüştürülmüş regresyon tüm klasik model
varsayımlarını sağladığı için bu regresyondan elde
edeceğimiz standart hatalar (se), t ve F istatistikleri
geçerli tahminlerdir.
• GLS tahmin ediciler (β* ‘lar) BLUE oldukları için OLS
tahmin edicilerinden (βhat ‘ler) daha etkindirler.
• Dönüştürülmüş regresyonun yorumunu orijinal
regresyonun ışığında yapmamız gerektiğini
unutmamalıyız.
• (8.26) nın R2’si F istatistiğinin hesabında kullanılır.
Ancak, artık uyumun iyiliğinin bir ölçüsü değildir.
Dönüştürülmüş regresyonun R2’si x*’ların y*’daki
değişmelerin % ne kadarını açıkladığını gösterir, ki,
bu da fazla bir anlam ifade etmez. 41
Ağırlıklandırılmış EKK (Weighted least
Squares, WLS)
• Heteroscedasticity’yi düzeltmek için kullandığımız
GLS tahmin edicileri “Ağırlıklı En Küçük Kareler”
tahmin edicileri (weighted least squares (WLS)
estimators) adını alır.
• Zira, β* ‘lar (GLS estimators) ağırlıklandırılmış artık
kareleri toplamını minimize eder.
• Her bir u(i) kare, ile ağırlıklandırılmıştır.
Yüksek varyansa sahip u’lar daha küçük ağırlığa
sahiptirler.

42
• OLS’ de tüm u’lar aynı (eşit) ağırlığa sahiptir.
Dolayısıyla, ana kitlenin tümünde hata terimleri
varyansı aynı olduğunda OLS minimum varyanslı
(en iyi- best) tahmini verecektir.
• WLS beta katsayılarını şu denklem minimize olacak
şekilde seçer :

• (8.27) de 1/h(i) ‘nin kare kökünü parantez içine


dahil edersek, ağırlıklandırılmış artık kareler
toplamının dönüştürülmüş regresyonun SSR’sine
eşit olduğunu görürüz. :
43
• OLS, WLS’in özel bir halidir. Her bir u(i) kareye, başka
bir ifadeyle her bir gözleme aynı ağırlığı verir.
• GLS, her bir u(i) kareyi var(u(i)│x) ‘nin tersi ile
ağırlıklandırır. Regresyon doğrusundan (düzleminden)
uzak gözlemler cezalandırılmış olur.
• Tablo 8.1, aynı örneğe ait verilere (SAVING.RAW)
OLS ve WLS uygulanması ile elde edilmiş
regresyonları içeriyor. n=100 aile (1970).
• WLS uygularken varyansın (8.23) deki gibi olduğunu
varsayıyoruz.
• OLS marjinal tasarruf eğilimini (marginal propensity to
save) 0.147 bulurken WLS 0.172 buluyor.
• İki regresyonun R2’leri birbirleriyle mukayese
44
edilemezler.
45
• Denklemlere eklenen demografik faktörler hem tek tek
(t testi) hem de bir arada (F testi) anlamsız
çıkmaktadırlar.
• Demek ki, ilk denklem, yani sadece gelirin açıklayıcı
değişken olarak alınması yeterli olmaktadır.
• Marjinal tasarruf oranı olarak hangisini (0.147 ya da
0.172) alacağımız çok büyük farklılık yaratmayacaktır.
Örnek hacmi küçük olduğu için (sadece 100 aile)
bulunan katsayılardan birisi için oluşturacağımız
%95’lik güven aralığı diğer katsayıyı da içerecektir.
• Pratikte varyansın x’lerden hangisine bağlı olarak
değiştiğini genellikle bilemeyiz. Örneğin, yukarıda
varyans gelire değil de eğitim düzeyine ya da yaşa
bağlı olarak da değişebilirdi.
• Pek çok durumda var(y│x1, x2, ..., xk) konusunda 46
kesin bilgiye sahip değilizdir.
• ehir ya da ülke düzeyinde adam başına
ortalama veriler (gelir, tüketim, araba sayısı vs.)
kullanıyorsak, bireysel regresyonlar Gauss-
markov varsayımlarını sağladıklarında, adam
başına regresyonların artıkları heteroscedastic
olacaktır.
• Örneğin, çeşitli ülkelerin kişi başına geliri,
tasarrusu vs. Kullanılıyorsa, nüfusu büyük olan
ülkelere ait artıkların varyansı küçük olacaktır.
Bu durumda WLS’de ağırlık olarak ülke
nüfuslarını kullanabiliriz.
• Örnek : şehirler düzeyinde bira tüketimi
regresyonu : beerpc :kişi başına (per capita, pc)
bira tüketimi (ounces), incpc: kişi başına gelir.

47
• ehirler-düzeyinde adam başına bira tüketimi
regresyonu :

• Bu regresyonun artıkları değişken varyansa sahiptir.


ehir nüfuslarını ağırlık olarak kullanıp WLS tahmin
edebiliriz.
• Burada, gözlemleri şehir nüfuslarıyla ağırlıklandırırken
bireysel regresyonların homoscedastic olduğunu
varsayıyoruz.
• Eğer bireysel regresyonların artıkları da değişken
varyansa sahipse, o zaman, ne tür ağırlıklar
kullanacağımız heteroscedasticity’nin biçimine bağlı
48
olacaktır.
• Bu nedenle, kişi başına verilerin kullanıldığı
araştırmalarda daha çok heteroscedasticity’den
etkilenmeyen (robust) se tahminleri verilir
• Feasible GLS (FGLS) / Estimated GLS (EGLS)
• Yukarıdaki örneklerde, heteroscedasticity’nin çarpan
biçiminde olduğunu bildiğimizi varsaymıştık.
• Oysa, pratikte çoğu kez bunu bilmeyiz. Yani, h(x(i))
fonksiyonun biçimini bilemeyiz. Ancak, örnekten bu
fonksiyonun parametrelerini tahmin edebiliriz.
• Böylece, h(i) yerine onun örnekten elde edilen
tahminini, , kullanabiliriz.
• Bu durumda elde edilen tahmin ediciler FGLS ya da
EGLS adını alır.
49
• Heteroscedasticity pek çok farklı biçimde
modellenebilir. Ancak burada oldukça esnek
özelliklere sahip şu üssel (exponential)
modeli göreceğiz :

• Burada

• (8.30) un avantajı her zaman pozitif bir


varyans tahmini verebilmesidir. (8.12) deki
doğrusal alternatifler bu koşulu sağlamaz
50
• (8.30) da δ’ları şöyle tahmin edeceğiz :

51
52
1. WLS’de tüm değişkenler (kuklalar da dahil)
e bölünecektir.Yani, kullanılacak ağırlık hhat’in
karekökünün tersidir, hhat’in tersi değil.
2. Sabit terim “beta(0).( )” şeklinde tahmin
edilecektir. ÖRNEK: (8.36) nolu regresyon şöyle
tahmin edilmiştir:
Cigs/hhat^0.5=
beta(0).(1/hhat^0.5)+beta(1).log(income)/
hhat^0.5+…..+beta(5).age2/hhat^0.5+
beta(6).restaurn/hhat^0.5

53
54
• 807 gözleme ait yhat’in 13’ ü negatif çıkmıştır. Doğrusal
modellerin bazen negatif tahmin verdiklerini biliyoruz.
Ancak, negatif değerler toplamın %2’sinden azdır.
Önemli bir sorun oluşturmuyor.
• Ne gelir ne de sigara fiyatı istatistiksel olarak anlamlıdır.
Üstelik etkileri çok ufaktır.
• Örneğin, eğer gelir %10 artarsa, bir günde içilen sigara
sayısı “ (0.880 / 100)*(10) = 0.088” sigara kadar
artmaktadır.
• Bir yıllık ilave bir eğitim içilen günlük sigara sayısını
yarım sigara kadar azaltmaktadır. İstatistiksel olarak
anlamlıdır.
• Sigara içmek yaşla karesel (quadratic) biçimde ilişkilidir.
Tiryakilik 42.83 yaşa kadar yaşla birlikte artmakta sonra
azalmaktadır : 0.771 / [2 (0.009)] = 42.83.
• Restoranlarda sigara yasağı ortalama günlük tüketimi 3
sigara kadar azaltmaktadır.
55
• (8.35) de heteroscedasticity var mı ?
• Breusch-Pagan regresyonu {uhat2 ‘nin,
x1, .... , xk üzerine regresyonu} 0.040
büyüklüğünde bir R2 veriyor.
• LM = 807x (0.040) = 32.28. Serbestlik
derecesi 6 olan Ki kare dağılımının tablo
değeri = 12.59.
• Ho red. Heteroscedasticity lehine çok
güçlü kanıt var.
• FGLS kullanarak modeli yeniden tahmin
edelim:
56
• Gelirin etkisi şimdi biraz daha büyük ve
istatistiksel olarak anlamlıdır.
• Diğer değişkenlerin katsayıları biraz
değişti, ancak sonuçlar yine aynı. Tiryakilik
eğitimle ters yönlü ilişkili, yaşla karesel
ilişki içinde ve restoran yasağı tüketimi
57
düşürüyor.
LPM modelinde hata terimlerinin varyansı
değişkendir. Robust se’ler hesaplamamız
gerekmektedir.

58
Doğrusal olasılık modelinin (LPM) WLS ile
tahmini
• LPM’de y’nin koşullu varyansı şuna eşittir:

• Burada, p(x), başarı olasılığını (y=1 olma olasılığı)


göstermektedir.
• Varyans x’lere bağlı olarak değiştiği için WLS
kullanabiliriz. 59
• (8.39) da bilinmeyen kitle beta’ları yerine OLS
betahat tahminlerini (ki, bunlar sapmasız tahmin
edicilerdir) kullanabiliriz. Bu halde, (8.39) yhat’i
verecektir.
• Buradan bulduğumuz yhat’i (8.38)’de yerine koyarak
her bir i gözlemi için ayrı bir koşullu varyans bulmuş
oluruz:

• Artık, tüm gözlemleri ile çarparak Bölüm 8.4


de gördüğümüz feasible GLS yöntemini
uygulayabiliriz.
• 1’den büyük ya da 0’dan küçük (negatif) yhat çıkmış
ise, bunları 0.99 ve 0.01 olarak alıp daha sonra WLS
uygulamamız gerekecektir. 60
61
62
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 9:
Model Spesifikasyonu ve Veri Sorunları
Ch 9 : Model spesifikasyonu ve veri
sorunları
• CH 8 ‘de Gauss-Markov varsayımlarından
birisinin (homoscedasticity) ihlalini ele aldık.
• Hata terimleri varyansının değişken olması bir
“model misspecification” olarak ele alınabilir,
ancak heteroscedasticity, görece olarak çok
büyük olmayan bir spesifikasyon hatasıdır.
• Heteroscedasticity, sapma ve tutarsızlığa yol
açmadığı için ciddi sorun oluşturmuyordu.
Robust se’ler kullanarak ya da WLS tahmini
yaparak geçerli t ve F testleri yapabiliyoruz.
• Bu Bölüm’de daha ciddi bir soruna, “u’larla
x’lerden birinin ya da bazılarının ilişkili
olması” durumunu ele alacağız.
• u’larla ilişki olan bir x içsel (endogenous) bir
bağımsız değişkendir (bkz. Ch.3).
• Yine CH.3 ve 5 de, regresyonda önemli bir
değişkenin ihmal edilmiş (dışarıda bırakılmış)
olmasının, tüm parametrelerin sapmalı ve
tutarsız olmasına yol açabildiğini görmüştük.
• İhmal edilen değişken eğer x’lerden birinin bir
fonksiyonu ise, modelimiz, fonksiyonel biçim
spesifikasyon hatası (functional form
misspecification) içerecektir.
3
• Section 9.2 de “ihmal edilmiş değişkenin yol
açtığı sapmayı (omitted variable bias) azaltıcı
yöntemleri (temsili değişkenlerin-proxy-
kullanılması )göreceğiz.
• Ölçme hataları (measurement error) da belli
bir sapmaya yol açmaktadır. Bu konuyu
Section 9.3 de ele alacağız.
• CH 9 da sadece OLS tahminlerini ele
almaktayız.
• Oysa, u’larla x’lerin ilişkili olmasının yarattığı
bazı sorunlar OLS ile çözülemez.
• Bu konuları CH.13 de inceleyeceğiz.
4
Fonksiyon Kalıbının Yanlış Kurulması
• Bir regresyonda y ile x’lerin ilişkisi doğru formüle
edilmediği taktirde fonksiyonel biçim hatası
(functional form misspecification) ortaya çıkar.
• Örneğin, log-log model yerine level-level model
kullanılması, ya da olması gereken bir karesel
terimin dışlanması fonksiyonel biçim hatasına,
bu ise, betaların sapmalı ve tutarsız olmasına
yol açacaktır.
• Örneğin, ilave bir yıl eğitimin ücrete katkısı
cinsiyete göre değişiyorsa ücret regresyonunda
female*educ karşılıklı etkileşim (interaction)
terimini kullanmak zorundayız. 5
• Regresyona eklemek istediğimiz yeni değişken
gruplarının (karesel terimler vb) gerekli olup
olmadığına F testi (ortak anlamlılık – joint
significance-testi) yaparak karar verebiliriz.
• Böylece, regresyonumuzun fonksiyonel biçimini
daha az hatasız hale getirebiliriz.
• Pek çok ekonomik seride log kullanılması düzey
(level) değişken kullanılmasına göre daha iyi
sonuç vermektedir. Log kullanarak biçim
hatalarını azaltabiliriz.
• Yine, karesel terim eklemek de doğrusal-
olmayan (nonlinear) ilişkilerin yakalanmasında
önemli bir çözüm oluşturmaktadır.

6
7
8
• 2.ci sütundaki regresyonda kareli terimler
eklendi.Tümü hem tek tek anlamlı (t testi) hem
de ortak olarak anlamlı (F testi). Dolayısıyla,
modelimiz daha iyi bir hal aldı.
• “Kareli terimlerin tümü birden anlamlı mıdır?”
sorusunun yanıtını F testi yaparak verelim : cal
F=31.37, df (3 ve 2713). Tab F =2.605< Cal F,
Ho red.
• Kareli terimler eklenince parametrelerin
yorumları da bunları dikkate alarak yapılmalı.
• d(narr86)/d(pcnv |cet.paribus)=0.533-
0.73(2)pcnv  pcnv=0.365 dönüm
noktası.narr86 ile pcnv ilişkisi bu noktaya kadar
pozitif, bu noktadan sonra negatif hale geliyor. 9
Fonksiyonel biçim hatası ile ilgili genel bir test:
RESET TESTİ
• Regresyonda genel fonksiyonel biçim hatası
(misspecification) olup olmadığını teşhise yönelik bir
çok test mevcuttur.
• Ancak, bunlardan en çok kullanılanı
Ramsey(1969)’in regression specification error
test (RESET) ‘idir.
• Orijinal regresyonumuz :

• MLR.3 (doğrusallık) varsayımımız sağlanmış olsun.


10
• (9.2) de eğer doğrusl-olmayan ilişkiler ihmal edilmişse
bu regresyonda x’lerin karesi, küpü, 4.cü kuvveti vs.
kullanılarak bu ilişkiler yakalanabilir.
• Genellikle kare ve küp yeterli olmaktadır.

• White testinde olduğu gibi, (9.2) ye x’lerin kare ve


küplerini eklemek serbestlik derecesi kaybına yol
açacaktır. Bunun yerine, (9.2) den elde edeceğimiz
yhat’lerin kare ve küpünü tekrar aynı regresyonda
açıklayıcı değişken olarak kullanıp F testiyle
katsayılarının anlamlı olup olmadığına bakabiliriz :

11
• RESET testinde Ho hipotezinde (9.2) nin
spesifikasyonun doğru olarak yapıldığı vardır. Yani,

• Büyük örneklerde ve Gauss-Markov varsayımları


geçerli iken,Ho doğru ise “F istaistiği~ F(2, n-k-3)”
dağılacaktır. (9.3) deki genişletilmiş regresyonda
serbestlik derecesi n-k-2-1= n-k-3 olmaktadır.
• RESET testi LM ile de yapılabilir. Ki kare dağılımının
serbestlik derecesi 2 olacaktır.
• Test, heteroscedasticity’den etkilenmeyecek (robust)
şekilde de (Section 8.2) yapılabilir.

12
13
• RESET testinin bir yetersizliği, Ho’ın reddi
halinde ne yapacağımız konusunda bize hiçbir
şey söylememesidir.
• Bazıları RESET testinin ihmal edilmiş değişken
ve heteroscedasticity’den ileri gelen biçim
hatalarını (misspecification) da yakaladığı,
dolayısıyla çok genel bir misspecification testi
olduğunu iddia ederler.
• Bu doğru değildir. İhmal edilmiş değişkenin y ile
ilişkisi doğrusal ise RESET testi bunu
yakalayamaz. Yine, fonksiyonel biçim doğru
yapılmışsa RESET testi heteroscedasticity’yi
belirlemede de başarısızdır.
• RESET testi sadece bir fonksiyonel biçim
testidir, genel bir misspecfication testi değildir. 14
İçiçe geçmemiş-yuvalanmamış (unnested)
almaşıklara karşı test
• İki içiçe geçmemiş (nonnested) modelden hangisini tercih
edeceğiz ?

• Burada standart F testi yapamayız, modellerden biri ötekisinin


özel bir hali değil.
• Bu durumda iki yaklaşım önerilmektedir : (1) Mizon-Richard
(1986) yöntemi: Her iki modeli de özel hal olarak içine alan
genel kapsamlı (comprehensive) bir model kurabilir ve sonra bu
model üzerinde F testi ile iki almaşık modeli test edebiliriz. 15
• (9.6) ve (9.7) deki iki alternatif modeli de içine alan
genel model şudur :

• (2) Diğer yaklaşım, Davidson-MacKinnon (1981)


testidir. Bu yaklaşıma göre, eğer (9.6) doğru model
ise, (9.7) den elde edilen yhat (9.6) da bağımsız
değişken olarak kullanıldığında katsayısının anlamsız
çıkması (t testi) gerekir. Anlamlı çıkarsa (9.6) doğru
fonksiyonel biçim değildir. Aynı şekilde (9.7) yi de test
16
edebiliriz.
• (9.7) yi OLS ile tahmin edelim ve buradan elde
ettiğimiz tahmini y değerlerine (fitted values)
diyelim.
• Bu yhat’i (9.6) da bağımsız değişken olarak koyup
yeniden tahmin edeceğiz :

• Ө1’ in t istatistiği anlamlı ise (9.6) yanlış demektir, vice


versa.

17
• Bu nonnested testlerle ilgili çeşitli sorunlar
mevcuttur :
• i) test, alternatiflerden hangisinin doğru
olduğuna her zaman karar veremeyebilir.İki
model de yanlış ya da doğru biçime sahip
olarak gözükebilir.
• ii) Alternatiflerden birinin reddi diğer alternatifin
doğru olduğu anlamına gelmez. Doğru model
çok farklı bir şey olabilir.
• iii) Almaşık modellerde bağımlı değişken aynı
değilse ciddi sorun ortaya çıkacaktır. Örneğin,
modelin birinde y diğerinde log y varsa ne
olacak? CH 6 da bu durumda R2’leri nasıl
karşılaştıracağımızı görmüştük. Bu konuda
geliştirilen karmaşık testlere burada
girmeyeceğiz. 18
Gözlenemeyen (unobserved) açıklayıcı
değişkenler yerine temsili (proxy) değişken
kullanılması
• Ölçülemeyen, veri bulunamayan önemli bir değişken
varsa ne yapacağız?
• Örneğin, ücret denkleminde kişinin doğuştan gelen
kabiliyetinin (ability) büyük bir açıklama gücüne sahip
olduğunu biliyoruz, ama bunu ölçemediğimiz için
regresyonda kullanamıyoruz.

• Abil’in regresyonda yer almaması etkisinin u ile


birleşmesi anlamına gelir.
• Eğer educ ve abil ilişkili ise, educ ile u da ilişkili olacak
bu ise β1 (ve β2) nin sapmalı olmasına yol açacaktır. 19
• (9.9) da, abil yer alamayacağı için, ihmal edilmiş
değişken sapması (omitted variable bias) söz
konusu olacaktır.
• Bu sapmanın hafifletilmesine yönelik bir çare
gözlenemeyen değişken yerine herhangi bir
temsili (proxy) değişken kullanmaktır.
• Temsili değişkenin gözlenemeyen değişkenle
ilişkili (correlated) olması gerekir.
• Örneğin, bu örnekte ability yerine kişilerin IQ test
sonuçlarını kullanmak akla gelebilir.
• İki değişkenin aynı şeyi ifade etmesi
gerekmemekte, sadece ilişkili (correlated)
olmaları yeterli olmaktadır.
20
• y=log(wage), x1=educ, x2=exper, x3*=abil, x3=proxy
(abil için).Regresyonumuz :

• Temsili değişkenin ölçülemeyen değişkenle ilişkisi


şöyle olsun:

• Hata terimi v3, x3* ile x3’ ün tam (yüzde yüz) ilişkili
olmamalarından doğan hata terimleridir.
• X3* ile x3 aynı yönde ilişkili oldukları için (aksi halde
x3 proxy olamaz) δ3 >0 olacaktır.
21
• Soru, (9.10) da x3* yerine onunla ilişkili x3
‘ü kullanarak β1 ve β2 katsayılarını
sapmasız (ya da en azından tutarlı) olarak
tahmin edip edemeyeceğimizdir.
• Bir yöntem, (9.10) da x3* yerine doğrudan
x3 (proxy) ‘ü koyarak tahmin yapmaktır.
• Buna, ihmal edilmiş değişken sorununun
“yerine koyma (ikame)” yöntemiyle
çözümü (plug-in solution to the omitted
variables problem) denir.
• Bu yöntemin tutarlı β1 ve β2 verebilmesi
için u ve v3 artıklarıyla ilgili bazı
varsayımlar yapmamız gerekir.
22
• (9.10) da, standart varsayım gereği,u; x1, x2 ve x3*
ile ilişkisiz olmalıdır.
• Buna ek olarak u, proxy x3 ile de ilişkisiz olmalıdır.
• Bu şu demektir : populasyon modelinde x1, x2 ve
x3* yer alıyor iken x3’ün yer alması artık gereksizdir
(irrelevant).
• Bu varsayımı şöyle de ifade edebiliriz : u’nun x1, x2
ve x3* ‘e koşullu beklenen değeri sıfırdır.
• v3 ile ilgili varsayım ise şudur : v3; x1, x2 ve x3 ile
ilişkisizdir.
• v3’ün x1 ve x2 ile ilişkisiz olması, proxy x3’ün iyi bir
temsili değişken olduğu (x3*’ı iyi temsil ettiği)
anlamına gelir. 23
• Bunu koşullu beklenen değerle şöyle ifade edebiliriz :

• İlk eşitlik şunu söylüyor : x3 kontrol ediliyor iken (etkisi


dikkate alınıyor iken) x3*’ın beklenen değeri, x1 ve x2
‘ye bağlı değildir. Başka bir ifadeyle, x3’ün etkisi
arındırıldığında, x3*, artık x1 ve x2 ile sıfır korelasyona
sahiptir.
• Ücret örneğinde (9.13) koşulu şu hali alacaktır :

• Yani, ability’nin ortalaması, educ ve exper ile


değişmemekte, sadece IQ ile değişmektedir.
24
• (9.11) i (9.10) da yerine koyup gerekli düzenlemeleri
yaparsak şu regresyonu elde ederiz :

• Yeni denklemin hata terimi (e ile gösterelim) iki hata


terimin bir bileşkesidir : e = u + β3.v3
• u ve v3 ‘ün her ikisi de sıfır ortalamaya sahip ve x1, x2
ve x3 ile ilişkisiz olduğundan, e de sıfır ortalamaya
sahip olacak ve x1, x2 ve x3 ile ilişkisiz olacaktır.
• Denklemi şöyle yazalım :

25
• Proxy (x3) değişkeni kullanarak yaptığımız
tahminde katsayılarının
sapmasız (en azından tutarlı) tahminlerini yapmış
olacağız.
• Ücret denkleminde α3, kişinin IQ puanında 1
puanlık bir artışın ücrette yaratacağı % artışı
verecektir.
• Ayrıca, ability ‘yi temsilen IQ değişkeninin
denkleme girmasi, educ ve exper değişkenlerinin
gerçek katkılarının saptanmasını sağlayacaktır.
IQ olmadığında muhtemelen bu değişkenlerin
katkıları abartılarak ölçülmektedir.

26
27
28
• IQ değişkeninin katsayısı anlamlı çıkmıştır.
• IQ de 10 puanlık bir artış ücrette %3.6
artış sağlıyor.
• IQ dağılımının ABD için standart sapması
15 olduğuna göre, IQ de 1 st.sapmalık
artış ücrette %5.4 ‘lük artış sağlıyor. Bu, 1
yıllık ilave eğitimin katkısına eşittir.
• IQ’ nün eklenmesi siyah-beyaz ücret
farkını biraz azalttı, ancak fark hala çok
büyük. Aynı IQ’ye, eğitime vs sahip bir
siyahla beyazın ücret farkı %14.3 siyahın
aleyhinedir. 29
• “Ability’si yüksek olan kişilerde educ’un ücrete
katkısı daha yüksek olabilir” diye düşünerek
educ*IQ karşılıklı etkileşim (interaction) terimini
ekledik (Sütun 3). Ancak anlamsız çıktı.
• Ability ‘ ye temsili değişken olarak IQ yerine
(veya onunla birlikte) KWW (Knowledge of the
World of Work) test sonuçları da kullanılabilir
(bkz. Exercise 9.7).
• Yukarıdaki varsayımlar sağlanmazsa proxy
değişken kulanılması da sapmaya yol
açacaktır.Örneğin, x3*’ın sadece x3 ile değil
[(9.11) deki gibi] x1 ve x2 ile de ilişkili olduğunu
varsayalım. Bu durumda x1 ve x2’ nin katsayıları
sapmalı olacaktır. 30
Bağımlı değişkenin hatalı ölçülmesi
durumu
• y* : Açıklamak istediğimiz (kitleye ait) değişken,
örneğin ailelerin yıllık tasarrufları.
• y : y*’ın gözlenen ölçümü olsun.
• Regresyonumuz Gauss-Markov koşullarını
sağlasın:

• En azından bazı ailelerin yıllık tasarruflarını doğru


bildirmeme olasılığı çok yüksektir. Bu durumda
ölçme hatası (measurement error):
31
• (9.18) den “y*=y – e(o)” ‘i regresyonda yerine koyarsak :

• Yeni regresyonun hata terimi u + e (o) ‘dır.


• Peki, y* yerine onun hatalı ölçümünü (y) kullandığımız (9.19)
dan OLS ile bulacağımız betalar tutarlı olacak mıdır?

• (9.17) Gauss-Markov varsayımlarını sağlıyordu. Dolayısıyla, u


sıfır ortalamaya sahiptir ve her bir x’le ilişkisizdir. Hatanın iki
yönlü yapıldığını düşünerek, ölçme hatalarının ,e(o), da sıfır
ortalamaya sahip olduğunu varsayabiliriz. Eğer değilse, bu,
sabit terim β(o)’ın sapmalı olmasına yol açar ki bu da önemli
değildir.

• Asıl önemli olan, ölçme hatası, e(o), ile x’lerin ilişkili olup
olmadığıdır.
32
• Genellikle yapılan varsayım, “ölçme hatalarının
istatistiksel olarak x’lerle ilişkisiz olduğu” şeklindedir.
• Eğer bu varsayım doğru ise, (9.19) dan OLS ile
bulacağımız tahminler sapmasız ve tutarlıdırlar.
Ayrıca, t, F, LM istatistikleri geçerlidir.
• Eğer e(o) ile u ilişkisiz ise (ki, genellikle öyle
varsayılır):

• Yani, bağımlı değişkende ölçme hatası varsa hata


terimlerinin varyansı daha yüksek çıkacaktr. Bu ise,
OLS tahmin edicilerinin daha yüksek varyansa sahip
olmaları demektir.
• Sonuç olarak, bağımlı değişkendeki ölçme hataları
x’lerle ilişkisiz ise OLS tahmin edicileri iyi özelliklere
sahip olacaktır. 33
34
• Bağımlı değişken y* yerine log(y*) ise, ölçme
hatası çarpım şeklinde olacaktır :

• Bağımlı değişkendeki ölçme hataları tamamen


rasgele (random) ise, sistematik değilse ve x’lerle
ilişkisiz ise OLS tahmin edicilerinde sorun
çıkarmaz.
• Ancak, sistematik ise ve bazı x’lerle ilişkili ise
sapmaya yol açar.
35
Açıklayıcı değişkenlerde (x’lerde)
ölçme hataları
• Genellikle x’lerdeki ölçme hataları y’deki ölçme
hatasından daha ciddi sorunlara yol açar.
• Basit regresyonda konuyu ele alalım :

• Bu regresyon Gauss-Markov varsayımlarının en


azından ilk 4’ünü sağlasın. Yani, β(o) ve β1’in OLS
tahminleri sapmasız ve tutarlı olacaktır.
• X1* (gelir) hatalı ölçülsün ve ölçülen geliri x1 ile
gösterelim. Kitledeki ölçme hatası :
36
• Ölçme hatası, e1, pozitif, negatif ya da 0 olabilir.
Ölçme hatasının kitledeki ortalamasının sıfır olduğunu
varsayacağız : E(e1) = 0.
• Diğer bir varsayım, u’nun x1* ve x1 ile ilişkisiz
olduğudur. Bunu koşullu beklenen değerle şöyle ifade
edebiliriz :

• Yani, x1*’ın y üzerindeki etkisi dikkate alındığında,


x1’in artık y üzerinde bir etkisi yoktur. Bu gerçekçi bir
varsayımdır.
• (9.21)i, gerçek x1* yerine onun hatalı ölçümü x1 ile
tahmin ettiğimizde ne olur? Yanıt, ölçme hatası ile ilgili
varsayımlarımıza bağlı.
37
• Ekonometri yazınında bu konuda birbirinin tam zıddı
olan iki varsayım yapılmaktadır :
• 1) e1, ölçüm değişkeni x1 ile ilişkisizdir.

• Eğer (9.23) deki varsayım doğru ise, (9.22) den, e1 ile


x1*’ın ilişkili olacağını görüyoruz. “x1* =x1 – e1”
eşitliğini, ( 9.21) de yerine koyalım :

• Burada, u ve e1, sıfır ortalamaya sahip ve x1 ile


ilişkisiz oldukları için, yeni artık terim (u-β1e1) de sıfır
ortalamaya sahip olacak ve x1 ile ilişkisiz olacak. 38
• Bu durumda (9.24)’ün x1 ile tahmini tutarlı
beta katsayıları verecektir.
• (9.24) ün varyansı :

• Demek ki, x’deki ölçme hatası hata terimi


varyansını artıracaktır. Dolayısıyla, βhat’lerin
se’leri daha yüksek olacaktır.
• Bunun dışında ölçme hatası OLS özelliklerine
zarar vermeyecektir.

39
The classical errors-inivariable
assumption
• “e1’in x1 ile ilişkisizdir” varsayımı Section 9.2’deki
temsili (proxy) değişkenle ilgili olarak yapılan varsayıma
benzemektedir.
• Ekonometri yazınında bu varsayımın yerine daha çok
“e1, x1* ile ilişkisizdir” varsayımı yapılmaktadır.
• Ölçme hatalarının gözlenemeyen açıklayıcı
değişkenlerle ilişkisiz olduğu varsayımına The
classical errors-in-variables (CEV) varsayımı denir:
• Varsayım şuradan gelmektedir : Ölçülen
büyüklüğü, gerçek değişkenle ölçme
hatasının toplamı şeklinde yazalım :

• Eğer (9.25) deki varsayım doğru ise, yani,


x1* ile e1 ilişkisiz ise, o zman x1 ile e1 ilişkili
olmak zorundadır :

• Demek ki, CEV varsayımı altında x1 ile e1’in


kovaryansı, e1’in varyansına eşit olacaktır.
41
• (9.24) deki regresyondan görüleceği gibi, x1 ile
e1’in ilişkili olması sorun yaratacaktır.
• u ile x1 ilişkisiz olduğundan, x1 ile bileşik hata
terimi arasındaki kovaryans şuna
eşittir :

• Demek ki, CEV varsayımı altında OLS tahmin


edicileri sapmalı ve tutarsız olacaktır.
• CH_5’deki asimtotik özelliklerden yararlanarak bu
tutarsızlığın (inconsistency) büyüklüğünü
belirleyebiliriz :

42
• β1’ in sağındaki çarpan terimi Var (x1*) / Var (x1)
oranıdır. CEV varsayımı gereği bu oran daima
1’den küçüktür. Dolayısıyla, β1>0 iken, CEV
varsayımı altında, OLS tahmin edicisi β1hat daima
β1’den daha küçük (underestimation) olacaktır.
43
• Buna OLS’de CEV varsayımının küçültme
sapması (attenuation bias) denir.
• Eğer x1*’ın varyansı ölçme hataları (e1)
varyansına kıyasla büyükse, Var(x1*) / Var
(x1) oranı 1’e yakın çıkacağı için, OLS’deki
tutarsızlığın büyüklüğü önemsiz olacaktır.
• u ana kadar tek bir x (basit regresyon) söz
konusu idi. Birden çok x’in yer aldığı çoklu
regresyonda durum daha karmaşık hal
alacaktır.
• Örneğin, üç tane x değişkeninin olduğu bir
regresyonda x1* hatalı ölçülmüş olsun : 44
• Her zamanki “u, x1*, x2 ve x3 ile ilişkisizdir”
varsayımını yapacağız. Kritik varsayım e1 ile
ilgili olanıdır. Ama her durumda “e1’in doğru
ölçülen x2 ve x3 değişkenleriyle ilişkisiz”
olduğunu varsayıyoruz.
• Eğer e1, x1 ile ilişkisiz ise OLS tutarlı
olacaktır. Bu şuradan kolayca görülebilir :

• Burada, u ve e1, tüm açıklayıcı değişkenlerle


ilişkisizdir. 45
• (9.25) deki CEV varsayımı altında OLS sapmalı
ve tutarsız olacaktır. Zira, (9.29) da e1 ile x1
ilişkili olacaktır.
• Üstelik, daha önce gördüğümüz gibi, sadece
β1hat değil tüm betahat’ler sapmalı ve tutarsız
olmaktadır.
• Çoklu regresyon durumunda küçültme sapması
(attenuation bias) şöyle olacaktır :

46
47
• üphesiz, ölçme hataları sadece bir değişkende
değil bir çok değişkende olabilecektir.
• Pratikte gerçek durum çoğu kez bu iki zıt
varsayımın, (9.23) ve (9.25), ortasında bir yere
denk düşmektedir.
• Yani, ölçme hataları hem x1* hem de x1 ile ilişkili
olabilmektedir.
• Bu halde OLS tutarsız tahmin ediciler verecektir.
Ancak, bu, OLS’yi terk etmemiz anlamına
gelmez.
• CH_15 de, bazı varsayımlar altında genel ölçme
hatalarının varlığı alında da tutarlı olabilen
tahmin ediciler bulabileceğiz.
48
Verilerde boşluk (missing data), rasgele-
olmayan örnekleme (nonrandom
sampling) ve aşırı uç değerler (outliers)
• Verilerle ilgili şu ana kadar karşılaştığımız sorunlar
çoklu-bağıntı (multicollinearity) ve ölçme hataları
(measurement errors) idi.
• MLR.2 varsayımını ihlal eden bir veri sorunu rasgele-
olmayan örneklemedir (nonrandom sampling). Bazı
durumlar dışında rasgele-olmayan örnekleme OLS
tahmin edicilerinin sapmalı ve tutarsız olmasına yol
açmaktadır. Bu konu ayrıntılı biçimde CH_17 de
işlenecektir.
• Veride boşluklar (missing data) çok çeşitli şekillerde
karşımıza çıkar. En yaygın biçimi, bazı deneklerin
anket sorularının bir kısmını yanıtlamaması halidir.
49
• Ekonometri paket programları veri boşluğu olan
serilerde boşluğa denk gelen gözlemleri otomatik
olarak dışlamaktadır. Dolayısıyla, veri boşluğu
örnek hacmini küçültmektedir.
• Veri boşluğunun daha ciddi istatistiki sorunlara yol
açıp açmayacağı boşluğun nedeni ile ilgilidir. Eğer
boşluklar rasgele oluşmuşsa, bu, örnek hacmini
küçültmenin dışında sapma ve tutarsızlık sorunları
doğurmaz, MLR.2 varsayımı hala geçerlidir.
Boşluklar, rasgele değil de sistematik ise sorun
ciddidir.
• Veride boşluklar rasgele-olmayan örneklemede
daha ciddi sorun yaratır. Örneğin, doğumda bebek
ağırlıkları veri setinde EDUC değişkenindeki
boşluklar eğitim düzeyi ortalamanın altında olan
anne-babalarda daha yaygın ise, bu sistematik bir
olaydır.
50
• Bazı tür rasgele-olmayan örneklemeler
sapma veya tutarsızlığa yol açmaz. MLR.2
(random sampling) dışındaki Gauss-Markov
varsayımları sağlandığı taktirde, örnek
(sample) dışsal (exogenous) bağımsız
değişkenlere dayanılarak seçildiğinde sapma
ve tutarsızlık ortaya çıkmaz. Buna dışsal
örnek seçimi (exogenous sample
selection) denir. Örnek : 35 yaşın üzerinde
olan kişileri içeren şu regresyon :

51
• Yaş dağılımı açısından rasgele olmamasına
karşılık bu regresyondan hala nüfusun tümü
için geçerli tahminler elde edebiliriz. Zira, örnek
x’e dayanılarak seçilmiştir.
• Seçilen örneğin rasgele olmamasına rağmen
sapmasız tahmin ediciler elde edebilmemizin
nedeni, income, age ve size değişkenleri
kontrol edildiğinde ortalama tasarrufların
nüfusun her kesiminde aynı olmasıdır.

52
• Eğer örnek x’lere göre değil de bağımlı
değişkene (y) bağlı olarak seçiliyorsa sapma
ortaya çıkacaktır.
• Buna içsel örnek seçimi (endogenous
sample selection) denir.
• Örneğin, aşağıdaki regresyona sadece
serveti 75,000$ ‘ı aşan kişileri dahil edelim

• (9.32) de sapmanın ortaya çıkmasının


nedeni, ‘nin serveti
75,000$’dan az olanlarda aynı olmamasıdır.
53
• Özellikle küçük örnek hacimlerinde regresyon
sonuçları uç değerlerden (outliers) çok fazla
etkilenirler.
• Eğer herhangi bir gözlemi örnekten
çıkardığımızda regresyon sonuçları belirgin bir
şekilde değişiyorsa o gözlem bir uç değerdir.
• OLS, artık kareler toplamını minimize ettiği için
mutlak olarak büyük artıklar (eksi ya da artı )
kareleri alındıklarında daha da büyümekte ve
tahmine egemen olmaktadırlar. Başka bir
ifadeyle, uç değerler örnekte çok büyük ağırlık
almaktadır.
• Uç değerler maddi bir hatadan ya da
populasyonun dağılımından kaynaklanır.
• Regresyon uç değerlerle ve onlarsız iki kez
tahmin edilerek kıyaslama yapılabilir ve sonuçlar
bir arada verilebilir. 54
55
56
Log kullanmak uç değer sorununu
hafifletir

57
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 10:
Zaman Serileri Verileriyle
Regresyon Analizi
CH 10 : ZAMAN SERİLERİ VERİLERİYLE
REGRESYON
Bu Bölüm’de şu konuları ele alacağız :
• Zaman serilerinin kullanıldığı doğrusal regresyon
modellerinde OLS tahmin edicilerin özellikleri.
• Section 10.1 : kesitler-arası (cross-section) ve
zaman serileri (time series) verileri arasında
kavramsal farklılıklar.
• Section 10.2 : En yaygın kullanılan zaman serileri
modellerinden örnekler.
• Section 10.3 : Klasik varsayımlar altında OLS
tahmin edicilerin sonlu (finite) örnek özellikleri.
• Hipotez testleri (inference)
• Veride trent ve mevsimsel (seasonal) hareket.
ZAMAN SERİSİ VERİLERİNİN ÖZELLİKLERİ
• Kesitler-arası veriden farklı olarak burada veriler
belli bir zaman sıralaması izlemektedir.
• Zaman serilerini analiz ederken geçmişin geleceği
etkilediğini ama bunun tersinin doğru olmadığını
unutmamalıyız.
• Kesitler-arası veride örnek uygun bir kitleden
rasgele örnekleme (random sampling) ile
çekiliyordu.
• Her bir ayrı örnekte farklı x ve y değerleri elde
edildiği için bu örneklerde OLS tahmin edicileri
(betahat’ler) de farklı olabiliyordu. Bu nedenle OLS
tahmin edicileri rasgele değişken (random variable)
olarak ele alıyorduk. 3
4
• Peki, zaman serilerinde rasgeleliği
(randomness) nasıl yorumlayacağız?
• Zaman serisi değişkenlerin (GSMH, İMKB
indeksi, vs) bir sonraki dönemde hangi
değerleri alacaklarını öngöremediğimiz için
bu değişkenleri rasgele değişken olarak
görebiliriz.
• Zaman (t) indeksi taşıyan rasgele
değişkenlerin oluşturduğu diziye
(sequence) stokastik süreç (stochastic
process) ya da zaman serisi süreci (time
series process) diyeceğiz.
• Stokastik sözcüğü rasgele (random) ile
aynı anlamda kullanılmaktadır.
5
• Mevcut bir zaman serisi stokastik sürecin
mümkün bir realizasyonu olarak
görülebilir.
• Zamanda geriye gidip başka bir
realizasyon elde edemeyeceğimiz için tüm
zaman serileri tek bir realizasyonun
(gerçekleşmenin) sonuçlarıdır.
• üphesiz elimizdeki zaman serisi farklı
tarihsel koşullar olsaydı farklı olacaktı.
• Dolayısıyla, bir zaman serisi sürecinin tüm
mümkün gerçekleşmelerinin (outcomes)
oluşturacağı küme, burada, kesitler-arası
veride kitlenin (population) oynadığı rolü
oynayacaktır. 6
• imdi, sosyal bilimlerde en çok kullanılan
modellerden örnekler görelim :
• Statik model : Eşanlı (contemporaneously)
zaman endeksi taşıyan iki serimiz olsun : y ve z.
• y ‘yi z ile ilişkilendiren statik bir model şöyle
yazılabilir :

• Tabii, statik model değişkenlerin birinci farkları


(değişmeyi gösterir) arasında da formüle edilebilir :

7
• Statik Phillips eğrisini statik modele bir
örnek olarak verebiliriz:

• Bu model, doğal işsizlik oranı (natural


rate of unemployment) ve enflasyon
beklentisinin sabit olduğunu varsayar.
• inf (t) ile unem (t) değişkenleri arasındaki
eşanlı çatışmalı ilişkiyi (contemporaneous
tradeoff) bu modelle inceleyebiliriz.

8
►Sonlu Dağıtılmış Gecikme Modelleri
(Finite distributed Lag Models, FDL models)
• Bu modellerde y’yi belli bir gecikme (lag) ile
etkileyen bir çok değişken olacaktır :

• Burada, gfr(t) : doğurganlık oranı (fertility


rate), doğurganlık yaşındaki 1000 kadına
düşen bebek sayısı; pe(t): doğumu teşvik için
verilen reel vergi muafiyeti.
• (10.4) deki denklem şu modele bir örnek
oluşturur: 9
• Bu “ikinci sıradan” bir FDL modelidir.
• z’de t döneminde bir kerelik bir birimlik bir
değişme olsun :

• Bu değişmenin y’de yaratacağı ceteris paribus


etkiye etki çarpanı (çoğaltanı) denir (impact
multiplier or impact propensity) ve şöyle
hesaplanır :
10
11
• Benzer şekilde y’de geçici değişmenin
olduğu t döneminden bir dönem sonraki
değişme ‘ye, iki dönem
sonraki değişme de ‘ye
eşit olacaktır.
• t+3 döneminde y eski değerine geri
dönecektir : y(t+3) = y(t-1). Bu, (10.5) de
sadece iki dönem gecikme kullandığımız için
böyle oldu.
• δ (j) ‘lerin j endeksine göre grafiği gecikme
dağılımını (lag distribution) verecektir. Bu
grafik, z’de meydana gelen geçici
(temporary) bir artışın y üzerindeki dinamik
etkiyi gösterecektir. 12
13
• z’deki sürekli (permanent) artışların y
üzerindeki etkisini de bilmek isteriz. z, t
döneminden önce z=c (sabit) , t döneminden
itibaren ise z=c+1 olsun. Yani,

14
• (10.4) de δ(o), pe’de 1 $’lık artışın doğurganlıkta
yaratacağı eşanlı değişmeyi ölçer. Bu etki ya sıfır ya
da çok küçük olacaktır. δ(1) ve δ(2), sırasıyla, bir
dönem ve iki dönem evvelki 1 dolarlık pe
değişmelerinin etkilerini ölçmektedir. Bu katsayıların
pozitif olmalarını bekleyebiliriz.
• Eğer pe, t döneminden itibaren her dönem sürekli
olarak c+1 olursa, gfr, 2 dönem sonra δ(0)+ δ(1)+δ(2)
kadar artacaktır. İki yıl sonra ise gfr’de artık değişme
olmayacaktır.
• q.cu sıradan sonlu bir dağıtılmış gecikme modeli (a
finite distributed lag model of order q, FDL(q)) :

15
• FDL modelleri, bağımsız değişkenin (z)
bağımlı değişken (y) üzerinde gecikmeli
etkisinin (lagged effects) olup olmadığını
görmemize yarar.
• Cari dönem değişkeni z(t)’nin katsayısı, δ(o),
etki çoğaltanı (impact multiplier or impact
propensity) adını alır.
• Uzun dönem çoğaltanı (long-run
propensity, LRP) tüm z(t-j) katsayılarının
toplamıdır

16
• z ‘nin çeşitli gecikmeli değerleri arasında çoğu kez
yüksek korelasyon bulunur. Bu, (10.6) da çoklu-
bağıntıya yol açar. Bu ise, δ(j)’lerin ayrı ayrı kesin bir
şekilde tahmin edilmelerini güçleştirir.
• FDL modellerinde birden fazla açıklayıcı değişken
gecikmeli olarak bulunabilir. Yine, cari dönem
(contemporaneous) değişkenleri, x(t), w(t) vb gibi,
ekleyebiliriz.
• Örnek : Aşağıdaki yıllık verilerle tahmin edilmiş FDL
modelinde etki (impact) ve uzun dönem çoğaltanları
(LRP) neye eşittir ? (int: interest rate, inf: inflation rate)
• 0.48 ve {0.48 + (-0.15) + 0.32}= 0.65
17
• ► KLASİK VARSAYIMLAR ALTINDA OLS
TAHMİN EDİCİLERİN SONLU (KÜÇÜK) ÖRNEK
ÖZELLİKLERİ
• OLS’ nin sapmasızlığı (unbiasedness):
Varsayımlar

• Bu varsayım kesitler-arası regresyondaki MLR.1 ‘e


denk gelmektedir. 18
19
• Zaman serilerinde x(tj) değişkeninin iki endeksi
vardır : t zaman endeksidir, j ise x’in no’sudur.
• FDL modellerinde her bir gecikmeli değişken
ayrı bir x olarak da tanımlanabilir :

• Açıklayıcı değişkenlerin oluşturduğu kümeyi x(t)


ile göstereceğiz. x’lerden oluşan veri matrisi ise
X olacaktır. X, nxk boyutludur. X matrisinin t.ci
satırı t dönemine ait x değerlerinden oluşur.

20
• Bu kritik bir varsayımdır. Bu varsayım şunu
söylüyor : t dönemine ait hata terimi, u(t), her bir
x ile tüm dönemler itibariyle ilişkisizdir.
• Bu varsayım koşullu beklenen değer cinsinden
ifade edildiği için, y ile x’lerin arasındaki ilişkinin
biçiminin (form) doğru olarak belirlenmesi
gerekmektedir. Yani, spesifikasyon hatası
yapmamamız lazım.
• Eğer u(t), X’den bağımsız ve E[u(t)] = 0 ise,
varsayım TS.2 otomatik olarak sağlanır. 21
• u(t)’lerin, aynı zamanda t dönemine ait x
‘lerle de ilişkisiz olması gerekmektedir :

• (10.10) sağlandığında, x(tj)’lerin cari (t)


dönem itibariyle dışsal (contemporaneously
exogenous) olduklarını söyleriz.
• Bu koşul, u(t) ve açıklayıcı değişkenlerin cari
dönem itibariyle de ilişkisiz olduğunu ifade
eder :

22
• TS.2 varsayımı cari dönem dışsallığından
(contemporaneous exogeneity) öte koşullar
getirmektedir: u(t) , x(sj) ile, s≠t iken bile ilişkisiz
olmalıdır. Yani, t dönemi artık terimi, u(t)’nin ortalama
değeri, x’lerin tüm geçmiş, şimdiki (cari) ve gelecek
değerleriyle ilişkisiz olmalıdır.
• TS.2 sağlandığında x’lerin kesin olarak dışsal (strictly
exogenous) olduğunu söyleriz.
• OLS’nin tutarlılığı için (10.10) un sağlanması yeterlidir.
Ancak, OLS’nin sapmasızlığı için kesin dışsallık
gerekmektedir( bkz. CH 11).
• Kesitler-arası regresyonda örneğin rasgele oluşu
(MLR.2) kesin dışsallık varsayımını gereksiz kılıyordu.
Zaman serilerinde rasgele örnekleme olmadığı için
kesin dışsallık varsayımına ihtiyaç duyuyoruz.
23
• Varsayım TS.2, x’lerin ve u’nun kendi
geçmişleri ile korelasyonlarına izin
vermektedir.
• İzin verilmeyen, u(t)’nin beklenen
değerinin x’lerle zaman içinde ileri ve
geriye doğru ilişkili olmasıdır.
• TS.2’nin sağlanamamasına yol açan
başlıca iki faktör ihmal edilmiş
değişkenler ve ölçme hatalarıdır.
• Ancak başka nedenler de varsayımın
ihlaline yol açabilmektedir.
24
• u basit statik (yani, açıklayıcı değişkenler arasında
gecikmeli değişken yok) regresyonu ele alalım :

• TS.2 varsayımı, sadece u(t) ve z(t) nin ilişkisiz


olmasını gerektirmiyor; u(t)’nin, z(t)’nin tüm geçmiş
{z(t-1), z(t-2),...} ve gelecek {z(t+1), z(t+2),...} değerleri
ile de ilişkisiz olmasını koşul olarak koyuyor.
• Bunun iki sonucu (implication) vardır : (1) z’nin y
üzerinde gecikmeli etkisi (lagged effect) yoktur.
• Eğer gecikmeli etkisi varsa, o zaman, DLM modeli
tahmin etmemiz gerekmektedir.
25
• ‘Kesin dışsallık’ (strict exogeneity) varsayımı, u’da t
anında oluşacak bir değişmenin z’nin gelecek
değerlerine, { z(t+1), z(t+2),....}, etki etmeyeceğini
varsayar. Bu ise, y’den z’nin gelecek değerlerine bir
etkinin (feedback) olmadığı anlamına gelir.
• ehirlerde işlenen cinayet sayılarını (nüfusa oran
olarak), nüfus başına düşen polis sayısı ile açıklayalım
:

• u(t)’nin polpc(t) ile ilişkisiz olmasını varsaymamız


makul bir varsayımdır. Hatta polpc’nın geçmiş
değerleri ile de ilişkisiz olduğunu varsaymamız çok
26
sakıncalı olmaz ve böyle olduğunu varsayalım.
• Diyelim ki, şehir yönetimi polis sayılarını geçmiş
cinayet sayılarına bakarak değiştiriyor. Bu durumda,
“ mrdrte(t)  polpc(t+1)” yönünde bir etkileşim olacak,
bu ise, “ u(t)  polpc(t+1)” etkileşimi olduğu anlamına
gelecektir. Bu durumda TS.2 varsayım ihlal edilmiş
olacaktır.
• Distributed lag modellerinde (DLM) u(t)’nin z’nin
geçmiş değerleriyle ilişkili olması sorun olmaz, zira,
modelde z’nin geçmiş değerlerini, z(t-1),
z(t-2),...açıklayıcı değişken olarak zaten kullanıyoruz
(kontrol ediyoruz). Ancak, u’dan z’nin gelecek
değerlerine doğru bir etki (feedback), u(t)  z(t+1),
z(t+2),..., her zaman sorun yaratacaktır.
• Kesin dışsal (strict exogeneity) olan açıklayıcı
değişkenler y’nin geçmiş değerlerinden etkilenmez.
Örneğin, t yılındaki yağmur miktarı, Y(t), bu yılın ve
önceki yılların buğday üretiminden, {Q(t), Q(t-1), Q(t-
2),...}, etkilenmez. 27
• Bu aynı zamanda şu anlama da gelir : gelecek
yılların yağmur miktarı, {Y(t+1), Y(t+2),...} bu yılın
ve geçen yılların buğday üretiminden, {Q(t), Q(t-1),
Q(t-2),...}etkilenmez.
• Ancak, tüm tarım girdileri yağmur gibi değildir.
Örneğin, işgücü girdisini çiftlik sahibi geçen yılın
hasılasına bakarak belirleyebilir. Dolayısıyla, işgücü
kesin dışsal değildir. Sosyal bilimlerde
kullandığımız pek çok açıklayıcı değişken böyledir :
para arzı artış hızı, sosyal refah harcamaları,
yollardaki hız limitleri vs. Tüm bu değişkenler, çoğu
zaman, kontrol değişkeni y’nin geçmişte aldığı
değerlere bakılarak belirlenmektedirler, dolayısıyla
da kesin dışsallık varsayımının ihlali söz
28
konusudur.
• TS.2 varsayımı gerçekçi olmamasına rağmen OLS tahmin
edicilerin sapmasız (Unbiased) olmasını sağlamak için
kullanılmaktadır.
• Çoğu zaman TS.2 varsayımı ondan daha rijit olan şu
varsayım ile değiştirilir:
“Açıklayıcı değişkenler (x’ler) rassal (random) değildir ya da
tekrarlanan örneklemlerde sabit (fixed) değerlerden
ibarettirler”.
• Bu varsayım, otomatik olarak TS.2 varsayımını
sağlamaktadır.
• Ancak, rasgele-olmama (nonrandomness) varsayımının
zaman serileri gözlemleri için doğru olamayacağı (yanlış
olacağı) açıktır.
• Oysa TS.2 varsayımı x’lerin rasgele niteliğine dayandığı için
daha gerçekçidir. Ancak, sapmasızlığın sağlanması için x↔u
ilişkilerinin nasıl olması gerektiği konusunda rijit koşullar
getirmektedir.
• OLS’ nin sapmasızlığı için gerekli son varsayım
standart “tam çoklu-bağıntı olmaması”
varsayımıdır . x’ler arasında ilişki olabilir ancak
tam (perfect) korelasyona izin verilmemektedir.
• Ayrıca, x’lerde değişme olması, yani sabit
olmamaları da bu varsayımın içinde yer
almaktadır.
30
• Bu teoremin ispatı kesitler-arası regresyon için verilen
Theorem 3.1 ile aynıdır.
• Ancak, oradaki rassal örnekleme (random sampling)
varsayımının yerini burada “açıklayıcı değişkenlerin
tüm zamanlar için değerleri kontrol edilmişken, her
bir t dönemi için u(t) sıfır ortalamaya sahiptir.”
varsayımı almıştır.
• Bu varsayım sağlanamazsa OLS’nin sapmasız olduğu
kanıtlanamaz.
31
• İki varsayım daha ekleyerek zaman serileri için
Gauss-Markov varsayımlarını tamamlayalım :
Sabit varyans (Homoscedasticity) ve “ardışık
bağımlılık (serial correlation) olmaması”
varsayımları

32
• TS.5 varsayımı iki ayrı zaman dönemine (t ve s,
diyelim) ait u’ların x’lere koşullu olarak ilişkisiz
olması anlamına gelmektedir.
• x’ler rasgele-olmayan (nonrandom) değişken ya
da tekrarlanan örneklerde sabit değerler olarak
ele alınırsa, bu halde “x’lere koşullu olma”
kaydını kaldırırız :

33
• (10.12) sağlanmadığında artıklar (u) ardışık
korelasyon (serial correlation) ya da
otokorelasyon (autocorrelation) içeriyor
demektir.
• Yani, artıklar zaman dönemleri itibariyle
(across time) ilişkilidirler.
• Otokorelasyon, ard arda gelen u’ların tümünün
birden pozitif ya da tümünün birden negatif
olması şeklinde ortaya çıkar.
• Oysa, ideal durum bu artıkların tamamen
birbirinden bağımsız olarak rasgele
dağılmaları durumu idi. 34
• Kesitler-arası regresyonda bu varsayımı
yapmadık. Nedeni, oradaki “rassal örnekleme”
varsayımıydı.
• Rassal örnekleme varsayımı altında herhangi
iki i ve h gözlemlerine ait artıklar, u(i) ve u(h),
birbirinden bağımsızdır. Bu, tüm açıklayıcı
değişkenlere koşullu olarak da böyledir.
• Demek ki, otokorelasyon sadece zaman serileri
regresyonlarına özgü bir sorundur.
• Ancak, örneğin rasgele olmadığı kesitler-arası
verilerde de otokorelasyon sorunu çıkabilir.
Artıkların şehirler itibariyle ilişkili olması gibi. 35
• (10.13) den bulduğumuz varyans ile CH.3 ‘de Gauss-
Markov koşulları altında kesitler-arası regresyon için
türettiğimiz varyans aynı şeydir. Çoklu-bağıntı gibi
varyansın büyük çıkmasına sebep olan faktörler
burada da aynı etkiyi göstermektedir.
• Hata terimleri varyansının OLS tahmin edicisi,
TS.1 – TS.5 varsayımları altında sapmasızdır ve yine
bu varsayımlar altında Gauss-Markov teoremi
sağlanmaktadır. 36
• OLS tahmin edicileri, TS.1-TS.5 varsayımları
altında tıpkı MLR.1-MLR.5 varsayımları altında
olduğu gibi arzu edilir küçük örnek özelliklerine
sahip olmaktadırlar.
37
• Zaman serileri regresyonlarında hipotez testleri yapabilmek ve
güven aralıkları oluşturablmek için, başka bir deyişle, se, t ve F
tahminlerini kullanabilmemiz için kesitler-arası regresyonda
yaptığımız normallik varsayımının bir benzerini burada
yapacağız :

• TS.6 varsayımı; TS.3, TS.4 ve TS.5 varsayımlarının geçerli


olmalarını zorunlu kılar. Yani, TS.6 sağlanmışsa TS.3, TS.4 ve
TS.5 de otomatik olarak sağlanmış olur.
• Ancak, bağımsızlık ve normallik varsayımları dolayısıyla TS.6
daha rijit bir varsayımdır.

38
• Teorem 10.5, TS.1-TS.6 varsayımları sağlandığında kesitler-
arası regresyonda tahmin (estimation) ve çıkarımla (inference)
ilgili olarak elde edilen tüm sonuçların zaman serileri
regresyonuna da uygulanabileceğini ifade ediyor.

• Zaman serileri için klasik doğrusal model (CLM) varsayımları


(TS.1- TS.6) kesitler-arası regresyonu varsayımlarına kıyasla
daha rijit koşullar getirmektedir.

• Özellikle kesin dışsallık ve otokorelasyon olmaması


varsayımları çoğu kez gerçekçi olmaktan uzak olabilirler.
39
40
• β1hat beklenilenin aksine + işaretli
çıkmıştır. Enflasyonla işsizlik arasında
beklediğimiz zıt yönlü ilişki (tradeoff)
gözükmemektedir.
• Bu, kısmen modelin yetersizliğinden ileri
gelebilir. Beklentilerin (expectations) ilave
edildiği genişletilmiş (augmented)
Phillips eğrisi modeli daha başarılı sonuç
vermektedir.
• İkincisi, modelin tatmin edici olmaması
CLM varsayımlarının sağlanamamasından
ileri gelebilir. CH-12 de böyle olduğunu
41
göreceğiz.
• ÖRNEK 10.2
• Değişkenler : i3, üç aylık hazine bonosu faiz haddi;
inf : yıllık tüketici enflasyonu, def : GSYIH’ya oran
olarak federal bütçe açıkları. Dönem : 1948-1996.

• Diğer her şey sabitken, enflasyonda yüzde 1


puanlık (one percentage point) artış kısa vadeli
faizlerde 0.613 puanlık artış yaratıyor.
• Katsayıların t değerleri oldukça yüksektir,
dolayısıyla istatistiksel olarak anlamlıdırlar. Tabii,
CLM varsayımları burada sağlanmışsa bu değerleri
çıkarım (inference) amacıyla kullanabileceğiz. 42
• Kesitler-arası regresyonda gördüğümüz tüm fonksiyonel
biçimleri zaman serilerinde de kullanabileceğiz. Özellikle doğal
logaritma zaman serilerinde çok kullanılmaktadır. Böylece
değişkenlerin y üzerindeki etkisi ölçü birimlerinden bağımsız
olarak sabit % cinsinden elde edilebilmektedir.

43
• prepop : istihdam oranı (çalışan
sayısı/nüfus),
• mincov =(ortalama asgari ücret / ortalama
ücret)* (asgari ücretli sayısı / tüm çalışanlar).
Böylece, mincov değişkeni asgari ücretin
ortalama ücrete göre görece önemini
ölçüyor. Dönem : 1950-1987. 44
• Prepop’un mincov’a göre esnekliği -0.154
bulunmuştur ve anlamlıdır.
• Daha yüksek bir asgari ücret, istihdam oranını
düşürmektedir. Bu, iktisat teorisinin öngörüsüne
uygun bir sonuçtur.
• USGNP serisi anlamsız çıkmıştır. Ancak, aşağıda
göreceğimiz gibi regresyona trend ekleyince bu
sonuç değişecektir.

45
• Logaritmik fonksiyonel biçimi “distributed lag” modelleri (DLM)
için de kullanabiliriz. Örneğin, para talebini (M) GDP’nin bir
fonksiyonu olarak çeyrek yıllık veriden şöyle tahmin edebiliriz :

• δ’ların toplamına, δo+δ1+δ2+ .... + δ4, uzun-dönem


esnekliği (long-run elasticity) denir. GDP’de %1’lik
sürekli (permanent) artışın para talebinde 4 çeyrek yıl
sonra doğuracağı % artışı gösterir.
• Burada cari dönem (t) değişkeninin katsayısı δo, ‘the
impact propensity’ ya da kısa dönem esnekliği
(short-run elasticity) adını alır. GDP’de %1’lik bir
artışın para talebinde doğuracağı ani etkiyi % olarak
gösterir. 46
• Kukla değişkenler zaman serilerinde çok sıkça
kullanılır ve çok yararlıdırlar.
• Örneğin, herhangi bir A partisinin iktidarda olduğu
yıllarda 1, olmadığı yıllarda 0 değerini alan bir D
kukla değişkeni tanımlayıp regresyonumuzda
açıklayıcı değişken olarak kullanabiliriz.
• Savaş yılları, krizler, depremler vb. bazı özel
dönemleri kukla değişken kullanarak izole
edebiliriz. Örneğin, 2.Dünya Savaşı yıllarında 1,
diğer yıllarda 0 değerini alan bir kukla değişkeni
yaratarak savaş yıllarının bağımlı değişken (y)
üzerindeki özel etkisini ölçebiliriz.
• Belli olayların kukla değişken kullanarak etkilerini
ölçmeye event study denir.
47
48
• Tüm katsayılar çift taraflı bir alternatif hipoteze (H1:
β(j) ≠ 0 )karşı %1 düzeyinde anlamlıdırlar.
• 2. Dünya savaşı yıllarında, ceteris paribus,
doğurganlık çağındaki 1000 kadın başına düşen
doğum sayısı 24 azalmıştır. gfr değişkeninin 65-127
arasında değiştiğini düşünürsek bu sayı oldukça
önemlidir.
• Yine her şey aynı iken, doğum kontrol haplarının
piyasaya çıktığı yıldan sonraki doğum sayılarında ciddi
azalma olmuştur.
• Doğumları teşvik için getirilen vergi muafiyeti
değişkeni pe’nin örnek ortalaması $100.4 olup alt ve
üst limitleri 0 ve $243.8 dir. Bu muafiyette yapılan $12
‘lık bir artış 1000 kadın başına düşen doğum sayısını
1 adet artıracaktır (12 x 0.083 = 1).
49
• Doğurganlık, pe’deki değişmelere belli bir
gecikme ile tepki (response) verebilir.
Dolayısıyla, 2 yıl gecikmenin (lag) kullanıldığı
bir DLM tahmin edelim :

50
• Örnek hacmi gecikme sayısı (2) kadar azaldı. Yani
gecikme sayısı kadar gözlem kaybediyoruz.
• pe(t), pe(t-1) ve pe(t-2) arasında çok yüksek çoklu-
bağıntı olduğu için katsayılarının se’leri çok yüksek
çıktı ve ayrı ayrı hiçbirisi anlamlı değildir. Ancak,
üçü birden (jointly) anlamlıdır (F istatiğinin p-değeri
0.012).
• pe katsayılarının üçü de anlamsız çıktığı için pe’nin
gfr üzerindeki etkisinin cari dönem itibariyle mi
(contemporaneous effect) yoksa gecikmeli mi
olduğunu bilemiyoruz. Bunun için pe(t-1) ve
pe(t-2)’nin katsayılarının birlikte anlamlı olup
olmadığını yine F testi ile test ediyoruz. Testin p-
değeri 0.95 çıktığı için gecikmeli değişkenlerin etkisi
yoktur diyoruz ve statik modeli (10.18) tercih
ediyoruz. 51
• (10.19) dan uzun-dönem esnekliğini (long-run propensity) :
0.073-0.0058+0.034 = 0.101 olarak buluyoruz. Bu tahminin
anlamlılık testini yapabilmemiz için onun se’ini bilmemiz gerek.
• Bunun için Section 4.4 deki yola başvuruyoruz. :

52
• se(θohat) = 0.030 ve böylece t istatistiğini 3.37
buluyoruz. θohat anlamlıdır.
• Her üç δ da tek tek anlamsız çıktığı halde
onların toplamı olan uzun-dönem esnekliği
kuvvetli bir şekilde sıfıra karşı testi geçmektedir.
• θohat için %95’lik bir güven aralığı
oluşturursak, bu aralığın 0.041 ile 0.16
olduğunu görürüz.

53
• Pek çok ekonomik değişken zaman içinde artma
eğilimi gösterir. Yani zaman içinde trent gösterir (time
trend).
• İki değişkenin aynı ya da zıt yönde trent göstermesi
onların mutlaka birbirleri üzerinde etkiye sahip
oldukları anlamına gelmez. Herhangi iki seri çoğu kez
diğer başka gözlenemeyen faktörlerin etkisiyle zaman
içinde trent gösterdikleri için ilişkili çıkmaktadır.
• Değişkenlerdeki trendi hangi istatistiksel modellerle
ifade edebiliriz ? En yaygın model “doğrusal zaman
trendi” (linear time trend) modelidir :
54
55
• Burada, {e(t)}, bağımsız, özdeş dağılmış
(independent, identically distributed, iid) bir
silsiledir (sequence).

• α1, diğer faktörler (e(t)’de içerilen) sabit iken, zaman


endeksinde 1 dönemlik (period) bir değişme
olduğunda y ’de meydana gelecek değişmedir.

• Diğer bir zaman trendi gösteren silsile, ortalaması


zamanın bir fonksiyonu olan süreçlerdir :
56
• (10.25) de α1>0 iken y(t) zamanla artacak, α1<0 ise
azalacaktır. Ancak burada doğrusal bir şekilde (bir
çizgi üzerinde) artan ya da azalan y(t) değil onun
ortalamasıdır. Rasgele değerler alan e(t) dolayısıyla
y(t) zig zaglar izleyecektir.
• (10.25) de ortalamanın aksine varyans zaman içinde
sabittir :

• Eğer e(t), i.i.d. silsilesi ise, {y(t)}, bağımsız bir silsile


olacak ancak özdeş (identical) olmayacaktır.
• e(t) de zaman içinde kendi geçmişi ile ilişkili olabilir.
Bu durum daha gerçekçidir.
57
• Üssel (exponential) trend : Çoğu ekonomik seri zaman
içinde sabit bir ortalama hızla artarlar. Bu durumda
trendi üssel olarak modellemek doğru olur.
• Eğer seri hep pozitif değerler alıyorsa üssel trendi
doğal logaritma kullanarak ifade edebiliriz :

• β1, büyüme oranıdır. İki tarafın logaritmasını alırsak:

58
• Karesel trent (quadratic trend) : serinin eğimi zaman
içinde artıyorsa, yani büyüme giderek hızlanıyorsa
(hiper enflasyonda olduğu gibi) kareli t terimi de
ekleriz:

• Eğer α1>0 ve α2<0 ise trent kambur şeklinde olacaktır


:eğim t ile birlikte azalacaktır.

59
►Trende sahip değişkenlerin regresyonda kullanımı :
• Değişkenlerin trent ihtiva etmesi TS.1 – T.S.6
varsayımlarımızı bozmaz.
• Ancak, eğer y ’ye trent kazandıran gözlenemeyen
faktörler x ’lerle de ilişkili ise, bu durumda sahte
(spurious) bir ilişki bulmuş oluruz. Buna
sahte(spurious) regresyon denir.
• Regresyona bir zaman trendi ekleyerek bu sorunu
aşabiliriz. Eklenen zaman endeksi t ‘nin katsayısı (β3)
y ‘deki x’lerle ilişkili olmayan artışı ya da azalışı
verecektir.t’ nin eklenmemesi “ihmal edilmiş değişken
sapması”na yol açar.

60
• ÖRNEK 1.7 : Ev yatırımları ve ev fiyatları ilişkisi,
1947- 88, ABD verileri.
• İnvpc : adam başına reel ev yatırımları (bin $),
price : ev fiyatları endeksi (1982=1).(10.32) deki
sahte regresyondur. Trent alınınca ilişki kayboldu.

61
• Regresyona trent eklemek, y ve x
değişkenlerinin önce trentlerini bertaraf
etmek (detrending), sonra bu trendi
alınmış değişkenler arasında regresyon
tahmin etmek ile aynı şeydir :
• yt= αo + α1t + et;
x1t = δ0+ δ1t+vt;
x2t = δ’0+ δ’1t+v’t
• y ‘nin artıklarının (e), x’lerin artıkları (v ve
v’) üzerine regresyonu bize (10.31) den
elde ettiğimiz β1 ve β2 ‘yi verecektir
(değişkenlerin ortalamaları alındığı için
sabit koymaya gerek yoktur):
62
et = β1x1 + β2x2 + εt
y trende sahipken R2 ‘nin
hesaplanması
• Çoğu kez zaman serisi regresyonlarının R’ ‘leri
kesitler-arası veriye kıyasla çok daha yüksektir.
• Bunun bir nedeni zaman serilerinde verilerin
genellikle toplulaştırılmış (aggregated) nitelikte
olmasıdır.Toplu verileri açıklamak bireysel verilere
göre daha kolaydır.
• Ancak R2’ yi zaman serisi regresyonlarında asıl
yükselten faktör y ‘nin trende sahip olmasıdır. y
trende sahipken SST / (n-1), artık Var (y(t)) ‘nin
sapmasız ve tutarlı bir tahmin edicisi değildir.
63
• R2, hata terimi varyansının y’nin varyansına göre
görece büyüklüğünün bir ölçüsü idi. Bunu
Rbarkare formülünden görebiliyoruz :

64
65
Mevsimsellik (Seasonality)
• Belli bir zaman aralığında (çeyrek yıl, aylık,
haftalık vb) gözlenmiş ekonomik veriler
genellikle mevsimsellik (seasonality) izler.
Örneğin,ayların iklim koşulları, tatillerin belli
aylara toplanması (örnek, Aralık ayı için
Christmas etkisi) vs. değişkenlerde sistematik
mevsimsel kalıplar yaratır.
• Önemli ölçüde mevsimsel yapı (pattern)
gösteren seriler düzeltmeye (seasonal
adjustment) tabi tutulur.
• Mevsimsel düzeltme yapılmamış ham verilerle
çalışıyorsak regresyona mevsimsel kukla
değişkenler (seasonal dummy) eklemeliyiz.
66
• Aylık verilerin kullanıldığı bir regresyonda 11 aya ait
aylık kukla değişkenler kullanırız, 12.ci ay (genellikle
Ocak) baz ayımız olur.

• F testi ile tüm 11 kuklanın katsayılarının aynı anda sıfır


olup olmadığını test ederiz. Yeterince büyük bir cal F
söz konusu seride mevsimsellik olduğunu gösterir.
• Çeyrek yıllık veriler kullanılıyorsa 3 adet mevsimsel
kukla kullanacağız.
• Nasıl regresyona trent (t) eklemek değişkenlerin
trentten arındırılması (detrending) anlamına geliyorsa
mevsim kuklalarının eklenmesi de mevsimsellikten
arındırma (deseasonalizing) demek olacaktır. 67
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 11:
Zaman Serileri Verileriyle
Regresyon Analizinde Ek Konular
B. 11. Zaman Serileri ile OLS tahmininde
diğer konular

• B.10’da zaman serileri için OLS’nin sonlu


(finite) örneklem özelliklerini gördük.
• Oldukça katı TS.1-TS.6 varsayımları
sağlandığında zaman serilerinden elde edilen
OLS tahmin edicileri, kesitler-arası verilerinden
elde edilen OLS tahmin edicilerle aynı
özelliklere sahip olacaklardır.
• Zaman serilerinde de kesitler-arasında
olduğu gibi OLS’nin büyük örneklem
(asimptotik) özelliklerini incelemekte yarar
olacaktır.
• Örneğin, hata teriminin normal dağılmadığı
durumda merkezi limit teoremine
dayanarak OLS test istatistiklerini
kullanabileceğiz.

3
• Zaman serilerinde örneklem hacmi genellikle
sınırlı olmasına rağmen başka çözüm olmadığı
için büyük örneklem özelliklerinden sık sık
yararlanacağız.
• Altbölüm 11.2’de bağımlı değişkenin gecikmeli
halinin, y(t-1) gibi, açıklayıcı değişken olarak
kullanılmasının kesin dışsallık (strict
exogeneity) varsayımını (TS.2) nasıl ihlal
ettiğini göreceğiz.

4
Bölüm 11 Zaman Serileri

• Kesitler-arası verilerde (CH 5) rassal örnekleme


(random sampling) varsayımı OLS büyük
örneklem özelliklerini türetmemizde çok
yardımcı olmuştu.
• Zaman serilerinde ise gözlemler ileri ve geriye
doğru zaman içerisinde ilişkili oldukları için işimiz
çok daha zor olacaktır.
• Zaman serilerinde kritik nokta, değişkenlerin
farklı dönemlere ait değerleri arasındaki
korelasyonun yeterince hızlı sıfıra düşüp
düşmediğidir.
5
11.1 DURAĞAN (STATIONARY) VE DURAĞAN-
OLMAYAN (NONSTATIONARY) ZAMAN SERİLERİ

• Bu bölümde regresyon analizinde geleneksel


büyük örneklem yaklaştırımlarını
(approximations) uygulayabilmemiz için bize
gerekli olan anahtar kavramları göreceğiz.

6
Durağan vs. durağan olmayan süreç

• Zaman serileri analizinde “durağan süreç”


(stationary process) kavramı tarihsel olarak çok
büyük bir rol oynamıştır.
• Durağan süreç, olasılık dağılımı zaman içinde
kararlı (stable) olan süreçlere denir. Durağan
süreçten alınacak herhangi bir rassal
değişkenler dizisi ile h ≥ 1 dönem sonra alınacak
ikinci bir dizinin ortak (joint) dağılımları aynıdır.

7
Başka bir deyişle, zaman serisi dizisi özdeş
(identically) dağılmıştır.

8
Kovaryans-durağanlık Kavramı

• Kovaryans durağanlık (covariance


stationarity), stokastik sürecin ilk iki
momentinin, yani, ortalama ve varyansının,
zaman içinde sabit olmasını gerektirir.
• Ayrıca, x(t) ve x(t+h) arasındaki covaryansın
(ve dolayısıyla korelasyonun) iki süreç
arasındaki uzaklık olan h ‘a bağlı olmasını ve
t ‘ye bağlı olmamasını gerektirir.

9
Kovaryans-Durağanlık Kavramı

• Eğer bir durağan süreç sonlu (finite) ikinci


momente sahipse, o süreç kovaryans
durağandır. Ancak, bunun tersi her zaman doğru
değildir.
• Kovaryans durağanlıktan daha katı koşullara
sahip kesin durağanlık (strict stationarity)
tanımı üzerinde durmayacağız.
• Durağanlık denince Kovaryans-durağanlık
tanımını anlayacağız.

10
Durağanlık Kavramı

• Regresyon analizinde durağanlığın işlevi çok


büyüktür.
• Teorik olarak, durağanlık, “büyük sayılar yasası
(the law of large numbers, LLN)” ve “merkezi
limit teoremi (central limit theorem, CLT)”
önermelerini basit hale getirir.
• Pratikte ise, iki değişken arasında regresyon
ilişkisi tesis edebilmek için serilerin zaman içinde
kararlılığı (stability) ile ilgili bazı varsayımlar
yapmamız gerekir.

11
Durağanlık Kavramı
• Eğer x(t) ve y(t) değişkenleri zaman içinde keyfi
olarak (arbitrarily) değişiyor ise, zaman
serilerinde bu değişkenlerin sadece tek bir
realizasyonları elimizde olduğu için, birbirlerine
etkilerini sağlıklı olarak ölçemeyiz
• Çoklu zaman serisi regresyonlarında β(j)
katsayılarının zaman içinde değişmemesi için
belli bir durağanlık (stationarity) varsayımına
ihtiyaç duymaktayız.
• Ayrıca, TS.4 ve TS.5 varsayımları, hata terimleri
varyansının zaman içinde sabit olmasını ve
zaman itibariyle art arda gelen (adjacent)
u’ların ilişkisiz olmasını gerektirir.
12
► “Zayıf Bağımlı Zaman Serileri (Weakly
Dependent Time Series)”

• Durağanlık, bir sürecin, o süreç zaman içinde ilerlerkenki


ortak dağılımı (joint distribution) ile ilgili bir özelliktir.
• Başka bir kavram zayıf bağımlılık (weakly dependence)
kavramıdır. Bu ise, x(t) ile x(t+h) arasındaki ilişkinin, ikisi
arasındaki uzaklık h artarken sıfıra gitmesi ile ilgilidir.
• Eğer h→ ∞ iken x(t) ve x(t+h) birbirinden hemen hemen
bağımsız (almost independent) hale geliyorsa iki süreç
zayıf olarak bağımlı (weakly dependent) süreçlerdir.
• Bir kovaryans durağan süreç, eğer h→ ∞ iken x(t) ve
x(t+h) arasındaki korelasyon yeterince hızla sıfıra gidiyorsa
zayıf olarak bağımlı (weakly dependent) süreçtir.

13
Zayıf-bağımlı zaman serileri

• Eğer aşağıdaki koşul sağlanıyorsa, x(t) ve x(t+h)


durağan dizileri (sequences) asimptotik olarak
ilişkisizdirler (asymptotically uncorrelated).

• Pratikte, korelasyonların yeterince hızlı bir şekilde


sıfıra gidip gitmediklerine bakılır.

14
Zayıf-bağımlı zaman serileri

• Zayıf bağımlılık, büyük sayılar yasası (LLN) ve


merkezi limit teoremi (CLT)’nin
sağlanmalarında rassal örnekleme (random
sampling) varsayımının üstlendiği görevi
görmektedir.
• Zaman serileri verileriyle ilgili merkezi limit
teoremi, durağanlık ve zayıf bağımlılığı bir
önkoşul olarak gerektirmektedir. Dolayısıyla,
bu tür seriler çoklu regresyon için ideal
serilerdir.

15
Zayıf-bağımlı zaman serileri
• Zayıf bağımlı (weakly
dependent) zaman
serisine bir örnek i.i.d. 2.5

(independently and
2

1.5

identically distributed) 1

silsilesidir. 0.5

0
• Örneğin, normal dağılım -0.5

tablosundan rasgele -1

çekilmiş bir seri böyledir. -1.5

-2
• Yandaki grafikte standart -2.5

normal dağılımdan
0 10 20 30 40 50 60 70 80 90 100

çekilmiş 100 elemanlı bir


zaman serileri dizisi
gösterilmiştir. 16
Örnek: Moving Average Süreci
• MA(1), birinci sıradan bir hareketli ortalama
(moving average) süreci başka bir örnektir :

• Burada, x(t), e(t) ve e(t-1) in ağırlıklı


ortalamasıdır.
• MA(1) de komşu x terimleri ilişkilidir. Örneğin,
(11.1)’i “t+1” dönemi için yazarsak:
x(t+1) = e(t+1) + α1.e(t) olur.
17
MA(1) Süreci

• Cov [x(t), x(t+1)] = α1. Var(e(t)) = α1.σ2(e)


• Var(x(t))= (1+ α1kare).σ2(e)
• Cor [x(t), x(t+1)] = α1/ (1+ α1kare).
• Örneğin, eğer α1=0.5 ise, Cor [x(t), x(t+1)] =0.40
olacaktır.
• α1=1 iken korelasyon MA(1) için en yüksek
değerine 0.5 ulaşacaktır.

18
MA(1) Süreci
• Komşu x(t) ve x(t+1) terimleri ilişkili çıkmasına
rağmen birbirlerine daha uzak x terimleri
bağımsızdırlar.
• Örneğin, x(t+2) = e(t+2)+ α1.e(t+1) değişkeni x(t)
değişkeninden bağımsızdır.
• Çünkü e(t), zaman içinde kendi geçmiş ve
gelecek değerlerinden bağımsızdır.
• Ayrıca e(t) özdeş (identical) dağıldığı için MA(1)
durağan bir süreçtir.
• Bunun yanı sıra zayıf olarak bağımlı (weakly
dependent) bir süreçtir.Bu nedenle, x(t) sürecine
LLN ve CLT uygulanabilecektir. 19
1. Dereceden otoregresif süreç –
AR(1) Süreci

20
• AR(1) sürecinde, │ρ1│<1 koşulu, hem sürecin
kararlılık (stability) hem de zayıf bağımlılık (weak
depedence) koşuludur.
• Durağan bir AR(1) sürecinde (yani, │ρ1│<1 iken) :

21
• (11.4), y(t) ile y(t+h) ‘in korelasyonlarının sıfır
olmadığını, ancak, bu korelasyonun h
büyüdükçe sıfıra doğru gittiğinin gösterir.

• Örneğin, ρ1= 0.9 iken, Corr [y(t), y(t+20)] =


0.122 olacaktır.
• Yani, durağan AR(1) modeli zayıf bağımlıdır
(weakly dependent).

22
Trend-durağan (trend-stationary) süreç

• Trend içeren tüm seriler durağan-olmayan


nitelikte seriler değillerdir.
• Bazı seriler belli bir trend etrafında
durağandırlar.
• Yani, trendleri alınınca geriye kalan kısım
durağandır.
• Bunlara trend-durağan (trend-stationary)
seri denir. Bu seriler aynı zamanda zayıf-
bağımlıdır.
23
ZAMAN SERİLERİNDE SEKK (OLS) TAHMİN
EDİCİLERİN ASİMTOTİK ÖZELLİKLERİ

• CH.10’da bazı zaman serileri problemlerinde


doğrusal klasik model varsayımlarının ihlal
edildiğini gördük.
• Bu durumda yine OLS’nin büyük örneklem
özelliklerine başvuracağız.
• Bazı varsayımları yumuşatarak OLS’nin tutarlı
tahmin ediciler verdiğini göstereceğiz.

24
TS1. Doğrusallık ve Zayıf-bağımlılık
• TS.1 varsayımı modelin β parametreleri
bakımından doğrusal olduğunu söylüyordu.
• Eğer x değişkenleri arasında y(t-1), y(t-2) vb gibi
gecikmeli bağımlı değişken varsa, TS.1 şöyle
değişecektir:

25
TS2. Sıfır koşullu ortalama
• u(t) ile x’in tüm geçmiş, şimdiki ve gelecek
değerlerinin ilişkili olmasını yasaklayan TS.2
varsayımı yerine daha yumuşak şu varsayımı
yapacağız

• Yani, hata terimiyle x değişkenleri sadece cari


dönem (t) itibariyle ilişkilidir.

26
TS3. Tam Çoklu-doğrusallığın olmaması
• Bu varsayım aynıdır:

• Bu üç varsayım sağlanıyorsa OLS


tahmin edicileri tutarlıdır:

27
OLS tahmin edicilerinin tutarlılığı

• Bölüm 10’da gördüğümüz Teorem 10.1 ile 11.1


arasında önemli farklılıklar vardır.
• Teorem 11.1’de tutarlılık sağlanmaktadır,
sapmasızlık değil.
• Teorem 11.1’de x’ler kesin dışsal değil sadece
dışsaldırlar (exogenous).
• Bu yumuşamayı değişkenlerin weak dependent
olduğunu varsayarak sağlayabildik.

28
Örnek
• Aşağıdaki modelde z(t1), para arzı aylık büyüme
hızı; y(t) enflasyon oranıdır.

• Geçen ayın enflasyon oranı bu ayın para arzı


artış oranını etkilesin.

• Buna rağmen z(t1)’i açıklayıcı değişken olarak


kullanabileceğiz.
29
Örnek (devam)
• Önceki modelde OLS’nin tutarlı olması için şu
varsayım şarttır:

• Bu varsayım, u(t)’de yer alan göz ardı edilen


faktörlerin z(t1) ve z(t2) ile ilişkili olmasına izin
vermemektedir.
• Buna karşın, hata teriminin gecikme değerleri ile
açıklayıcı değişkenler, örneğin u(t-1) ile z(t1), ilişkili
olabilir.
• Kesit-veri analizinde olduğu gibi yanlış fonksiyon
kalıbı seçimi, açıklayıcı değişkenlerdeki ölçme
hataları bu varsayımın geçersiz olmasına neden olur. 30
31
32
AR(1) Süreci
• AR(1) modelinde u(t) ile açıklayıcı değişken
y(t-1) ilişkisiz, buna karşılık u(t) ile y(t) ilişkili idi.
• Dolayısıyla, strict exogeneity burada
sağlanamaz.
• Weak dependence sağlandığı için AR(1) den
tutarlı tahmin ediciler elde ediyoruz, ancak
bunlar sapmalıdır.
• Örnek hacmi küçükken ya da β1 bire yakınken
bu sapma ciddi boyuta ulaşır.

33
TS4. Sabit Varyans Varsayımı
TS5. Otokorelasyon Olmaması Varsayımı

• TS.4’de sadece cari (t) dönem x değerlerine göre


koşullandırma yapılmıştır, tüm t dönemlerine göre
değil.
• TS.5’de de u(t) ve u(s) ile çakışan x değerleri
bakımından koşullandırma (conditioning)
yapılmıştır.
34
• TS.1’ – TS.5’ varsayımları altında kesitler-arası
verideki ile hemen hemen aynı bir asimtotik sonuç
türettik.
• Doğrusal klasik model varsayımları ihlal edildiğinde
bile eğer örnek hacmimiz büyük ise ve yukarıdaki
yeni varsayım kümesi sağlanıyor ise, OLS tutarlıdır
ve hipotez testleri (inference) yapılabilir.
• Aşağıda weak dependence varsayımının ihlalini,
CH.12 de de serial correlation ve heteroscedasticity
35
‘yi ele alacağız.
36
Etkin Piyasa Hipotezi: AR(2) Modeli

37
38
39
Güçlü-bağımlı zaman serileri
• Zaman serileri zayıf bağımlı oluğu zaman OLS
çıkarsama prensiplerinin klasik varsayımlardan
daha zayıf varsayımlar altında geçerli olduklarını
gördük.
• Ancak bir çok iktisadi zaman serileri zayıf
bağımlı olmaktan ziyade güçlü-bağımlı olarak
sınıflandırılır.
• Yani, zaman serileri geçmiş değerleriyle yüksek
dereceden ilişkilidir (highly persistent, strongly
dependent).
• Bu alt bölümde bu türden zaman serileri
örneklerini inceleyeceğiz. 40
• Pek çok ekonomik zaman serisi “Kuvvetli şekilde
bağımlı” (strongly dependent) ya da başka bir
deyişle “kuvvetlice yapışkan” (highly persistent)
serilerdir. Örnek, enflasyon oranı, bütçe açıkları vb.
• CH. 10’daki CLM varsayımları sağlanıyorsa
strongly dependent serilerin regresyonda
kullanımı sorun çıkarmaz.Ancak, veri, weakly
dependent değilse bu varsayımlarda ufak bir
bozulma LLN ve CLT ‘in uygulanmasını imkansız
kılacaktır.
• AR(1) modelde ρ1 katsayısı 1’e doğru gittikçe
serinin yapışkanlığı artmaktadır.
• ρ1 =1 olduğunda AR(1) süreci rastsal yürüyüş
(random walk) süreci adını alır. 41
• RANDOM WALK :

42
• Yinelemeli yerine koyma yöntemi
(Repeated substitution): y t = y t −1 + et

y(1) = y(0) + e(1)


y(2) = y(1) + e(2) = y(0) + e(1) + e(2)
y(3) = y(2) + e(3) = y(0) + e(1) + e(2)+ e(3)
…………….
y(t) = y(0) + e(1) + e(2) +….+e(t-1)+ e(t)=
t
= y0 + ∑
t =1
et

43
• Random walk’ un beklenen değeri sıfır olduğu
halde varyansı t ile birlikte (t’nin doğrusal bir
fonksiyonu olarak) artmaktadır :

44
• Demek ki, random walk’de bizim gelecekle, y(t+h),
ilgili yapabileceğimiz en iyi tahmin bugünkü, y(t),
değerdir.
• Oysa, bu tahmin, kararlı AR(1) sürecinde, yani
│ρ1│<1 iken, h→∞ giderken sıfıra gidiyordu:

• Random walk sürecinde y(t) ile y(t+h) arasındaki


korelasyon büyük t’ler için 1’e yakındır ve şu
formülden hesaplanır :

• Dolayısıyla, bir random walk süreci durağan-


45
olmayan (nonstationary) bir süreçtir
46
• Random walk süreci birim kök sürecinin (unit root
process) özel bir halidir. AR(1) de │ρ1│=1 olduğu
için süreç birim kök ihtiva etmektedir.
• Çeşitli {e(t)} süreçleri tanımlanarak (11.20) deki gibi
pek çok değişik unit root süreci türetilebilir. Örneğin,
e(t), MA(1) ya da kararlı AR(1) süreci izleyen zayıf
bağımlı (weakly dependent) seriler olabilir.
• Ekonomik serilerin yüksek yapışkanlık gösterip
göstermediğinin bilinmesi politika perspektifi açısından
önemlidir. Yapışkan serilerde ciddi bir değişikliğe yol
açan herhangi bir politikanın etkileri çok uzun süre
devam edecektir.
• Yani, şoklar random walk süreçlerinde çok uzun ömre
47
sahiptir, etkinin sıfıra gitmesi çok yavaş olur.
• Bir sabit terim (intercept) ihtive eden rastsal
yürüyüşe “yönlü rastsal yürüyüş” (random walk
with drift) denir.

48
49
50
Kuvvetlice Yapışkan zaman serilerinin
dönüştürülmesi

• Birim kök (unit root) süreci izleyen, dolayısıya da çok


güçlü yapışkanlık (strong persistence) gösteren zaman
serilerinin regresyonda kullanılması, bizi, CLM
varsayımlarının ihlal edilmesi durumunda çok yanıltıcı
sonuçlara götürebilir.
• Buna sahte (spurious) regresyon sorunu denir. Bu konu
CH. 18 de ayrıntılı biçimde işlenmektedir.
• Bu nedenle, birim kök (unit root) süreçlerini önce zayıf
bağımlı (weakly dependent) hale dönüştürecek, sonra
regresyonda kullanacağız.
• Weakly dependent süreçlere “sıfırıncı dereceden entegre”
(integrated of order zero) seri denir ve I(0) diye gösterilir.
Bu serileri doğrudan regresyonda kullanabiliriz. Bu serilerin
ortalamaları standart merkezi limit teoremlerini sağlar. 51
• Rassal yürüyüş (random walk) gibi birim kök süreçleri
“birinci derceden entegre”dirler ve I(1) diye
gösterilirler. Bu serilerin 1.ci farkı (first difference)
“sıfırıncı dereceden entegre” seridir, I(0).
• (11.20) deki RW süreci: y(t) = y(t-1) + e(t) . Her iki
taraftan y(t-1) ‘i çıkarırsak serinin 1.ci farkını buluruz :
∆y(t) = y(t) – y(t-1) = e(t), t=2,3,.... (11.24). Bu bir
I(0) seridir.
• Pek çok ekonomik zaman serileri kesin pozitiftir
(strictly positive) ve logaritmik olarak 1.ci dereceden
entegredirler, I(1). Bu tür serilerin 1.cil farklarını
regresyonda kullanacağız :
∆log(y(t)) =Log(y(t)) – Log(y(t-1)).
• Yani, logaritmik hali I(1) olan değişkenlerin büyüme
hızları I(0) dır ve regresyonda bunları kullanacağız.52
• I(1) serinin regresyonda kullanmadan önce farkının
alınması serideki zaman trendini de bertaraf eder.
Örneğin, trent içeren şu seriyi ele alalım:
• y(t) = γ(o) + γ1.t + v(t)
• Bu seriyi t-1 dönemi için yazalım :
• y(t-1) = γ(o) + γ1.(t-1) + v(t-1)
• ve ikisinin farkını alalım :
• ∆y(t) = y(t) – y(t-1) = γ1 + ∆v(t).
• Bu son ifadenin beklenen değerini alalım :
• E[∆y(t)] = γ1 + E[∆v(t)] = . γ1.
• Yani, E[∆y(t)] bir sabite eşittir. Demek ki, trent içeren
bir serinin 1.cil farkının ortalaması sabite eşittir ve biz
bu durağan seriyi artık regresyonda kullanabiliriz. 53
• ► BİR SERİNİN I(1) YA DA I(0) OLDUĞUNA NASIL
KARAR VERİRİZ ?
• Bunun için birim kök testleri geliştirilmiştir. Bunlar
CH 18’de ele alınacaktır.
• Bu testlerin dışında bir çok informal yöntemler
bulunmaktadır. Örneğin, AR(1) sürecinde ρ1 katsayısı
mutlak olarak 1’den küçükse süreç I(0), bire eşitse I(1)
olacaktır.
• ρ1= corr [y(t), y(t-1)] olduğu için y(t) ve y(t-1) serileri
arasındaki örnek korelasyonundan ρ1 tahmin edilir ve
karar verilir. corr [y(t), y(t-1)], y(t) serisinin “1.ci sıra
otokorelasyonu”dur (first order autocorrelation).
• │ρ1│<0 iken, ρ1hat, kitle parametresi ρ1’in tutarlı
ancak sapmalı bir tahmin edicisidir. 54
• Bilinmeyen ρ1 için örnek değerlerinden bir güven
aralığı tesis edip bu aralığın 1’i içerip içermediğine
bakabiliriz.
• Ancak, sorun şudur : Bilinmeyen kitle parametresi ρ1
‘in 1’e yakın değerler alması durumunda ρ1hat’in
örnek dağılımı oldukça farklı çıkmakta ve ρ1hat aşağı
doğru büyük bir sapma göstermektedir.
• Pratikte çoğu kez ρ1hat’in 0.90 ve üzerinde çıkması
serinin birincil farkının alınması için yeterli bir sebep
olarak görülür. Bazıları bu oranı 0.8’e kadar
indirebilmektedirler.
• Seride trent varsa önce bu trendi alıp ρ1hat’i daha
sonra tahmin etmek gerek. Trent ρ1hat’in olduğundan
yüksek (overestimated) çıkmasına sebep olur. 55
56
57
58
Yıldız Teknik Üniversitesi
İktisat Bölümü
Ekonometri II Ders Notları
Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A
Modern Approach, 2nd. ed., 2002, Thomson Learning.

Ch. 12:
Zaman Serisi Regresyonlarında Ardışık
Bağıntı (Serial Correlation)
ve Değişen Varyans
• Bölüm 11’de gördüğümüz gibi, herhangi bir
modelin dinamik özellikleri doğru belirlendiği
takdirde hata teriminde ardışık bağıntının
(otokorelasyonun) olmaması gerekir.
• Bununla beraber bazı statik modellerde ve FDLM
modellerinde spesifikasyon hatası olmasa bile hata
terimlerinde otokorelasyon olabileceğini gördük.
•Bu bölümde “ardışık bağıntı” nın (serial
correlation) nelere yol açacağını ve ne tür önlemler
alabileceğimizi göreceğiz.
Bölüm 12 Planı
• Altbölüm 12.1 de hata teriminde ardışık bağıntı varken
OLS tahmin edicilerin özelliklerini göreceğiz.
• Altbölüm 12.2 de ardışık bağıntı testlerini göreceğiz.
Testler, açıklayıcı değişkenler kesin dışsal (strictly
exogenous) iken geçerli olan testleri ve asimptotik
olarak geçerli testleri kapsayacaktır.
• Altbölüm 12.3 de x’ler kesin dışsal iken serial
correlation ‘i nasıl gidereceğimizi göreceğiz.
• Altbölüm 12.4 de farkı alınmış seriler kullanıldığında
ardışık bağıntının nasıl ortadan kalktığını
inceleyeceğiz.
• Altbölüm 12.5 de ardışık bağıntı varken OLS standart
hataları ve test istatistiklerinin nasıl düzeltileceği
konusunu ele alacağız. 3
• ► Hata terimlerinde ardışık bağıntı (serial correlation)
varken OLS tahmin edicilerinin özellikleri nasıldır?
• CH 10’da TS.1- TS.3 varsayımları altında OLS ‘nin
sapmasız olduğunu gördük. Burada sapmasızlığı
sağlayan x’lerin kesin dışsal (strictly exogenous)
oluşuydu. Artıklarda otokorelasyon olması önemli
değildi.
• Değişen varyans OLS t.e.nin sapmasızlığına zarar
vermiyordu. Benzer şekilde kesin dışsallık altında
serial correlation da sapmasızlığı zedelemez.
• CH 11 de kesin dışsallık varsayımının yerine “verinin
zayıf bağımlı (weakly dependent) olması” koşulunu
koyarak yumuşattık. Bu halde OLS sapmasız olmasa
bile tutarlı (consistent) oluyordu ve bu sonuç ardışık
bağımlılık ‘tan etkilenmiyordu.
4
►Etkinlik (efficiency) ve hipotez testleri
• Teorem 10.4 (Gauss-Markov teoremi) BLUE için hem
homoscedasticity hem de “hatalarda ardışık bağıntı
olmaması” koşulunu getiriyordu. O halde, hata
teriminde otokorelasyon olması durumunda OLS
tahmin edicileri artık BLUE değildir. Test istatistikleri
ve se’ler asimptotik olarak bile geçerli değildir.
• Bunu, Gauss-Markov varsayımlarının ilk 4 ‘ü geçerli ve
artıklar AR(1) süreci izliyor iken OLS tahmin edicilerin
varyansını hesaplayarak gösterebiliriz.

5
• e(t), sıfır ortalamalı ve sabit varyanslı ilişkisiz bir rassal
değişkendir (uncorrelated random variable). (12.2),
daha önce gördüğümüz gibi kararlılık (stability)
koşuludur.
• Basit bir regresyonda β1 eğim katsayısının OLS
tahmin edicisini şöyle yazabiliriz :

6
• (12.4) de ilk terim Gauss-Markov varsayımları altında
ρ=0 durumunda ki standart OLS varyansıdır. Eğer
serial correlaton varsa (ρ≠ o) (12.4) de ikinci terimi
ihmal etmemiz varyans tahmininde sapmaya yol
açacaktır. 7
• Pek çok ekonomik seride ρ>0 ve x’ler zaman
içinde kendi geçmişleriyle pozitif yönde ilişkili
olduğu için (12.4) deki ikinci terimin ihmal
edilmesi varyansın olduğundan daha düşük
tahmin edilmesine (underestimation) yol
açacaktır.
• Betaşapkaların se’leri bu varyansların kare
köküne eşit oluğu için varyansdaki sapma tüm
test istatistiklerini(t, F, LM) geçersiz kılacaktır.
• Düşük hesaplanan varyans, daha yüksek t
değerleri demek olduğu için, aslında sıfırdan
farklı olmayan katsayıların anlamlı imiş gibi
çıkmalarına sebep olacktır.
8
• Ekonometri kitapları çoğu kez “regresyonda gecikmeli bağımlı
değişken varsa ve hata terimleri otokorelasyon içeriyorsa OLS
tutarsızdır” şeklinde ifadeler içerir. Bu çok muğlak bir ifadedir
ve doğru değildir. Daha kesin (precise) bir ifade bulmamız
gerekir.

9
• Burada {u(t)} nin otokorelasyona sahip olmasını
yasaklayan bir koşul yoktur.
• Koşul (12.7) u(t) ile y(t-1)’in ilişkisiz olması gerektiğini
söylüyor, ancak u(t) ile y(t-2) ilişkili olabilir.
• u(t-1) = y(t-1) – βo –β1.y(t-2) olduğu için
Cov [u(t), u(t-1)] = - β1 Cov [u(t),y(t-2)]
• ‘ye eşittir ve sıfır olması için bir zorunluluk yoktur.
• Yani, hata terimlerinin serial correlation içerdiği ve
y(t-1) ‘in bağımsız değişken olduğu (12.6) daki
regresyonda OLS betaları tutarlıdır (consistent).
Çünkü bu betalar (12.5) deki koşullu beklenen değer
denkleminin parametreleridir.
• Bu durumda serial correlation varyansın sapmalı
çıkmasına ve test istatistiklerinin geçersiz olmasına yol
açacak, ancak tutarlılığı (consistency)
etkilemeyecektir.
10
• Peki, y(t-1) ‘in açıklayıcı değişken olarak yer aldığı ve
artıkların otokorelasyon içerdiği bir regresyonda beta
katsayıları ne zaman tutarsız (inconsistent) olacaktır ?
• (12.6) daki regresyonda u(t)’nin (12.1) deki gibi bir
AR(1) süreci izlemesi durumunda OLS betaşapkaları
tutarsız olacaktır.

11
• Ancak, burada şu nokta gözden kaçmamalı : Eğer
(12.6) da u(t) AR(1) süreci izliyorsa, bu, y(t) nin bir
AR(2) süreci izlediğini, dolayısıyla da (12.6) modelinde
spesifikasyon hatası olduğunu gösterir. Bunu (12.6) ile
(12.1) ‘i birleştirerek görebiliriz :

12
• AR(2) modelinin kararlılık (stability) koşulları (Section
12.3 de göreceğiz) altında, (12.9) un OLS tahminleri
tutarlı (consistent) ve asimptotik olarak normal
dağılmış tahmin edicilerdir.
• Demek ki, regresyona hem gecikmeli bağımlı
değişken koyup hem de hataların belli bir model
izlediğini varsaydığımız durumlarda çok dikkatli
olmalıyız. Aksi halde, tutarsız tahmin ediciler elde
edebiliriz.
• Dinamik modellerde hata teriminin serial correlation
içermesi çoğu kez modelimizin eksik
spesifikasyonuna delalet eder.
• Yukarıdaki örnekte (12.6) daki regresyona y(t-2)
değişkenini ekleyince sorun kalmadı.
13
Otokorelasyon Testleri
• İlk önce x’lerin kesin dışsal (strictly exogenous)
olduğu durumda çoklu regresyonda hata terimlerinin
serial correlation içerip içermediğini teşhise yönelik
çeşitli testler göreceğiz.
• Kesin dışsallık, u(t)’nin x’lerin tüm dönemlere ait
(geçmiş, şimdiki zaman ve gelecek) değerleriyle
ilişkisiz olduğu anlamına geliyordu. Dolayısıyla,
gecikmeli bağımlı değişken kullanılan modellere
bu testler uygulanamaz.
► (i) u(t) AR(1) izlesin ve x’ler kesin dışsal :
• Artık terimler çok farklı biçimde otokorelasyon
gösterebilir. En basit model, artıkların (12.1) ve (12.2)
deki gibi AR(1) süreci izlemeleri halidir.
14
• Kesin dışsallık varsayımı dolayısıyla u(t)’nin beklenen
değeri x’lerin tüm geçmiş, cari ve gelecek değerlerine
koşullu olarak sıfırdır :

15
16
17
18
• Durbin-Watson (1950), CLM varsayımları altında
DW istatistiğinin dağılımını türetti.
• Hata terimlerinin Normal dağıldığı varsayımı da
dahil tüm CLM varsayımlarının sağlanması
gerekmektedir.
• Orijinal regresyonda sabit terim (intercept) olmak
zorundadır.
• Yine, regresyonda açıklayıcı değişkenler arasında
gecikmeli bağımlı değişken, y(t-1) gibi,
olmayacakır.
• Kritik değerler gözlem sayısı (n) ve x sayısına (k’)
göre değişen alt (dL) ve üst (dU) limitlerden
oluşmaktadır.
19
20
21
• Açıklayıcı değişkenler kesin dışsal (strictly
exogenous) değilse, bu durumda herhangi bir x(tj)
u(t-1) ile ilişkili olabileceğinden ne (12.14) deki t testi
ne de DW testi geçerli olacaktır.
• Hatta büyük örneklerde bile bunlar geçerli
olmayacaktır.
• Kesin dışsallığın olmadığı modellere en iyi örnek
gecikmeli bağımlı değişkenlerin, y(t-1), bulunduğu
modellerdir. Bu modelde y(t-1) ile u(t-1) açıktır ki ilişkili
olacaklardır.
• x’lerden bazılarının kesin dışsal olmadığı durumda
Durbin’in şu alternatif testi uygulanır :
22
23
24
25
26
27
28
• Artıklar AR(1) süreci izliyor ve değişkenlerimiz kesin
dışsal iseler ardışık bağıntı durumunda test
istatistiklerinde bazı düzeltmeler yapabiliriz.

29
30
31
32
33
34
35
36
37

You might also like