Professional Documents
Culture Documents
BASKINonparametrik Regresyon Analizi 1
BASKINonparametrik Regresyon Analizi 1
BASKINonparametrik Regresyon Analizi 1
Dursun Aydın
Ersin Yılmaz
NONPARAMETRİK REGRESYON ANALİZİ:
Farklı Yaklaşımlar ve R Hesaplamaları
Dursun Aydın, Ersin Yılmaz
Genel Dağıtım
ATLAS AKADEMİK BASIM YAYIN DAĞITIM TİC. LTD. ŞTİ.
Adres: Bahçekapı Mh. 2465 Sk. Oto Sanayi Sitesi No:7 Bodrum Kat, Şaşmaz/ANKARA
Telefon: +90 312 278 50 77 - Faks: 0 312 278 21 65
Sipariş: siparis@nobelyayin.com- E-Satış: www.nobelkitap.com - esatis@nobelkitap.com
www.atlaskitap.com - info@atlaskitap.com
Dağıtım ve Satış Noktaları: Alfa, Kırmızı Kedi, Arkadaş, D&R, Dost, Kika, Kitapsan, Nezih, Odak, Pandora, Prefix, Remzi
Baskı ve Cilt: Meteksan Matbaacılık ve Teknik Sanayi Tic. Anonim Şirketi / Sertifika No.: 46519
Beytepe Köy Yolu No.: 3 06800 Bilkent-Çankaya/ANKARA
ÖN SÖZ
iii
Nonparametrik yaklaşımlara dair temel kavramların derin-
lemesine anlaşılmasını sağlayabilmek.
Düzleştirme yöntemlerinin teknik yönlerinin, teorik çıkar-
samalarla birlikte kavranmasına yardımcı olmak.
Nonparametrik regresyon modellerinin pratikte tahmin
edilmesine ve yorumlanabilmesine katkı sağlamak.
Kitap boyunca anlatılan düzleştirme yöntemleri ve bu yön-
temler için kritik öneme sahip düzeltme parametrelerinin
seçimi konusunda R programında kullanılabilecek araçları
tanıtmak ve nasıl çalıştıklarını göstermek.
Simülasyonlar ve gerçek veri örnekleriyle nonparametrik
regresyon modellerinin veri setleri üzerinde nasıl çalıştığını
göstermek.
Prof. Dr. Dursun Aydın
Arş. Gör. Ersin Yılmaz
iv
İÇİNDEKİLER
GİRİŞ...................................................................................................... 1
Bölüm I
DÜZLEŞTİRME VE BAZI KAVRAMLAR...................................................... 5
1.1. Düzleştirme Kavramı .................................................................. 5
1.2. Verilerin Stokastik Doğası ......................................................... 11
1.3. Düzleştirme Sürecinde Karşılaşılan Zorluklar ............................. 13
1.4. Yan-Varyans Dengesi ................................................................ 15
Bölüm II
YOĞUNLUK TAHMİNİ........................................................................... 19
2.1. Giriş ......................................................................................... 19
2.2. Ampirik Kümülatif Dağılım Fonksiyonu...................................... 20
2.3. Histogram ................................................................................ 23
2.3.1. Histogram Özellikleri ....................................................... 27
2.3.2. Frekans Poligonu ............................................................. 29
2.3.3. R’de Hesaplama .............................................................. 31
2.4. Kernel Yoğunluk Tahmini .......................................................... 32
2.4.1. Kernel Yoğunluk Kestiricilerinin Özellikleri ....................... 36
2.4.2. R’de Hesaplama .............................................................. 42
Bölüm III
DÜZLEŞTİRME TEKNİKLERİ ................................................................... 45
3.1. Giriş ......................................................................................... 45
3.2. k- En Yakın Komşu Düzleştirme ................................................. 46
3.3. Kernel Düzeltme (Regresyonu) ................................................. 53
v
3.4. Lokal Polinomial Ağırlıklı Regresyon .......................................... 58
3.4.1. Lokal Sabit (Local Constant) Kestirici ................................ 64
3.4.2. Lokal Doğrusal (Local Linear) Kestirici .............................. 65
3.5. B-Splayn Düzeltme ................................................................... 73
3.6. Cezalı Splayn Regresyonu ......................................................... 80
3.6.1. Budanmış üstel tabanlı basit doğrusal splayn ................... 80
3.6.2. Budanmış üstel tabanlı p. dereceden splayn .................... 84
3.7. Splayn Düzeltme (smoothing Spline) ......................................... 87
3.7.1. Cezalı En Küçük Kareler Yaklaşımı .................................... 89
3.7.2. Splayn Düzeltmeye Dayalı Tahmin ................................... 90
3.7.3. Tahmin süreci için özel bir durum .................................... 94
Bölüm IV
ÇIKARSAMA....................................................................................... 105
4.1. Çıkarsama .............................................................................. 105
4.2. Yan-Varyans ve Serbestlik Derecesi ......................................... 106
4.3. Uyum Değerleri için Güven Aralıkları....................................... 108
4.4. Hipotez testi ........................................................................... 112
Bölüm V
PERFORMANS ÖLÇÜLERİ VE DÜZLEŞTİRME PARAMETRESİNİN SEÇİMİ .. 117
5.1. Performans Kriterleri .............................................................. 117
5.1.1. Hata Kareler Ortalaması (HKO) ...................................... 120
5.1.2. Diğer performans kriterleri ............................................ 124
5.2. Varyans Tahmini ..................................................................... 127
5.2.1. Artıklara dayalı varyans tahmin edicisi ........................... 128
5.2.2. Farklara dayalı varyans tahmin edicisi ............................ 131
5.3. Düzeltme Parametresi Seçim Kriterleri.................................... 132
5.3.1. Klasik seçim kriterleri..................................................... 133
5.3.2. Riske dayalı seçim kriterleri ........................................... 137
vi
5.3.3. Simülasyon Uygulamaları............................................... 138
5.3.4. Gerçek Veri Uygulamaları .............................................. 146
5.4. Splayn kestiricileri için düğüm seçim yöntemleri .................... 153
DİZİNLER............................................................................................ 163
vii
GİRİŞ
,
sız değişken değerleri ile elde edilen n örneklem büyüklü-
ğüne sahip ikili gözlemlere göre regresyon modeli
aşağıdaki gibi yazılabilir;
= + , = 1, … ,
Burada . regresyon fonksiyonu ve ’ler sıfır ortalama ve
,
arası ilişkiyi bir doğru şekli ile ifade eder ve en küçük kareler yön-
temi ile regresyon katsayıları tahmin edilebilir.
Fakat gerçek veri örneklerinde sıkça karşılaşıldığı üzere ile
arasındaki ilişki genellikle bir doğru ile ifade edilemeyecek şe-
kilde belirsiz olabilmektedir. Şekil 1, bu duruma bir örnek olması
açısından simülasyon verisi ile elde edilmiştir. Açıkça ilişkinin bir
doğru ile temsil edilemeyeceği görülebilir.
1
Nonparametrik Regresyon Analizi
2
Giriş
3
Nonparametrik Regresyon Analizi
4
Bölüm I
5
Nonparametrik Regresyon Analizi
,
İkinci durumda ifade edilen regresyon fonksiyonun tahmin
probleminde gözlem çiflerinden oluşan örneklem verile-
rine göre yanıt gözlemlerinin bir ortalaması açıklayıcı değiş-
keninin aldığı değerler ile aşağıdaki biçimde modellenir:
= | = = + , = 1,2, … , (1.2)
6
Düzleştirme ve Bazı Kavramlar
| =
yandan, . bilinmeyen regresyon fonksiyonu ve
Burada koşullu beklenen değeri belirtir. Diğer
7
Nonparametrik Regresyon Analizi
8
Düzleştirme ve Bazı Kavramlar
Sol üst histogramda çok fazla sayıda kutu varken sol alt his-
togramda çok daha az sayıda kutu vardır. Sağ üst histogram ise
çapraz geçerlilik yöntemi ile seçilen optimum sayıda kutu kulla-
nılmıştır. Sağ alt grafik, kutuların sayısına karşılık tahmin edilen
ortalama kareli hatayı (yanlışlık) gösterir. Bu grafiklerde görülen
eğriler, rüzgâr verisi için tahmin edilen MSE ve kernel yoğunluk
kestiricilerini göstermektedir. Sol üst grafik, optimumun üzerinde
düzleştirmeyi; sağ üst grafik, optimum düzleştirmeyi (çaprak
geçerlilik ile seçilen düzleştirme parametresi); sol alt grafik, op-
timum altında düzleştirilmiş ve sağ alt grafik, düzleştirme para-
metresinin bir fonksiyonu olarak tahmin edilen MSE değerlerini
göstermektedir.
Örnek 1.2 (Parametrik olmayan regresyon): Bir önceki pa-
ragrafta da belirtildiği gibi, ikinci problem regresyon fonksiyo-
nunun tahminidir. Bu durumu açıklayabilmek için simüle motosik-
9
Nonparametrik Regresyon Analizi
, , = 1, … ,
çalışmadan elde edilen motosiklet verileri 133 gözlem içermekte-
dir. Bu noktada analiz, n çift veriye dayalı
anlamda, sağ üst grafik, zamana karşın hız verileri ve CV ile seçi-
len optimum bir h için fonksiyonun kernel regresyon tahminini
gösterirken sol alt grafik, optimum altında bir düzgünleştirmeyi ya
da uyumu ve sağ alt grafik ise optimum üstünde bir düzleştirmeyi
göstermektedir.
10
Düzleştirme ve Bazı Kavramlar
Şekil 1.2: Motosiklet kaza veri seti için farklı bant genişliği değerlerine
göre tahmin eğrileri
11
Nonparametrik Regresyon Analizi
= | = (1.3)
olarak tanımlanır. Eğer | | < ∞ ise, regresyon eğrisi çok iyi ta-
nımlanır. Değişkenlerden ziyade g , bileşik yoğunluk fonsiyo-
nu mevcut ise regresyon eğrisi aşağıdaki gibi ifade edilir:
= 4 g | 5 =4 = | =
67 8,6 96
7 8
(1.4)
+ , 0 ≤ ≤ 1 ve 0 ≤ ≤ 1
Örnek 1.3: Aşağıda verilen bileşik yoğunluk fonksiyonu
g , =:
0, =>? 5@A@B5=
ve X ’in marjinal yoğunluk fonksiyonu,
4 g , 5 = + , 0≤ ≤1
g =C D
0, =>? 5@A@B5=
olarak verildiğini varsayalım. Böylece, yukardaki verilenlere göre
1 1
regresyon eğrisi,
g , 5 + 2 +
=E =E 5 = 3= | =
g 1 1
+ +
2 2
| =
Belirtmek gerekirse ’den ’e bu görüntüleme, koşullu
beklenen fonksiyon adını alır ve çoğunlukla olarak
gösterilir. Bu ifade bize ve ’nin ortalama olarak nasıl ilişkilen-
dirildiğini ifade eder. Buyüzden, temel düşünce fonksiyonunu
(yani, regresyon eğrisini) tahmin etmektir.
Yukarıda belirtildiği gibi, , değişkenlerinin bağımsız,
aynı dağılımlı rassal değişkenler olduğu belirtilmiştir. Ancak, araş-
12
Düzleştirme ve Bazı Kavramlar
değerleri bir !=, G# aralığında eşit olarak dağıtılır. Bunun yanı sıra,
Birçok doğa bilimleri deneylerinde, açıklayıcı değişkenin
13
Nonparametrik Regresyon Analizi
14
Düzleştirme ve Bazı Kavramlar
15
Nonparametrik Regresyon Analizi
ND O , 0 P=O − 0 P
D
(1.6)
şeklinde ifade edilir. Kayıp fonksiyonun ortalaması “risk (loss)”
veya hata kareler ortalaması (mean squared error-MSE) olarak
adlandırılır ve aşağıdaki gibi gösterilir:
QR = SO , 0 P= TOND O , 0 P PU (1.7)
V =? = T0 U− , (1.9)
16
Düzleştirme ve Bazı Kavramlar
ZT 0 Z0 T0 U [+\ T 0
D D D
− U [= − U− ]
= W=A T 0 U + V =? D T 0 U
17
Nonparametrik Regresyon Analizi
18
Bölüm II
YOĞUNLUK TAHMİNİ
2.1. Giriş
b =≤ ≤ G = 4e g 5 =c G −c =
d
(2.1)
19
Nonparametrik Regresyon Analizi
ğerleri j = ,…, k
olsun. Ayrıca j bağımsız ve aynı dağılan
değişkenli bir rassal değişkenin gerçekleşmeleri olan gözlem de-
cl = bl ≤ = ∑ I ≤ (2.2)
değerine 1/ olasılığı
Eşitlik (2.2)’den anlaşıldığı gibi, ’in örnekle uzayındaki her-
hangi bir A kümesi için ECDF her bir
atar:
bl o = ∑ I ∈o (2.3)
20
Yoğunluk Tahmini
Örnek 2.1: Bir zarın 100 kez atılması deneyinde elde edilen
cl
Sonuç Frekans Ampirik Dağılım
( ) ( )
1 13 0.13
2 19 0.19
3 10 0.10
4 17 0.17
5 14 0.14
6 27 0.27
Toplam N =100
Tablo 2.1 Bir zarın 100 kez atılmasın deneyinden alınan bir
örneklemi gösteriyor: Eşitlik (2.3)’e göre, ampirik dağılım 100
cl = 1 = bl ≤1 =∑ 1 = = 0.13. Diğerle-
q q
21
Nonparametrik Regresyon Analizi
22
Yoğunluk Tahmini
→ ∞ iken cl
sılıkta c ’e yakınsar.
olarak yazılabilir. Bu durum gösteriyor ki, ola-
?@x8∈ℝ ycl
e.z
−c y {| 0.
Burada üst simge =. ?, neredeyse mutlak yakınsamayı gösterir.
Bu bölümde esas amaç, , … , örneklem verilerinden c
veya g
mevcut olduğu varsayılan c k = g yoğunluğu, tahmin edilmek is-
fonksiyonlarını tahmin etmektir. Özellikle türevinin
2.3. Histogram
23
Nonparametrik Regresyon Analizi
V = T0, ] , VD = T , ] , … , V} = T , 1]
D }f
} } } }
(2.4)
g$ =T U×T U(2.5)
ˆ‰ ç 9…‹ „ö•†…}†…Ž ze6•z•
€ •‚ƒ‚ ‚ „… ş† ğ
x̂ /ℎ ∈V
histogram kestiricisi,
x̂ D /ℎ ∈ VD
g$ =“
⋮ ⋮
x̂ } /ℎ ∈ V}
(2.6)
g$ = ∑~ – ∈ V~ = ∑~ –O ∈ V~ P = ∑~ –O ∈ V~ P (2.7)
•$‰ }
€ €
24
Yoğunluk Tahmini
!g$ #= = ve W=A!g$ #=
— •$‰ •‰ •‰ f•‰
€ € €˜
(2.8)
olarak tanımlanır.
x̂ ~ x~ 4 g @ 5@ g
d
ℎ
!g$ #= = = e ≅ =g
ℎ ℎ ℎ g
Örnek 2.3 (Gayzer veri seti): Bu veriler ABD’nin Wyoming
şehrinde Yellowstone Ulusal Parkı'ndaki eski sadık Gayzerin pat-
lamaları ve patlamaları arasındaki sürelerinden (dakika olarak) elde
edilmiştir. Bu verisi seti iki değişken üzerinden toplanan 272 göz-
lemden oluşmaktadır (Hardle,1991). Bu değişkenlerden püskürtme
sürelerine ilişkin histogramı ve bundan elde edilen yoğunluk değer-
leri aşağıdaki Şekil 2.2’de gösterilmiştir.
Aralıklar Frekans c g$
[1.5, 2) 55 0.202 0.4044
[2, 2.5) 37 0.338 0.2721
[2.5, 3) 5 0.357 0.0 68
[3, 3.5) 9 0.390 0.0662
[3.5, 4) 34 0.515 0.2500
[4, 4.5) 75 0.790 0.55 5
[4.5, 5) 54 0.989 0.3971
[5, 5.5) 3 1.000 0.0221
25
Nonparametrik Regresyon Analizi
26
Yoğunluk Tahmini
içindeki her 'e g için aynı tahmini atar. Bu aşırı derecede kısıtla-
yıcı görünüyor. İkincisi, histogram sürekli bir fonksiyon değildir,
ancak kutuların sınırlarında atlamalara sahiptir. Histogram sıçrama
noktalarında türevlenebilir değildir ve bunun dışında sıfır türev
vardır. Bu durumda pürüzsüz, sürekli bir pdf tahmin edilmek isten-
diğinde, özellikle istenmeyen bir histogramın pürüzlü görüntüsüne
yol açar.
Yukarda ifade edildiği gibi, histogram kestiricisinin en önemli
özelliği, h ile gösterilen dikdörtgen kutuların genişliğine (veya
eşdeğer olarak dikdörtgen kutuların sayısı) bağlıdır. Optimum bir
27
Nonparametrik Regresyon Analizi
28
Yoğunluk Tahmini
x~
= Og$ P = E!g$ #−g = −g
ℎ
= gk `ℎ − 2O − G~ Pa + ¤ ℎ D , ∈ G~ , G~Ÿ #
D
(2.9)
W=AOg$ P= +¤
7 8 f
€
(2.10)
QR Og$ P= ¥Og$ −g P ¦= = D Og
$ P + W=AOg$ P
D
= + `ℎ − 2O − G~ Pa + ¤ + ¤ ℎq
7 8 7§ 8 ˜ D f
€ ¨
(2.11)
29
Nonparametrik Regresyon Analizi
O…‰ Ÿ…‰©ªP
5~ = , • = 1,2, … , «, 5 = ve 5•Ÿ =
…ª f€ …¬©ª Ÿ€
D D D
g$ = ` ~ 5~Ÿ − ~Ÿ 5~ + O ~Ÿ + ~P a, ∈ ` ~, ~Ÿ a
€˜
(2.12)
olarak tanımlanır. Burada = •Ÿ ≡ 0. Ayrıca, frekans poligo-
nu altında kalan bölgenin alanının bire eşit olduğunu belirtmekte
fayda vardır.
Örnek 2.4 (Gayzer veri seti): Frekans poligonunun oluşumu
göstermek için önceki bölümde verilen Gayzer veri seti dikkate
alınmıştır. Bu veri seti için histogramlara dayalı frekans poligonu-
nun oluşumlarını gösteren örnekler Şekil 2.4’te gösterilmiştir. Şekil
2.4’te görüldüğü gibi, sonuçta elde edilen her bir yoğunluk tahmi-
ni, basitliğini ve yorumlama kolaylığını koruyarak yoğunluğun
histogramdan daha estetik olarak hoş bir gösterimini sağlar.
30
Yoğunluk Tahmini
31
Nonparametrik Regresyon Analizi
1
nel ”,
« = ™ x T− U
· 2¸ 2
olarak tanımlanır.
32
Yoğunluk Tahmini
(1962), g
Klasik bir yaklaşım olarak Rosenblatt (1956) ve Parzen
fonksiyonunu tahmin etmek için (2.13) denklemini
«T U
8f8¹
resi belirler. Bu konuyu açıklamak için bir grafiksel gösterim Şekil
€ €
2.5’te verilmiştir. Burada 7 veri noktasına karşı gelen
= −1.3, … . , º = 1.9
Belirtmek gerekirse Şekil 2.5, Eşitlik (2.11)’de verilen kernel
33
Nonparametrik Regresyon Analizi
34
Yoğunluk Tahmini
@ ∈ !−1, +1#
viii. Cos kernel: « @ = ¨ ¿À? T D @U , @ ∈ !−1, +1#
¼ ¼
|Á|
ix. Silverman kernel: « @ = D ™ sin T + U
f |‚| ¼
√˜
√D ¨
35
Nonparametrik Regresyon Analizi
1 3 − D −
g$ = ë @ = à :1 − T U Ä I TÅ Å ≤ 1U 2.14
ℎ 4 ℎ ℎ ℎ
36
Yoğunluk Tahmini
lar.
(iii.) Fonksiyonun eğrisinin altındaki alan bire eşit olmalıdır.
(iv.) Beklenen değeri sıfır ve sabit varyanslı gerçek bir fonksi-
yondur.
Bu bölümde, kernel yoğunluk kestiricinin güvenilir ve pratik
1 − 1 −
!g$ #= Ã \« T U] = Ã \« T U]
ℎ ℎ ℎ ℎ
1
= Ã O«€ − P = !«€ −x #
1 −@
= E«T U g @ 5@
ℎ ℎ
= E« r g − rℎ 5r 2.15
37
Nonparametrik Regresyon Analizi
edilebilir:
ℎ D kk
V =?!g$ #= g h•D + À ℎ D 2.17
2
Burada h•D = 4 r D « r 5r.
Bu bilgilerden sonra tahmin edilen kernel yoğunluk fonksiyo-
nun varyansı, (2.15)'te verilen benzer adımlar kullanılarak hesapla-
nabilir:
38
Yoğunluk Tahmini
1
W=A!g$ # = W=A Ê Ã «€ − Ë
1 1
= D
à W=AO«€ − P= W=AO«€ − P
1
= O `«€D − a− !«€ − # DP
1 1 1 −@
Burada
O `«€D − aP = E «D T U g @ 5@
ℎ D ℎ
!«€ #=g
ve
− +À ℎ
1 1
kernel yoğunluk fonksiyonun varyansı, şu şekilde elde edilebilir:
39
Nonparametrik Regresyon Analizi
8¹f8‰ D
Burada o = ´√D¼ ve V = ™ x X− D T ´
U Y. Bu değerlerinin
hesaplanması sonucu elde edilen bilgiler aşağıda verilen tabloda
gösterilmiştir.
~ o V « @ ~ ve « @ , kernel eğrisini
=o×V görselleştirmek için aşağıdaki
şekilde verilmiştir.
10 35 0.079809 3.72665e-06 2.97419e-07
11 35 0.079809 9.9295e-06 7.92461e-07
12 35 0.079809 2.54193e-05 2.02868e-06
⋮ ⋮ ⋮ ⋮ ⋮
70 35 0.079809 2.74879e-43 2.19377e-44
Toplam 1
g$ =
~ « = 35 « = 40 « = 55 ∑q «
D q q
⋮ ⋮ ⋮ ⋮ ⋮
için kernel eğrileri
40
Yoğunluk Tahmini
1 1 8¹f8‰ ˜
« = Ã ™ D €
f T U
~
ℎ√2¸
41
Nonparametrik Regresyon Analizi
R-Kodları:
data <- c(35,50,55,70)
plot(NA,NA,xlim = c(10,100),ylim = c(0,0.035),xlab =
'X',ylab = 'K = [density]')
h = 5
kernelpoints <- seq(10,90,1)
kde <- NULL
for(i in 1:length(data)){
z <- (kernelpoints-data[i])/h
multi <- 1/(sqrt(2*pi))
kerneld <- ((multi)*exp(-0.5 *
z^2))/(length(data)*h)
lines(kernelpoints,kerneld, lwd = 3)
kde <- cbind(kde,kerneld)
}
kde_sum<- rowSums(kde)
lines(kernelpoints,kde_sum, lwd = 3, col = 'red')
grid(20,20)
42
Yoğunluk Tahmini
43
Nonparametrik Regresyon Analizi
lerin farklı bant genişliği (R’de default olarak yer alan) seçim kri-
terlerince belirlenen düzleştirme parametreleri için normal (Gaus-
sian) kernel yoğunlukları aşağıdaki Şekil 2.8’de verilmiştir.
elde edilir. Ancak veri yapısı cl fonksiyonun grafiği ile zor in-
44
Bölüm III
DÜZLEŞTİRME TEKNİKLERİ
3.1. Giriş
Düzleştirme teknikleri (smoothing techniques), farklı ölçüm-
ler arasında fonksiyonel bir ilişki bulmaya çalışır. Standart (para-
metrik) regresyon ifadesinde olduğu gibi, bu ortamdaki verilerin
bir ya da daha fazla açıklayıcı değişken ve bir bağımlı değişken
ölçümlerinden oluştuğu varsayılır. Standart regresyon teknikleri,
bağımsız ve bağımlı değişkenler arasındaki ilişkiyi tanımlamak
için bir doğru denklemi şeklinde fonksiyonel bir eğriyi kullanırlar.
Düzleştirme teknikleri ise uyum eğrisinin şeklini belirtmek için
kendileri de veri noktaları sağlayan daha esnek yaklaşımlardır.
Uygulamada yaygın kullanılan bazı düzeltme teknikleri aşağıda
verilmiştir:
i.) k. En Yakın Komşu Düzleştirme ya da Regresyonu (K-
Nearest Neighbors Smoothing)
ii.) Kernel (Kernel) Düzleştirme (Kernel Smoothing)
iii.) Lokal Polinom Düzleştirme (Local Polinomial Smoothing)
iv.) B-Splayn Düzleştirme (B-Spline Smoothing)
v.) Cezalı Splayn Düzleştirme (Penalized Spline Smoothing)
vi.) Splayn Düzleştirme (Smoothing Spline)
Tüm bu tekniklerde, düzeltme parametresi olarak bilinen bir
miktarın belirtilmesi gerekir. Bu miktar yardımıyla yukarıda sırala-
nan tekniklerden herhangi birisiyle elde edilen uyum eğrisi, aşağı-
da tanımlanan vektörle belirlenir:
45
Nonparametrik Regresyon Analizi
k
Ó0Ô =T0 ,…, 0 U = ÕÔ Ö = Ö$Ô (3.1)
46
Düzleştirme Teknikleri
, ,…, ,
ki ilişkiyi açıklamak için, = + , = 1,2, … , parametrik
Varsayalım ki gözlem değerleri arasında-
, ∈ Ú8 ?™,
Ù‹ = C‹ Û
0 =>? 5@A@B@¶=A5=
(3.4)
47
Nonparametrik Regresyon Analizi
bu yüzden, Ú8 = Ú¨ = 1, 3 ,4 ve böylece
nini hesaplayalım. ’e en yakın k gözlemleri son üç veri noktasıdır,
1 1
Þ‹ = 2 = , Þ‹D = 2 = , Þ‹q = 2
3 3
1
= , Þ‹¨ = 4 = 0 ve Þ‹´ =4 =0
3
48
Düzleştirme Teknikleri
µ =‖ − ‖=· − ′ − (3.5)
Şeklinde ifade edilir. µ uzaklıkları 0 ≤ µ ≤ µ D ≤ ⋯ ≤
µ olarak sıralanır ve bu sıralı istatistiklere karşı gelen gözlemler
,
’e en yakın gözlemler olarak belrlenir. Diğer bir ifadeyle, bu
, … ,
uzaklıklar ile sıralanan ’e en yakın gözlemler gözlemler,
D olarak ifade edilir. Belirtmek gerekirse ’in k’ıncı en
yakın komşusu ‹ sembolü ile gösterilir. Böylece, verilen bir k
için, ve ‹ arsındaki Öklid uzaklığı,
µ‹ =à ‹ − à = KS 8 (3.6)
49
Nonparametrik Regresyon Analizi
0 =∑ Ù X áâ
‖8f8¹‖
Y ã∑ Ù X áâ
‖8f8¹‖
Y
± ±
(3.8)
50
Düzleştirme Teknikleri
51
Nonparametrik Regresyon Analizi
,
den 100 birimlik yanıt değişkeninin değerleri elde edilmiştir. Böy-
lece, değişken çiftine ilişkin benzetim verisi oluşturuldu.
Farklı komşu sayıları için bu değişken çifti arasındaki ilişkiyi gös-
teren k-NN tahminleri, Şekil 3.3’te gösterilmiştir.
52
Düzleştirme Teknikleri
$= 0 = ÃÙ 3.9
−
değerleri göstermek üzere, şu biçimde hesaplanır:
«T U « @
Ù€ = ℎ
− = 3.10
∑ «T U ∑« @
ℎ
Burada, : Gözlemlerin sayısı (örneklem hacmi),
«: Seçilen kernel fonksiyonu (bkz., Bölüm 3.4),
ℎ: Bir bant genişliği ya da düzeltme parametresi ve
Ù€ =Ù , : − uzaklığına bağlı ve .gözlem
’ye atanan ağırlık olarak tanımlanır.
53
Nonparametrik Regresyon Analizi
−
kernel tahmini (düzelticisi) aşağıdaki şekli alır:
∑ «T U ∑ « @
0€ = ℎ
− = 3.11
∑ «T U ∑ « @
ℎ
(3.11) tahmin genellikle, “Nadarya-Watson kestiricisi” ola-
rak adlandırılır.
Özel olarak Gaussian (normal) Kernel fonksiyonu kullanıla-
cak olursa fonksiyon şu biçimde ifade edilir:
1 1 − D
« @ = exp −@D = exp ç− T U è
~
√2¸ √2¸ ℎ
Böylece, (3.11) eşitliğine göre kernel tahmini,
54
Düzleştirme Teknikleri
− ~
∑~ «T U ~ ∑« @
ℎ
$ = 0 = − ~ = ∑« @
∑~ « T U
ℎ
1 − ~ D
∑~ exp Z− T U [ ~
√2¸ ℎ
= = ÙkÖ
1 − ~ D
∑~ exp Z− T U [
√2¸ ℎ
$ = 0
regresyon fonksiyonunun noktasındaki kernel tahmini,
= ∑~ Ù~ ~ = í~k Ö, = 1,2, … , 3.13
Örneğin burada noktasındaki yanıt gözleminin kernel tah-
mini,
0 = í~k Ö = Ù …Ù Ê ⋮ Ë= $
55
Nonparametrik Regresyon Analizi
Ù … Ù
0
⎛ Ù⋮ … ⋮
… Ù ⎞
Ó0€ = ñ ⋮ ò =⎜ ⎟ Ê⋮Ë = é€ Ö = Ö$
⋮ … ⋮
×
0
(3.14)
Ù … Ù ×
⎝ ⎠
×
×
56
Düzleştirme Teknikleri
library(rdd)
age<-jasa$age
stime<-jasa$futime
stime[15]<-1
x<-age
y<-stime
GCV<-0
n<-length(x) #Sample size
#--------------------------------------------
for (i in 1:20){
b<-seq(3,4,length=20)
kernelp<-
ksmooth(x,y,kernel="normal",bandwidth=b[i]) #kernel
estimation
ksyhatp<-kernelp$y
W<-kernelwts(x,0,b[i],kernel="gaussian")
GCV[i]<-((1/n)*((y-
ksyhatp)^2))/(((1/n)*sum(diag(W)))^2)
}
for (j in 1:20){
if (GCV[j]==min(GCV)){
band<-b[i]
}
}
fit<-ksmooth(x,y,kernel="normal",bandwidth = band)
#kernel estimation
ksyhat<-fit$y
plot(x,y,xlab ="Yaş",ylab ="Yaşam Süreleri")
lines(fit, lwd = 2, col = 2)
m <-sum(diag(W))
m=1
mse<-(1/(n-m))*sum(y-ksyhat)^2
mse:21449.54
57
Nonparametrik Regresyon Analizi
set.seed(4)
n <-1000
x <-runif(n,min=0,max=10)
e <-rnorm(n,mean=0,sd=1)
y <-sin(x)+e
m <-sum(diag(W))
m:1
Mse <-(1/(n-m))*sum(y-ksyhat)^2
Mse:0.137306
58
Düzleştirme Teknikleri
da) yerel bir Taylor serisi açılımı kullanarak x. dereceden bir poli-
civarında (komşuluğun-
nom,
59
Nonparametrik Regresyon Analizi
′′
= + k
− + − D
+⋯
2!
•
+ − •
3.15
x!
∑•~
için (3.16) denklemi uygulanabilir değildir. Temel düşünce,
= −
ú ‰ 8û ú ‰ 8û
~! ~ ~!
≅ ∑•~
olarak ayarlamak yani,
~
~ − ~
≅ Ãñ − Ã ~ − ~
ò 3.17
~
60
Düzleştirme Teknikleri
− ~
, • = 0, … , x¡
Uygun bir gösterim sunulursa eşitlik (3.18)’i çözmek kolay
olur. Bu denklemden görüldüğü gibi,
kullanılarak bir matrisi aşağıdaki gibi ifade edilebilir:
1 − … − •
= Ê⋮ ⋮ ⋱ ⋮ Ë
1 − … − •
× •Ÿ
−
şı gelen vektör aşağıdaki gibi elde edilebilir:
T U ⋯ 0
⎛ ℎ ⎞
é=⎜ ⋮ ⋱ ⋮ ⎟, =Ê⋮Ë
−
0 ⋯ T U ×
⎝ ℎ ⎠
61
Nonparametrik Regresyon Analizi
þ€ = éÖ = 0 , 0 , … , 0•
zümü aşağıdaki şekilde bulunur:
ý k
é f k k
(3.20)
62
Düzleştirme Teknikleri
0′′ 0
verilen ifadeye eşdeğerdir:
•
O 0 , 0 , … , 0• P = Ð 0 , 0k , ,…, Ñ
2! x!
0€,• þ €,• =
=ü k k
é f k
éÖ = Ã Þ 3.21
Burada Þ = k k é f k éÖ ve ayrıca k = 1, 0, … ,0 ,
ilk konumda 1 ve aksi durumda 0 olan × x + 1 boyutlu mat-
ris olarak dikkate alınabilir. Tıpkı Nadaraya-Watson gibi, yerel
polinom tahmincisi, yanıtların ağırlıklı doğrusal bir kombinasyo-
nudur.
Eşitlik (3.21)’de verilen lokal polinomial kestirici, doğrusal
bir kestirici olması sebebiyle şu biçimde de yazılabilir:
k
Ó0€,• = €,• Ö = T 0€,• , … , 0€,• U (3.21a)
Burada
1, 0, … ,0 O 8ª é8ª 8ª P 8ª é8ª
k f k
€,• = ⋮
1, 0, … ,0 O 8ª P
f
é8 é8
,
k k
8 8
63
Nonparametrik Regresyon Analizi
−
ÞNR = min à − D
«T U
û ℎ
= min Ã Þ − D
3.22
û
Burada, Þ = «T U ∑ «T U kernel
8ûf8¹ 8ûf8¹
€ €
ağırlıklarını
∑Þ =∑ «T U ∑ «T U = 1. Ayrıca burada
8ûf8¹ 8ûf8¹
gösterir. Daha önceden bilindiği gibi, ağırlıkların toplamı yani,
€ €
= şeklinde bir sabite ayarlanması nedeniye (3.22)’den
elde edilen kestiriciye lokal sabit denir.
Eşitlik (3.22)’deki ÞNR fonksiyonun k
ya göre birinci
türevi sıfıra eşitlenecek olursa
ÞNR
= 2ÃÞ − =0
64
Düzleştirme Teknikleri
ÃÞ = ÃÞ 3.22a
65
Nonparametrik Regresyon Analizi
= + k
− =Ã ~ − ~
~
= + −
−
ÞNR , = min Ã! − + − #D « T U
û, ª ℎ
= min Ã Þ ! − + − #D 3.23
û, ª
Burada,
1 −
= Ê⋮ ⋮ Ë ,ý = X Y ve
1 −
− −
é = 5 =Ý Ð« T U,…,«T UÑ
ℎ ℎ
sırasıyla tasarım matrisi, tahmin edilecek regresyon katsayıları ve
þ€ = éÖ = 0 , 0
mü,
ý k
é f k k
þ€
tahmin etmek için yukarda verilen Taylor serisi kullanıldığı için ý
çük kareler kestiricisi” olarak bilinir. Bilinmeyen foknsiyonunu
66
Düzleştirme Teknikleri
O0 , 0 P=T0 , 0k U
0€, = k k
é f k
éÖ = Ã Þ 3.23¿
Burada
1 0 O 8ª é8ª 8ª P 8ª é8ª
k f k
€, = ⋮
1 0 O 8ª P
f
é8 é8
,
k k
8 8
67
Nonparametrik Regresyon Analizi
68
Düzleştirme Teknikleri
69
Nonparametrik Regresyon Analizi
∑ − 0€ ¡
D
1/
W ℎ =
1− ÜA ¡
D
f
€,•
W ℎ tahminini minimum
siyon tahmininin serbestlik derecesinin bir tahmini) veren serbest-
0€,• = ÃÞ = €,• Ö = k k
é f k
éÖ
olarak belirlenir.
70
Düzleştirme Teknikleri
Şekil 3.7: Şekil 3.6’ya benzer fakat farklı seçim kriterleri ile seçilen
span ayarlı lokal regresyon tahminleri
Şekil 3.7 ve Tablo 3.2’de görüldüğü gibi, GCV kriteri ile seçi-
len span ayarlı lokal polinomial regresyon tahmini, diğerlerine göre
daha küçük MSE ve RMSE değerlerine sahip olması nedeniyle en
iyi performansı gösterdiği söylenebilir.
71
Nonparametrik Regresyon Analizi
72
Düzleştirme Teknikleri
Şekil 3.9: Panellerden (a) bir, (b) iki ve (c) üçüncü derece B-spline ta-
banlarını göstermektedir. Düğümlerin konumları, koyu küçük kare sim-
geleri ile belirtilmiştir.
73
Nonparametrik Regresyon Analizi
= Ã ~ V~
•
, = 1,2, … , 3.24
~
− ~ −
gun şekilde aşağıdaki gibi tanımlanır:
V~ = + V 3.25
• •f ~Ÿ Ÿ •f
~Ÿ• − − ~Ÿ ~Ÿ
~
~ ~Ÿ•Ÿ
74
Düzleştirme Teknikleri
× E ′′ 5
× E ′′ 5 = × Ã OΔ• ~ P
D
~ •Ÿ
~ ~ •Ÿ
75
Nonparametrik Regresyon Analizi
∆D ~ = ∆ O∆ ~P= ∆ ~ − ∆ ~f = ~ − ~f − ~f − ~fD
= ~ − 2 ~f + ~fD
⋮
Δ• ~ = ∆•f ~ − Δ•f ~f (3.26a)
Belirtmek gerekirse (3.26) denkleminde x = 0 için B-Splayna
dayalı ridge regresyon elde edilir. Aynı denklemde × = 0 için sıra-
edilir ve × > 0 için ceza sadece B-Splaynın üst üste gelme kısıtı-
dan en küçük kareler regresyonunun minimizasyon denklemi elde
P <- function(order = 2, k = 7) {
D <- diag(k)
for(i in 1:order)
D <- diff(D)
K <- crossprod(D, D)
return(K)
}
1 −1 0 0 0 0 0
verilir (## Order 1 penalty):
⎡−1 2 −1 0 0 0 0⎤
⎢ 0 −1 2 −1 0 0 0 ⎥⎥
⎢
%=⎢ 0 0 −1 2 −1 0 0⎥
⎢ 0 0 0 −1 2 −1 0⎥
⎢ 0 0 0 0 −1 2 −1⎥
⎣ 0 0 0 0 0 −1 1 ⎦
76
Düzleştirme Teknikleri
bRR = Ö − &ý k
Ö − &ý + ×‖%ý‖D 3.27
Burada ‖. ‖ Öklid normunu gösterir, Ö = ,…, ′ bir × 1
boyutlu yanıt vektörü, &, Eşitlik (3.25) ile tanımlanan ve B-
× 5 -boyutlu bir matris (yani, ) ve ayrıca,
ý= , … , 9 k B-splayn fonksiyonun parametre vektörü, × > 0
splaynları içeren
þ ˆ( = ` 0
þ ˆ( = ý
Ó0ˆ( = &ý ,…, 0
yon fonksiyonun tahmin vektörü aşağıdaki gibi tanımlanır:
a′ (3.29)
Eşitlikler (3.28-3.29) görünen o ki yanıt gözlemlerinin uyum vek-
þ ˆ( = !
Ö$ = Ó0ˆ( = ý
törü ağıdaki gibi elde edilir:
k
+ λ%k %#f k
Ö= ˆ( λ Ö (3.30)
Burada ˆ( λ = ! k
+ λ%k %#f k
, B-splayn için şapka ya da
düzeltme matrisidir.
Örnek 3.8 (Motosiklet verisi): Bu örnek için motosiklet ka-
zası verileri dikkate alınmıştır:
77
Nonparametrik Regresyon Analizi
78
Düzleştirme Teknikleri
79
Nonparametrik Regresyon Analizi
=) = + + ⋯+ +Ã − • Ÿ* + 3.31
• •
• ‹
‹
= + + ∑• − • Ÿ.
düğümlü budanmış üstel tabanlı bir polinom fonksiyon elde edilir:
‹ ‹
. fonksiyonu, (1.2) modelinde yerine yazılacak olursa paramet-
Elde edilen bu
80
Düzleştirme Teknikleri
=+ = + +Ã ‹ − ‹ Ÿ, + 3.32
‹
B )Ã − D
+×à D
‹ * 3.33
‹
Ö= ý+-
yazılabilir.
(3.34)
Burada Ö = , D, … , ′, × 1 boyutlu yanıt vektörü (ba-
81
Nonparametrik Regresyon Analizi
82
Düzleştirme Teknikleri
þ =
mü aşağıdaki şekilde bulunur:
ý k
+ ×% f k
Ö
þ vektörü, cezalı en küçük kareler kestiricisi olarak bilinir.
(3.38)
Bu ý
Böylece, en küçük kareler uyumuna benzer olarak cezalı en küçük
þ=
kareler yöntemiyle elde edilen uyum değerleri vektörü,
Ö$ = ý k
+ ×% f k
Ö= Ö
Burada = k
+ ×% f k , × boyutlu düzeltme matrisi
olarak bilinir. Uyum değerleri vektörü aynı zamanda (3.33) denk-
leminin çözümü olan şu tahmin edilen fonksiyonu sağlar:
•
$ = 0Ô = 0 + 0 +Ã 0 = T 0Ô , … . , 0Ô
k
‹ − ‹ Ÿ U 3.39
‹
1, , − ‹ Ÿ, … , − • Ÿ
83
Nonparametrik Regresyon Analizi
1, , D
, − Ÿ, … ,
D
− D
• Ÿ
01 = !1 D
− D
Ÿ ⋯ − • Ÿ#
D
= + +⋯+ •
D
+Ã •‹ − D
• Ÿ = 0ý
‹
Ö= ý+-
zı varsayalım. Bu model, matris ve vektör formunda,
3.40
biçiminde ifade edilir. Burada matrisi ve ý vektörünün ele-
manları,
84
Düzleştirme Teknikleri
1 ⋯ − ⋯ −
• • •
⎡ • ⎤
⋯
= ⎢⎢1
•⎥
⋯ D− D−
• •
⎥ ve
D D •
⋮ ⋯ ⋮
⎢⋮ ⋯ ⋮ ⋮ ⎥
⎣1 ⋯ •
− • ⋯ − •
•
⎦
ý=O , ,…, •, • ,..., •• P
k
⎣0 … 0 0 ⋯ 1⎦
$ = 0Ô = 0 + 0 + ⋯ + 0•$ + Ã 0•$‹ − ̂‹
•$ •$
Ÿ
‹
k
= T 0Ô , … . , 0Ô þ
U = 0ý
85
Nonparametrik Regresyon Analizi
þ sabitleri sırasıyla x, «, ve ý
þ , ̂ ve ý
Böyle bir yaklaştırmada x̂ , «
bilinmeyen parametrelerin tahminleridir Ayrıca 0 matrisinin i’inci
satırı aşağıdaki biçimde tanımlanabilir:
01 = `1, , D
,…, •
, − •
Ÿ ,⋯, − • Ÿa
•
86
Düzleştirme Teknikleri
diğer önemli şey de 6 ′nin her tek değeri için ( 6 ′nin farklı ve sıralı
seçilmesini gerektirir. Splayn düzeltmede hatırlanması gereken bir
87
Nonparametrik Regresyon Analizi
RRS = Ã − D
=Ã − =+G D
. fonksiyonları
için, doğrusal regresyon modelinde öne sürülen tahmin koşulları
değiştirmeli ve tasarımlarda değişen eğimli
üzerinde hata kareler toplamının minimizasyonunu dikkate alın-
malıdır.
Değişen eğimli bir problem, parametrik regresyon problemi
ile kıyaslandığında daha zor ve karmaşıktır. Böyle bir problem,
. fonksiyonlarının oluşturduğu
D
!=, G# kümesinde (uzayında) hata fonksiyonunun minimizasyo-
üzerinde sürekli olan bütün
88
Düzleştirme Teknikleri
R ,× = 7 − + × 4e 5
D d 8 D
(3.44)
×=0
( üzerinde kısıt yok ) alınırsa tümüyle esnek eğimli bir interpo-
sal regresyon uyumu üretir, buna karşılık
adlandırılır ve , . . . ,
Problem (3.44) için çözüm splayn düzeltme kestiricisi olarak
düğümleri ile bir “doğal kübik splayn”
89
Nonparametrik Regresyon Analizi
y = f (x)
h1 hi hi+1 hn-1
a x1 x2 ... xi xi+1 xi+2 … xn-1 xn b x
fonksiyonun grafiği
90
Düzleştirme Teknikleri
4e 5 = =k R= = Ó′@Ó
d kk D
(3.46)
91
Nonparametrik Regresyon Analizi
⎧¾ ℎ~f = • − 1,
⎪ Oℎ + ℎ~ P , = •,
A~ = q ~f
= 2,3, . . . , − 1 ve • = 2,3, . . . , − 1 (3.46a)
⎨ 0, | −•| ≥ 2
⎪
⎩ ¾ ℎ~ , =•+1
ve
⎧ €‰Eª , = • − 1,
⎪
⎪
− X€ + € Y , = • ,
D~ = = 1,2, . . . , ve • = 2,3, . . . , − 1 (3.46c)
⎨ 0,
‰Eª ‰
| −•| ≥ 2
⎪
⎪ , =•+1
⎩ €‰
1 1 1 1
⎡ − + 0 . . . . 0 ⎤
⎢ℎ ℎ ℎD ℎD ⎥
⎢ 1 1 1 1 ⎥
⎢0 ℎD
− +
ℎD ℎq ℎq
0 . . . . ⎥
⎢ . . . . . . . . . ⎥
G3 = ⎢ . . . . . . . . . ⎥
⎢ . . . . . . . . . ⎥
⎢ 1 1 1 1 ⎥
⎢ . . . . 0 − + 0 ⎥
⎢ ℎ fq ℎ fq ℎ fD ℎ fD ⎥
⎢0 1 1 1 1 ⎥
. . . 0 0 − +
⎣ ℎ fD ℎ fD ℎ f ℎ f ⎦
92
Düzleştirme Teknikleri
Ó0Ô 5 + ×@ = Ö
aşağıdaki denklem sistemi elde edilir:
Ó0Ô = 5 + ×@
çarpılarak, saplayn düzeltmeye dayalı çözüm elde edilir:
f
Ö
Bu eşitlik ile belirlenen Ó0Ô splayn düzeltme kestiricisi, (3.44) veya
(3.49)
×
vektörü ile belirlenir. Böylece y değerlerini f vektörüne görüntü-
= 5 + ×@
leyen boyutlu düzeltme matrisi,
f
Ô
93
Nonparametrik Regresyon Analizi
Ó0 = ⎜ . ⎟ = ya da, Ó0Ô =
⎜ ⎜
⎜ .⎟ Ô Ö.
⎜ . ⎟
⎟ ⎟
Ô ×
.
(3.51)
.
⎝ 0Ô ⎠ ⎝ ⎠ ×
×
zª ⋯ zM
IJJJJKJJJJL
⋯
1, = ?~ ?™
⋮
å= Ê ⋮ ⋱ ⋮ Ë = å~ = X Y
… 0, 5 ğ™A 5@A@B¶=A5=
94
Düzleştirme Teknikleri
interpolasyonuna bağlı, 4 8 D
5 fonksiyonunun minimum
ve fonksiyonunun
95
Nonparametrik Regresyon Analizi
bNR , Ó
= Ö k Ö − Ö k å Ó − Ó k å k Ö + Ó k å k å + ×f 'K f
NÓ
= Ö k Ö − 2Ö k å Ó + Ó k å k åÓ + ×f 'K f
= −2å′Ö Ó + Ó D å k å + ×Ó D K=0
bulunur. Gerekli cebirsel işlemlerden sonra,
Ó å k å + ×K = å′Ö (3.53)
olarak elde edilir. Eşitlik (3.53)’dan ? <. . . < ? koşulunu sağla-
yan (yani, farklı ve sıralı) düğüm noktalarına karşı gelen gelen
uyum vektörü,
Ó0 = å k å + ×K f
å k Ö = 0 O?~ P, • = 1,2, … , D
ve böylece , . . . , düğüm noktaları için semiparametrik modelin
0 = OåÓ0P = å å k å + ×K
parametrik olmayan bileşenine karşı gelen uyum değerleri vektörü,
f
å k Ö = OÔ Ö
OÔ = å å k å + ×K
zeltme matrisi (smoothing matrix),
f
åk (3.54)
96
Düzleştirme Teknikleri
97
Nonparametrik Regresyon Analizi
= ? 2¸ şeklinde ta-
açıklayıcı değişkeni [0,1] aralığında farklı ve sıralı olarak elde
= + , modelinden üretil-
edilmiştir. Bilinmeyen fonksiyon
set.seed(1)
n <- 100
x <- seq(0, 1, length.out= n)
fx <- sin(2*pi*x)
# generate noisy data
y <- fx + rnorm(n, 0,sd = 0.5)
# fit using ss
mod.ss <- ss(x, y, nknots = 10)
mod.ss
# fit using smooth.spline
mod.smsp <- smooth.spline(x, y, nknots = 10)
mod.smsp
98
Düzleştirme Teknikleri
99
Nonparametrik Regresyon Analizi
Call:
Residuals:
Min 1Q Median 3Q Max
-0.71220 -0.16465 0.00119 0.17462 0.63203
Şekil 3.16: Koyu çizgi gerçek ’in eğrisini gösterirken gri gölgeli alan
ise bu fonksiyonu için % 95 "güven aralığını" göstermektedir.
100
Düzleştirme Teknikleri
Şekil 3.17: İlk grafik çok küçük düzeltme parametresine karşılık gelen
bir interpolasyonu, ortadaki grafik GCV kriteri ile seçilen düzeltme
ğı, son grafik büyük bir düzeltme parametresi yani, × = 100 için
parametresi için splayn düzeltme tahminini ve onun %95 güven aralı-
101
Nonparametrik Regresyon Analizi
library(npreg)
n <- 101
x <- seq(0, 1, length.out= n)
fx <- sin(2*pi*x)
set.seed(1)
y <- fx + rnorm(n,0, sd = 0.3)
# subplots (1 x 3)
par(mfrow = c(1,3))
# GCV selection
mod.ss <- ss(x, y, all.knots = TRUE)
plot(mod.ss, ylim = c(-1.75, 1.75))
points(x, y)
×→∞ R ,× =
açar.
7 − +× 4e 5 kriter fonksiyonu
d
Düzeltme parametresi iken
D 8 D
102
Düzleştirme Teknikleri
Şekil 3.18: İlk grafik doğrusal splayn düzeltme, ortadaki grafik kübik
splayn düzeltme tahminlerini ve son grafik bir splayn düzeltme uyu-
muna karşılık gelen tahmin eğrisini göstermektedir.
103
Nonparametrik Regresyon Analizi
104
Bölüm IV
ÇIKARSAMA
4.1. Çıkarsama
Parametrik regresyonda tahminin merkez odağında regresyon
katsayıları yer alır. Doğal olarak istatistiksel çıkarsama bu katsayı-
lar üzerine yapılır. Bu anlamda, örneğin, katsayıların güven aralık-
ları ve hipozet testleri yapılabilir. Aksine, nonparametrik regres-
yonda, regresyon katsayıları yoktur. Onun yerine, tahminin merkez
odağında regresyon fonksiyonu yer alır ve çıkarsama doğrudan
regresyon fonksiyonu üzerine yapılır.
Örneğin, (3.1)’de belirtilen yerel (lokal) regresyon kestirici-
sinde olduğu gibi, burada adı geçen tüm nonparametrik regresyon
kestiricileri, şu şekilde yazılıştan dolayı doğrusal düzelticiler olarak
bilinirler:
0€ = ÃÞ 4.1
105
Nonparametrik Regresyon Analizi
ℎ ℎ D … ℎ … ℎ
… ℎD … ℎD
⎛ ℎD ℎDD ⎞
⋮ ⋮ ⋱ ⋮ … ⋮
=⎜ ⎟
€
⎜ ℎ ℎD … ℎ … ℎ ⎟
⋮ ⋮ ⋮ ⋮ ⋱ ⋮
⎝ℎ ℎ D … ℎ … ℎ ⎠
= S S éS S matrisine benzerdir.
k f k
çük kareler regresyonundaki şapka matrisi yani,
1 1
QR = Ã W=A T 0€ U + Ã TD 4.3
ÜA k
TTk
= hD +
€ €
106
Çıkarsama
∑ − 0€ ¡ ∑ − 0€ ¡
D D
h$ =
D
= 4.4
− µc − ÜA €
Burada µc = ÜA € , düzeltme matrisinin izine ya da köşegen
değerleri toplamına karşılık gelen serbestlik derecesini gösterir.
Burada temel düşünce doğrusal kestiriciler için serbestlik de-
≅ ÜA € €
k
≅ ÜA 2 € − € €
k
W=A $ = h$ D Ã ℎ D~ 4.5
~
= W=A Ó0€
yan matrisi, şu şekilde hesaplanabilir:
W=A Ö$ = € W=A Ö €
k
= h$ D € €
k
4.6
107
Nonparametrik Regresyon Analizi
0
Bir nonparametrik regresyon modelinde, regresyon
,…,
fonksiyonunun tahminini olduğunu varsayalım. Burada var-
sayılan temel nokta, regresyon fonkisyonu açıklayıcı
değişkenin gözlemlenen değerlerinde değerlendirilir. Bu bölümün
$ = Ãℎ ~ ~ = 0
~
$ ± 2·W=A $
biçiminde veya eşdeğer olarak şu şekilde hesaplanabilir:
b! $ − 2 × R $ ≤ = | = ≤ $ −2×R $ # = 0.95
k
Burada $ = 0 = T 0€ , … , 0€ U regresyon fonksiyonu
R $ = ·W=A $ = ·5 =Ý h$ D
uyum değerlerini gösterirken
k
€ € , uyum değerlerinin
standart hatalarını gösterir. Buna göre, yukarıda verilen güven ara-
lığı şu biçimde de yazılabilir:
108
Çıkarsama
b Ê $ ∓ 2 × ÐW5 =Ý h$ D € €
k
ÑË = 0.95
109
Nonparametrik Regresyon Analizi
Tablo 4.1: Gerçek gözlemler, uyum değerleri ile %95 alt ve üst güven
sınırları
$ = 0€
Gözlem
Alt sınır Üst sınır
No
1 -0.15318084 -0.2219934 -0.37652324 0.06746347
2 0.13021688 0.2336367 0.13687226 0.33040122
3 0.58452060 0.5880778 0.50088979 0.67526590
4 0.79147620 0.8438518 0.75054196 0.93716170
⋮ ⋮ ⋮ ⋮ ⋮
5 1.08836139 0.9932173 0.89579119 1.09064345
Burada
ve
110
Çıkarsama
Sıra ve sütun
1 2 10 11 19 20
numaraları
8,26E+05 7,31E+05 ⋯ -6,63E+01 -3,24E+00 ⋯ -4,11E-17 -5,13E-20
3,90E+05 5,75E+05 ⋱ -4,00E+02 -2,78E+01 ⋯ -5,35E-15 -9,34E-18
1
2
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
10 2,99E-02 8,78E-01 ⋯ 2,53E+05 1,99E+05 ⋯ 1,14E-02 2,10E-04
€ D ×D = 11 2,10E-04 ⋯ 1,99E+05 2,53E+05 ⋯ 8,78E-01
⋱
1,14E-02 2,99E-02
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
19 -9,34E-18 -5,35E-15 ⋯ -2,78E+01 -4,00E+02 ⋯ 5,75E+05 3,90E+05
20 -5,13E-20 -4,11E-17 ⋯ -3,24E+00 -6,63E+01 ⋯ 7,31E+05 8,26E+05
111
Nonparametrik Regresyon Analizi
Şekil 4.2: Lokal regresyondan elde edilen uyum eğrileri ve %95 güven
aralıkları
112
Çıkarsama
SRR = Ã − 0€ ¡ = OÖ − Ó0 P OÖ − Ó0 P burada Ó0
D k
= €Ö ve µc = ÜA €
SRR = Ã −$ D
= Ö − Ö$ k
Ö − Ö$ burada Ö$ = Ö
= Ó0 ve µc = ÜA
113
Nonparametrik Regresyon Analizi
bir lineer regresyon ortamında elde edilen şapka matrisi ifade et-
xs <- sort(x)
plot(x, y, xlab="time",ylab="accelaration" )
fit.lineer<- loess(y ~ x, degree = 1, span = 100)
fit.kuadratik<- loess(y ~ x, degree = 2, span = 0.5)
lines(xs, predict(fit.kuadratik),col="blue",lty=2,
lwd=2)
lines(xs, predict(lineer), col="green",lty=1, lwd=2)
anova(fit.linear,fit.local)
114
Çıkarsama
Şekil 4.3: Zamana göre hızlanmanın iki farklı regresyon modeli ile
tahmininden elde edilen uyum eğrileri
115
Bölüm V
117
Nonparametrik Regresyon Analizi
ND = !Ó − #D = ! − #D = f
Ã! − #D 5.1
N• = !Ó − #• = ! − #• = f
Ã! − #• 5.2
118
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
ND
lay ve etkin şekilde elde edilmesini sağlaması.
minimizasyonu doğal olarak tahminlerin çok daha
hızlı elde edilmesini sağlar ki bu en önemli avantaj olarak
söylenebilir.
! − #D = ! −5 +5 − #D
= ! −5 #D + !5 − #D
= `O −5 PO5 − P| a¡
= O −5 P !5 − | #¡
= O −5 PO5 −5 P¡
= 0.
Böylece sonuç aşağıdaki gibi yazılabilir;
! − #D = E| −5 |D ] 5 + |5 − |D , 5.5
ℝ
Burada ],
eder. Eşitlik (5.5)’in ilk terimi 4ℝ| −5 |D ] 5 ,
değişkenine ait dağılımın ortalamasını ifade
119
Nonparametrik Regresyon Analizi
0
Buna göre kullanılan düzleştirme yöntemine göre ilgili tahmin
yer değiştirilerek (kernel, lokal yaklaştırma, cezalı splayn
vb.) ilgili yöntem için performans skoru hesaplanabilir.
0
Herhangi bir tahmin yöntemi için, regresyon fonksiyonu
varyans için bahsedilenin tam tersi bir manzara ortaya çıkar. Buna
göre model için “Toplam Hata” aşağıdaki gibi ifade edilebilir;
YÀx¶=B [=Ü= = üAü¶Üü + = ¶Î¶Î> D
+ W=A = ? 5.6
Burada gürültü, rasgele hata yani regresyon modelin de yer
120
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
121
Nonparametrik Regresyon Analizi
≤⋯≤
gi bir yerdeki değerleri bulunabilir. Diğer yandan, sıralı ’ler olan
kullanılarak için “interpolasyon” yardımıyla
eğri üzerindeki eksik noktalar tamamlanır ve böylece tahmini
yapılabilir.
,
=
Eşitlik (5.4) gösterildiği gibi, gözlemleri varsa, reg-
~ =
≅
olarak yazılabilen çok fazla sayıda gözlem elde edilirse
“büyük sayılar kanunu” yardımıyla söylenebilir ki .
varyansı (gürültü-noise: h^D ) ile aynı elde edilir. Burada HKO ile
(5.4)’e bağlı olarak hata kareler ortalaması (HKO), rasgele hata
122
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
noktasındaki [«KO 0 P
tahmin yapıldığı anlamına gelir. Eğer “Yanlılık” ile Eşitlik (5.7)’de
ifade edilen varyans birleştirilirse
fonksiyonu aşağıdaki gibi yazılabilir;
Ak k D
[«K T 0
D
U= h^D + ℎ ç0.5A
¨ kk
+ è ThúD0 U 5.8
h^D 4 « D @ 5@
+ + À ℎ ¨ + À 1/ ℎ
ℎ
Burada À . asimptotik olarak (5.8)’de verilen toplamın ikinci
teriminin ℎ ¨ oranının sıfıra gittiğini ifade eder. Eşitlik (5.8), ger-
pratikte bilinmeyen A , A k , A kk
çek regresyon fonksiyonunun Taylor açılımından elde edilen ve
ve en uygun seçilmiş “ℎ”
diğinde, (5.8) ℎ’e göre kısmi türevi alınarak tek bir optimum bant
parametresinde bağlı olarak elde edilir. Daha derin olarak incelen-
kirdek (Kernel) yöntemi için elde edilmiş olsa da yerel fark alma
123
Nonparametrik Regresyon Analizi
1 1
«[«K = √[«K = ` Ã` − 0 a = a OÓ − Ó0P OÓ − Ó0P 5.10
D 3
ä , D = `Ã − D
D
124
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
∑ −$ D
1 1
ç è= Ã ! D# = Ã ! D # = h^D + ]^D 5.11
` ) ÃO − P * = Wh^D + 0D = h^ 5.12
D
f
len HKO değerinin model varyansı h^D için, KHKO değerinin ise
model standart sapması h^ için iyi bir tahmin edici olabileceğini
asimptotik bağlamda gösterir. Ayrıca 1/√ hakkında şu belirtilme-
125
Nonparametrik Regresyon Analizi
126
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
SO 0 , 0D P = SO 0 P SO 0D P
aşağıdaki gibi tanımlanır;
5.14
Burada risk fonksiyonu olarak HKO yerine KHKO veya modelle-
kestiricisinin 0
ninde kullanılan yöntemlerden elde edilen regresyon fonksiyon
varyans tahminleri ele alınmıştır. Bu bağlamda
her bir yöntem için ayrı ayrı varyans tahminleri yerine genelleşti-
rilmiş bir varyans tahmini sunulmuş ve ilgili yöntemler için nasıl
kullanılacağı açıklanmıştır. Buna göre parametrik olmayan regres-
yon fonksiyonu aşağıdaki gibi yeniden yazılsın;
= + h^ , 1 ≤ ≤ , 5.15
burada h^ , hata terimlerinin noktasındaki standart hata değerini
ifade eder ve bu varyansın model varsayımları gereği sabit olduğu
127
Nonparametrik Regresyon Analizi
tanesi hataların varyansı, h^D veya tahmin edicisi h$^D olacaktır. Lite-
(out-of-sample prediction) etmek istediğinde, kilit noktalardan bir
= b3ý +
Bilindiği üzere parametrik regresyon modelleri için varyans
3
parametrik açıklayıcı değişkenin matrisi ve ý = O , … , • P
x × 1 boyutlu regresyon katsayılarının vektörüdür. Buna göre
parametrik regresyon modeli için hataların varyansı h Dc aşağıdaki
gibi hesaplanır;
∑O þP
− b3ý
D
h Dc = 5.16
−x
− x modelin serbestlik derecesini ifade eder ve
3þ þ P = ™̂ artıkları (residuals) ifade
b ý = $ olmak üzere O − b 3 ý
Burada
128
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
sorusudur. 0
Burada ortaya çıkan soru ise tahminin hangi yöntemle yapılacağı
, fonksiyonu hangi parametrik olmayan tahmin
yöntemiyle elde edilecektir? Bu yöntemler kitabın ilgili bölümle-
rinde detaylı şekilde ele alındığından burada bahsedilmeyecektir.
Dolayısıyla burada kullanılan yönteme göre uyarlanabilecek genel
bir varyans tahmini formülü sunulmuş ve bunu yaparken (ii) var-
yans tahmini yaklaşımı dikkate alınmıştır. Ayrıca bölüm sonunda
varyans tahmini için kullanılan bir diğer yaklaşım olan farklara
0
dayalı varyans (i) tahmininden de bahsedilmiştir.
, herhangi bir parametrik olmayan yöntemle tahmin
edilmiş regresyon fonksiyonu olsun. Buna göre ’inci artık değeri
aşağıdaki gibidir;
™̂ = − Ã[~ ~ , = 1, … , 5.17
~
− Ó0 =
aşağıdaki gibi yazılır;
= − 5.18
∑ O [ ~ ~P
− ∑~
D
h$^D = 5.19
− 2 ∑ [ + ∑ ∑~ [D~
129
Nonparametrik Regresyon Analizi
edilebilir. Ayrıca 5, ×
ile yer değiştirilerek tahmin edilen modellerin varyansları tahmin
Rµ = ÜA 5 −
boyutlu birim matris olmak üzere
serbestlik derecesidir ve hem aktif parametre sayı-
sından hem de örneklem büyüklüğünden kaynaklanan yanlılığı
varyans hesabına dâhil ederek minimize etmeye yardımcı olur.
Eşitlik (5.20) hakkında bazı detaylar üzerinde durulması gere-
kir. Bilindiği gibi varyans formülünde paydada yer alan ifade
derecesidir. Literatürde Rµ = ÜA 5 −
“normalleştirme faktörü” olarak da adlandırılabilecek serbestlik
belirlenmesinde bazı al-
ternatif yaklaşımlar vardır. Bunlardan biri Eagleson ve Silverman
(1992) tarafından tanıtılmıştır ve aşağıdaki gibi gösterilebilir;
‖ 5− ‖D 3 !5
− #D
h$^D˜ = = 5.21
ÜA! 5 − D# ÜA! 5 − D #
130
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
siyonunun ! | # = 0
varyans tahmininden en önemli farkı ve avantajı, ortalama fonk-
tahmin edilmesine ihtiyaç duymama-
sıdır. Temel fikir, bağımsız ve aynı dağılıma sahip ve D de-
ğişkenlerine dayalı olarak aşağıdaki gibi varyans tahmini elde
1
etmektir;
Z − D[
= hD 5.23
2 D
\ − D]
Q h D. Bu yakla-
yeterince küçük komşuluğa sahip iki ardışık gözlem için ( ve
f ) varyans yaklaşık olarak
D f
şıma dayalı olarak parametrik olmayan regresyon fonksiyonu,
(5.23) genellenerek aşağıdaki gibi elde edilebilir;
1
h$vD = Ã − D
5.24
2 −1 f
D
131
Nonparametrik Regresyon Analizi
à A‹ = 0, à A‹D = 1 5.26
‹ ‹
132
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
parametresi (ו , ℎ•) seçimine dayalı olarak iki aşamalı olarak ger-
çekleştirilmesidir. Bu bağlamda algoritma hızı klasik kriterlerde •
hariç, K iken risk kriterlerinde bu hız K D olarak ölçülür ve
bu da risk kriterlerinin çalışma hızı bakımından verimliliğinin kla-
sik kriterlere göre düşük olduğu anlamına gelir. • kriteri için ise
olarak belirlenmiştir.
Akaike bilgi kriteri (jkl): Bu kriter Akaike (1974) tarafın-
dan önerilmiş ve belirli bir ceza terimine sahip tahmin hatası gibi
davranan yapıya sahiptir. AIC kriterinde eşitliğin sol tarafını oluş-
linde ÜA
turan parametre sayısı yerine parametrik olmayan regresyon mode-
değeri kullanılır. Buna göre AIC aşağıdaki gibi yazıla-
bilir:
3 !5
− #D
o– × = 2ÜA − 2 log Ð Ñ 5.28
ÜA 5 −
133
Nonparametrik Regresyon Analizi
‖ 5−
Böylece, CAIC aşağıdaki gibi hesaplanır:
‖D
o– × = ÜA !log + 1# − 2 log Ð Ñ 5.29
ÜA 5 −
Geliştirilmiş AIC (jkln): Geliştirilmiş AIC (o– o ) Hurvich vd.
(1998) tarafından önerilmiş ve aktif parametre sayısına daha fazla
ceza vererek göreli olarak fazla değişken içeren modeller için daha
düşük riskle parametre veya model seçimi yapabilen bir kriterdir.
‖ 5−
Aşağıdaki gibi gösterilebilir;
‖D 2ÜA +1
o– × = log Ð Ñ +1 + 5.30
o
ÜA 5 − − ÜA −2
Bayes (Schwarz) Bilgi Kriteri (pkl): Bu kriter Schwarz (1978)
‖ 5−
problemi ortaya çıkar. BIC hesaplanışı aşağıdaki gibidir;
‖D
V– × = ÜA !log # − 2 log Ð Ñ 5.31
ÜA 5 −
Çapraz geçerlilik (Cross-Validation, CV): W kriteri literatürde
en yaygın kullanılan kriterlerden biridir. Bu kriterde temel fikir,
bütün gözlemler q ,
her bir gözlemi örneklemden atıp kriteri tekrar hesaplamak ve bunu
− 1 adet W~ × ¡~ W skorunu
f
için yapmaktır. Böylece her bir adım
için hesaplanmış olur ve
134
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
135
Nonparametrik Regresyon Analizi
meye çalışır. ?Ü=Ü ile ilgili daha fazla detay için Moses ve Hol-
cezalandırarak en uygun düzeltme parametresini veya modeli seç-
136
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
ki hesaplanabilir;
S b × = f \‖ 5 − ‖D + h$ÔD ÜA 3 ] 5.38
SÔ = Ó − D
+ h$ D 3
5.39
Burada Ó ifadesi parantez içinde verilen çarpımdan elde edilen
3
için SÔ
vektörün i’inci değerini ifade eder. Benzer şekilde, matris
137
Nonparametrik Regresyon Analizi
Sonunda bileşik bir Ó0Ô elde edilir. Hesaplanması ile ilgili detaylar
için Aydın vd. (2013) ve Lee (2003) incelenebilir.
= 1.25 • − 0.5 ⁄ , 1 ≤ • ≤ , = 7z \ ]−
8¹f .q´
. ´
1.5z \ ]
8¹f .´
. ¨
= åO]^ = 0, h^D¹ P, h^Dª = 0.25, h^D˜ = 0.5,
Bu bağlamda düzeltme parametresi seçimi için sonuçlar, ilgili
tablo ve grafiklerde sunulmuştur. Bu sonuçlar mümkün her simü-
lasyon konfigürasyonu için incelenmiştir. İlk olarak Şekil 5.3’te
üretilen regresyon fonksiyonu farklı konfigürasyonlar için veril-
miştir.
138
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
139
Nonparametrik Regresyon Analizi
140
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
141
Nonparametrik Regresyon Analizi
set.seed(12223)
# kNN regresyonu için k seçimi
select.k <- param.select(x,y,method="kNN",range=20,
criterion="AIC")
select.k$opt
select.k$value
142
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
= 100,
h^D = 0.25
Tablo 5.1: Tahmin yöntemleri için seçim kriterleri sonuçları
> ℎ × ×
kNN Reg. Kernel D. B-Splayn Splayn D.
Değer Değer Değer Değer
AIC 1.395 36 1.726 2 18.336 2 3.655 1.794
BIC 3.308 45 3.701 2 36.146 2 7.479 1.794
GCV 1.381 45 1.210 2 1.423 2 1.237 1.794
REML 67.675 39 57.60 0.1 56.671 0.05 2.807 0.05
143
Nonparametrik Regresyon Analizi
Şekil 5.5: Dört tahmin yönteminin 4 farklı kritere göre düzeltme para-
metrelerinin seçilmesi
144
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
(A) o– (B) S QN
145
Nonparametrik Regresyon Analizi
data.frame(rmse.k,rmse.h,rmse.lambs,rmse.lamss)
146
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
lendiğinde, “>” değeri tüm kriterler için "> = 103" olarak seçil-
seçilen düzeltme parametreleri verilmiştir. kNN regresyonu ince-
147
Nonparametrik Regresyon Analizi
GCV’den daha küçük bir değer S QN: × = 0.121 ile veri nokta-
yöntemi için REML kriteri diğer üç kriter olan AIC, BIC ve
larına daha hassas bir eğri tahmini sağlar. Bu durum yine Şekil 5.7
dikkatle incelenirse görülebilir.
data.frame(rmse.k,rmse.h,rmse.lambs,rmse.lamss)
148
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
Tablo 5.4: Motosiklet verisi için yaygın kullanılan üç kritere dayalı tah-
min edilen regresyon modelleri için KHKO değerleri
Kriter kNN Reg. Kernel D. B-Splayn Splayn D.
AIC 37.467 51.682 21.615 67.329
BIC 37.467 51.682 21.615 67.329
GCV 37.467 51.682 21.615 67.329
REML 37.467 51.682 21.616 67.661
149
Nonparametrik Regresyon Analizi
(A) V– (B) S QN
BIC ve GCV kriterleri > = 66, REML ise > = 18 olarak belirlen-
rinin değerleri görülebilir. kNN regresyon için REML hariç AIC,
150
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
library(condSURV)
library(psych)
library(pracma)
library(MASS)
library(frailtyHL)
151
Nonparametrik Regresyon Analizi
> ℎ Değer × ×
kNN Reg. Kernel D. B-Splayn Splayn D.
Değer Değer Değer
AIC 2.056 66 2.087 3 18.986 1 13.210 0.5
BIC 4.389 66 4.459 3 40.751 1 28.341 0.5
GCV 0.986 66 0.987 3 0.976 1 0.976 0.476
REML 73.990 18 74.057 3 63.919 0.05 62.902 0.144
Tablo 5.6: Böbrek hastalığı verisi için yaygın kullanılan üç kritere dayalı
tahmin edilen regresyon modelleri için KHKO değerleri
Kriter kNN Reg. Kernel D. B-Splayn Splayn D.
AIC 0.993 1.001 0.827 1.130
BIC 0.993 1.001 0.827 1.130
GCV 0.993 1.001 0.828 1.133
REML 0.617 1.001 0.805 1.234
152
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
(A) (B)
153
Nonparametrik Regresyon Analizi
>+1
=X Y . ¿Î öA ™>¶™B >=AÜ ¶ 5™
‹
«+2
yer alırlar. Genellikle iyi çalışan basit bir varsayılan « sayısının
seçimi şu şekilde verilir:
=A>¶Î ‘™ ?ÎA=¶Î k ¶™A ?= Î?Î
«=B Ð , 35 Ñ 5.40
4
154
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
sayısı kullanılır.
W × < 0.98 W ×D ise adım, 1-3 arası
yeniden fakat • = 2, … ,5’e kadar devam eder.
Aksi durumda,
olarak seçilirler.
155
Nonparametrik Regresyon Analizi
156
Performans Ölçüleri ve Düzleştirme Parametresinin Seçimi
157
KAYNAKÇA
159
Nonparametrik Regresyon Analizi
17. Guidoum, A. C. (2015). Kernel estimator and bandwidth selection for density
and its derivatives. Department of Probabilities and Statistics, University of
Science and Technology, Houari Boumediene, Algeria.
18. Green, P. J., & Silverman, B. W. (1994). Nonparametric regression and gene-
ralized linear models: a roughness penalty approach. Crc Press.
19. Hayfield, T., & Racine, J. S. (2008). Nonparametric econometrics: The np
package. Journal of statistical software, 27, 1-32.
20. Härdle, W. K. (1991). Smoothing techniques: with implementation in S.
Springer Science & Business Media.
21. Härdle, W., Müller, M., Sperlich, S., & Werwatz, A. (2004). Nonparametric
and semiparametric models (Vol. 1). Berlin: Springer.
22. Härdle, W. (1990). Applied nonparametric regression (No. 19). Cambridge
university press.
23. Härdle, W., & Linton, O. (1994). Applied nonparametric methods. Handbook
of econometrics, 4, 2295-2339.
24. Hurvich, C. M., Simonoff, J. S., & Tsai, C. L. (1998). Smoothing parameter
selection in nonparametric regression using an improved Akaike information
criterion. Journal of the Royal Statistical Society: Series B (Statistical Metho-
dology), 60(2), 271-293.
25. Mallows, C. L. (1973). Bounds on distribution functions in terms of expecta-
tions of order-statistics. The Annals of Probability, 297-303.
26. Moses, T., & Holland, P. W. (2009). Selection strategies for univariate logli-
near smoothing models and their effect on equating function accuracy. Journal
of Educational Measurement, 46(2), 159-176.
27. Nadaraya, E. A. (1964). On estimating regression. Theory of Probability & Its
Applications, 9(1), 141-142.
28. Parzen, E. (1962). On estimation of a probability density function and mode.
The annals of mathematical statistics, 33(3), 1065-1076.
29. Reiss, P. T., & Todd Ogden, R. (2009). Smoothing parameter selection for a
class of semiparametric linear models. Journal of the Royal Statistical Society:
Series B (Statistical Methodology), 71(2), 505-523.
30. Robinson, T., & Moyeed, R. (1989). Making robust the cross-validatory choi-
ce of smoothing parameter in spline smoothing regression. Communications
in Statistics-Theory and Methods, 18(2), 523-539.
31. Rosenblatt, M. (1956). Remarks on some nonparametric estimates of a density
function. The annals of mathematical statistics, 832-837.
32. Ruppert, D., Wand, M. P., & Carroll, R. J. (2003). Semiparametric regression
(No. 12). Cambridge university press.
33. Schwarz, G. (1978). Estimating the dimension of a model. The annals of
statistics, 461-464.
34. Schmidt, G., Kallieris, D., Barz, J., Mattern, R., Schulz, F., & Schüler, F.
(1981). Belastbarkeitsgrenzen des angegurteten Fahrzeuginsassen bei der
Frontalkollision. FAT, Schriftenreihe, (15).
160
Kaynakça
35. Sheather, S. J., & Jones, M. C. (1991). A reliable data‐based bandwidth selec-
tion method for kernel density estimation. Journal of the Royal Statistical So-
ciety: Series B (Methodological), 53(3), 683-690.
36. Simonoff, J. S. (1986). Jackknifing and bootstrapping goodness-of-fit statis-
tics in sparse multinomials. Journal of the American Statistical Association,
81(396), 1005-1011.
37. Tarter, M. E., & Lock, M. D. (1993). Model-free curve estimation (Vol. 56).
CRC Press.
38. Terrell, G. R., & Scott, D. W. (1992). Variable kernel density estimation. The
Annals of Statistics, 1236-1265.
39. Wand, M., Ripley, B., & Ripley, M. B. (2015). Package ‘KernSmooth’.
40. Wahba, G. (1990). Spline models for observational data. Society for industrial
and applied mathematics.
41. Wand, M. P., & Jones, M. C. (1995). Kernel smoothing. CRC press.
42. Wasserman, L. (2004). All of statistics: a concise course in statistical inferen-
ce (Vol. 26). New York: Springer.
43. Watson, G. S. (1964). Smooth regression analysis. Sankhyā: The Indian Jour-
nal of Statistics, Series A, 359-372.
161
DİZİNLER
açıklayıcı değişken, iii, 13, 45, 51, düğüm noktaları, 74, 80, 86, 90, 91,
54, 55, 81, 94, 108, 118, 128 93, 94, 95, 96, 153, 154, 155,
Akaike, 133, 156, 159, 160 157
algoritma, 15, 133, 153, 154, 155 düğüm sayısı, 79, 87, 97, 153, 154,
ampirik dağılım, 21, 23, 44 155, 156, 157
artıklar, 112 düzeltme parametresi, 4, 45, 53, 54,
asimptotik, 14, 28, 38, 123, 125 65, 66, 67, 77, 78, 79, 85, 89,
bağımlı değişken, 31, 45, 81, 100 93, 94, 101, 113, 117, 124, 132,
bağımsız değişken, 1, 100 133, 135, 136, 137, 138, 140,
bant genişliği, 26, 27, 32, 33, 34, 142, 143, 145, 152, 153, 154,
36, 38, 39, 42, 43, 44, 47, 50, 157
53, 54, 59, 61, 68, 121, 123, düzleştirme parametresi, 5, 7, 9, 10,
130, 140, 142, 147, 150, 151 11, 13, 14, 28, 31, 33, 36, 47,
beklenen değer, 7, 23, 24, 28, 37, 48, 120, 121, 130
122, 125 düzleştirme yöntemleri, iii, iv, 2, 5,
belirlilik katsayısı, 100 15, 119, 132
böbrek hastalığı verileri, 150 en küçük kareler, 1, 59, 60, 61, 62,
Böbrek hastalığı verileri, 150, 152 64, 65, 66, 73, 76, 81, 83, 86,
B-splayn, 3, 4, 45, 73, 74, 75, 76, 95, 102, 106, 112
77, 78, 79, 130, 138, 141, 142, frekans, 21, 22, 25, 29, 30, 31, 32
143, 144, 145, 147, 148, 149, gayzer veri seti, 25, 30
150, 151, 152, 156, 157, 195 göreli risk, 126, 127
budanmış polinom, 78 güven aralığı, 100, 101, 108, 109,
budanmış üstel tabanlı, 80, 84, 86 128
ceza matrisi, 76, 84, 85, 91, 95 hata kareler, 16, 18, 28, 48, 57, 87,
ceza parametresi, 73 88, 89, 106, 118, 122, 133
cezalı en küçük kareler, 62, 81, 83, hataların varyansı, 127, 128, 129,
84, 85, 86, 89, 95, 102 130, 132, 138
cezalı kareler, 75, 81, 82, 95 histogram, 3, 7, 8, 9, 23, 24, 25, 26,
cezalı splayn, 2, 3, 4, 45, 80, 87, 27, 28, 29, 30, 31, 32, 33, 169,
120, 132, 138, 141, 153, 171, 177, 178
155,156, 157,195 interpolasyon, 89, 122
çapraz geçerlilik, 9, 61, 134, 197 kareli hata, 8, 9, 16, 28
dağılım fonksiyonu, 6, 19, 20, 23, kernel ağırlıkları, 15, 64, 66
44 kernel düzeltme, 3, 56, 56, 57, 58,
değişen varyans, 129 65, 138, 147, 150
diagonal matris, 62 kernel eğrileri, 39, 40
doğrusal fonksiyon, 83, 104 kernel fonksiyonları, 32, 34, 37,
doğrusal regresyon, 10, 59, 88, 89, 41, 43, 53, 55
95, 101, 136 kernel regresyonu, 15, 58, 59, 65,
130, 142, 147, 151
163
Nonparametrik Regresyon Analizi
k-NN regresyon, 46, 52, 142 120, 122, 123, 126, 127, 128,
k-NN tahmini, 47, 48, 49, 50, 174 129, 131, 138, 154, 156
kuadratik, 59, 83, 84, 86, 114, 115, regresyon kestiricileri, 69, 105
190 ridge regresyon, 76
kuadratik splayn, 84, 86 sabit tasarım modeli, 13
kübik splayn, 74, 88, 89, 90, 91, 94, seçim kriteri, 70, 78, 79, 139, 147
95, 98, 103, 104, 130 semiparametrik, 96
Kübik splayn, 104 serbestlik derecesi, 4, 70, 78, 107,
kümülatif, 5, 19, 20, 22, 25 112, 113, 128, 130
lokal doğrusal, 65, 66, 67, 68, 114, simülasyon, iii, 1, 2, 4, 13, 51, 52,
115 97, 98, 109, 123, 126, 133, 136,
lokal polinomial, 3, 58, 62, 63, 64, 138, 142, 143, 144, 145,
68, 69, 70, 71, 180 152,174
lokal regresyon, 58, 70, 71, 72, 109, span, 59, 68, 69, 70, 71, 72, 109,
112, 130 114, 115, 180, 182, 197
lokal sabit, 64, 65, 68 splayn düzeltme, 3,45, 80,87, 89,
merkezi limit teoremi, 125 93, 94,95,97, 101, 103, 104,
normal dağılım, 19, 23, 33, 51, 56, 138, 141, 142, 145,
98, 136, 137 147,148,150, 151, 152, 203, 205
normal denklemler, 62, 83 standart sapma, 33, 98, 125
öklid uzaklığı, 47, 49, 124 taban fonksiyonları, 74, 75, 84
örneklem büyüklüğü, 1, 14, 125, tahmin vektörü, 60, 77
126, 130, 134, 135, 136, 137, Taylor serisi, 38, 59, 63, 65, 66
138, 154 toplam hata, 120, 121, 122, 125,
parametrik olmayan regresyon, 3, 4, 126
7, 9, 10, 20, 37, 47, 53, 55, 59, uyum değerleri, 4, 70, 83, 85, 96,
80, 81, 88, 89, 95, 122, 124, 100, 105, 107, 108, 109, 110,
125, 127, 128, 131, 132, 133, 114, 115, 137
136, 139, 149, 150, 153 uyum iyiliği, 118, 128, 134, 136
pürüzlülük, 2, 68, 80,87, 89, varyans tahmini, 4, 124, 127, 128,
91,95,120 129, 131, 133, 135, 137
R paketleri, 43 yanıt değişkeni, iii, 1, 7,11, 46, 52,
R programlama, 31 59, 61, 98, 118, 129
rassal değişken, 6, 12, 15, 20, 37, yanlılık, 120,122,123
50 yansız tahmin, 130
rastgele tasarım modeli, 12, 13 yoğunluk fonksiyonu, 6, 7, 12, 19,
regresyon analizi, 1 23, 28, 29, 32, 36, 38, 39, 126
regresyon eğrisi, 11, 12, 121, 149 yoğunluk kestiricisi, 23, 24, 32, 33,
regresyon fonksiyonu, 1, 6, 7, 9, 14, 36, 38, 39, 41, 44
15, 48, 50, 51, 55, 59, 63, 67, yoğunluk tahmini, iii, 3, 17, 20, 23,
77, 80, 86, 87, 105, 108, 119, 26, 27, 30, 32, 33, 34, 36, 44, 53
164
EKLER
EK-A: R Kodları
Ek-A1. Örnek 1.2’nin R-kodları
library(MASS)
data(mcycle)
attach(mcycle)
x=times
y=accel
par(mfrow=c(2,2))
n=length(y)
#sp_seq = seq(from=0.05,to=1.0, by=0.5)
#CV_err_sp = rep(NA,length(sp_seq))
#for(j in 1:length(sp_seq)){
#spar_using = sp_seq[j]
#CV_err = rep(NA, n)
#for(i in 1:n){
#x_val = x[i]
#y_val = y[i]
#x_tr = x[-i]
#y_tr = y[-i]
#SS_fit = smooth.spline(x=x_tr,y=x_tr,spar=spar_using)
#y_val_predict = predict(SS_fit,x=x_val)
#CV_err[i] = (y_val - y_val_predict$y)^2
#}
#CV_err_sp[j] = mean(CV_err)
#}
#CV_err_sp
#sp_seq[which(CV_err_sp == min(CV_err_sp))]
n = length(y)
N_cv = 100
k = 5
cv_lab = sample(n,n,replace=F) %% k
## randomly split all the indices into k numbers
h_seq = seq(from=0.2,to=5.0, by=0.1)
CV_err_h = rep(0,length(h_seq))
for(i_tmp in 1:N_cv){
CV_err_h_tmp = rep(0, length(h_seq))
cv_lab = sample(n,n,replace=F) %% k
for(i in 1:length(h_seq)){
h0 = h_seq[i]
165
Nonparametrik Regresyon Analizi
CV_err =0
for(i_cv in 1:k){
w_val = which(cv_lab==(i_cv-1))
x_tr = x[-w_val]
y_tr = y[-w_val]
x_val = x[w_val]
y_val = y[w_val]
kernel_reg = ksmooth(x = x_tr,y=y_tr,kernel = "nor-
mal",bandwidth=h0,
x.points=x_val)
# WARNING! The ksmooth() function will order the x.points
from
# the smallest to the largest!
CV_err = CV_err+mean((y_val[order(x_val)]-
kernel_reg$y)^2,na.rm=T)
# na.rm = T: remove the case of 'NA'
}
CV_err_h_tmp[i] = CV_err/k
}
CV_err_h = CV_err_h+CV_err_h_tmp
}
CV_err_h = CV_err_h/N_cv
plot(h_seq,CV_err_h,pch=18, type="b", lwd=4, col="blue",
xlab="Düzgünleştirme Parametresi",
ylab="5-CV Hata")
h_opt = h_seq[which(CV_err_h==min(CV_err_h))]
h_opt
plot(x,y,pch=20,xlab="Zaman",ylab="Hızlanma")
Kreg1 = ksmooth(x,y,kernel = "normal",bandwidth = 2.5)
lines(Kreg1, lwd=2, col="orange")
legend("topright", c("h=2.5"), lwd=2, col=c("orange"))
plot(x,y,pch=20, xlab="Zaman",ylab="Hızlanma")
Kreg2 = ksmooth(x,y,kernel = "normal",bandwidth=0.9)
lines(Kreg2, lwd=2, col="blue")
legend("topright", c("h=0.9"), lwd=2, col=c("blue"))
plot(x,y,pch=20,xlab="Zaman",ylab="Hızlanma")
Kreg3 = ksmooth(x,y,kernel = "normal",bandwidth = 4)
lines(Kreg3, lwd=2, col="limegreen")
legend("topright", c("h=4"), lwd=2, col=c("limegreen"))
#plot(x,y,pch=20,xlab="Zaman",ylab="Hızlanma")
#Kreg4 = ksmooth(x,y,kernel = "normal",bandwidth = 5)
#lines(Kreg4, lwd=2, col="purple")
#legend("topright", c("h=5"), lwd=2, col=c("purple"))
166
Ekler
167
Nonparametrik Regresyon Analizi
h <-hist(dat,main="X'in Histogramı",xlab="Püskürtme
Uzunluğu", ylim=c(0,90))
text(h$mids,h$counts,labels=h$counts,adj=c(0.5,-0.5))
hist(dat,breaks=seq(1.5,5.5,by=0.10),xlim=c(1,5),
xlab="Püskürtme Uzunluğu",main="Band genişliği
h=0.10",freq=FALSE)
168
Ekler
169
Nonparametrik Regresyon Analizi
170
Ekler
kde2<-density(x,kernel="gaussian",bw = "bcv")
plot(kde2,main=list("Gaussian Kernel (bw = bvc)",
cex=1.3,font=1,col= "black"))
kde3<-density(x,kernel="gaussian",bw = "ucv")
plot(kde3,main=list("Gaussian Kernel (bw = ucv)",
cex=1.3,font=1,col= "black"))
kde4<-density(x,kernel="gaussian",bw = "nrd")
plot(kde4,main=list("Gaussian Kernel (bw = nrd)",
cex=1.3,font=1,col= "black"))
171
Nonparametrik Regresyon Analizi
172
Ekler
173
Nonparametrik Regresyon Analizi
#w<-
((1/k)*kernf(u/(k)))/((1/n)*sum((1/k)*(kernf(u/(k)))))
}
else{
w[i]<-0
}
#f[i]<-w[i]*y[i]
f<-w%*%y
}
fhat[i2]<-sum(f)/(length(x))
}
Zaman=mcycle$times
Hızdaki_Değişim=mcycle$accel
plot(Zaman,fhat,col="red",type="l",ylim=c(min(y),
max(y)),ylab="Hızdaki_Değişim")
par(new=T)
plot(Zaman,Hızdaki_Değişim,ylim=c(min(y),max(y)),
pch=19,main=list("k=1",cex=1.5,font=11))
grid()
174
Ekler
bins=seq(1.50,5,by=0.5)
bins
Aralık= cut(x, bins, right=FALSE)
Aralık
freq = table(Aralık)
freq
relfreq = freq / sum(freq)
old = options(digits=1)
cbind(freq,relfreq)
175
Nonparametrik Regresyon Analizi
hist(dat, # histogram
col="peachpuff", # column color
border="black",
prob = TRUE, # show densities instead of frequ-
encies
xlab = "Püskürme uzunluğu",ylab="Yoğunluk",
main = "( b )",xlim=c(1,6),breaks=5)
lines(density(dat), # density plot
lwd = 2, # thickness of line
col = "black")
hist(dat, # histogram
col="peachpuff", # column color
176
Ekler
border="black",
prob = TRUE, # show densities instead of frequ-
encies
xlab = "Püskürme uzunluğu",ylab="Yoğunluk",
main = "( c )",xlim=c(1,6),breaks=15)
lines(density(dat), # density plot
lwd = 2, # thickness of line
col = "black")
hist(dat, # histogram
col="peachpuff", # column color
border="black",
prob = TRUE, # show densities instead of frequ-
encies
xlab = "Püskürme uzunluğu",ylab="Yoğunluk",
main = "( d )",xlim=c(1,6),breaks=25)
lines(density(dat), # density plot
lwd = 2, # thickness of line
col = "black")
177
Nonparametrik Regresyon Analizi
178
Ekler
179
Nonparametrik Regresyon Analizi
MSE.gcv<-mean((y-locreg.gcv$y)^2)
MSE.gcv
sqrt(MSE.gcv)
#fit.gcv<-loess(y~x,span=locreg.gcv$span)
180
Ekler
MSE.cv<-mean((y-locreg.cv$y)^2)
MSE.cv
sqrt(MSE.cv)
181
Nonparametrik Regresyon Analizi
182
Ekler
183
Nonparametrik Regresyon Analizi
## Order 1 penalty.
P(1)
find.lambda <- function(y, Z, K) {
ZZ <- crossprod(Z); tZ <- t(Z); gcv <- func-
tion(lambda) {
S <- Z %*% solve(ZZ + lambda * K) %*% tZ
yhat <- S %*% y; trS <- sum(diag(S)); rss <-
sum((y - yhat)^2)
drop(rss * n / (n - trS)^2)
}
lambda <- optimize(gcv, lower = 40, upper = 1e+5)
$minimum
return(lambda)
}
Z <- bs(mcycle$times, degree = 3, knots = 80)
K <- P(2, ncol(Z))
## Search optimum lambda.
lambda <- find.lambda(mcycle$accel, Z, K)
y<-mcycle$accel
## Estimate the function and plot.
S <- Z %*% solve(crossprod(Z) + lambda * K,tol=1e-
100) %*% t(Z)
yhat <- S%*%y
par(mar = c(4.1, 4.1, 0.5, 0.5))
plot(mcycle, col = rgb(0.1, 0.1, 0.1, alpha = 0.3))
lines(yhat ~ sort(mcycle$times), lwd = 2)
legend("bottomright", paste("df =", round(sum(diag(S)),
2)), bty = "n")
184
Ekler
185
Nonparametrik Regresyon Analizi
186
Ekler
187
Nonparametrik Regresyon Analizi
188
Ekler
n <- nrow(mcycle)
ZZ <- crossprod(Z)
tZ <- t(Z)
## Run the search.
for(i in lambda) {
S <- Z %*% solve(ZZ + i*K,tol=1e-100) %*% tZ
yhat <- S %*% mcycle$accel
trS <- sum(diag(S))
rss <- sum((mcycle$accel - yhat)^2)
gcv <- c(gcv, drop(rss * n / (n - trS)^2))
}
## Plot GCV curve and fitted smooth effect.
plot(gcv ~ lambda, type = "l", lwd = 2)
i <- which.min(gcv)
abline(v = lambda[i], lty = 2, col = "lightgray")
legend("bottomright", paste("Lamda=",round(lambda[i],
3)), bty = "n")
plot(mcycle, col = rgb(0.1, 0.1, 0.1, alpha =
0.5),main="Budanmış Üstel Tabalı Doğrusal Splayn")
S <- Z %*% solve(ZZ + lambda[i]*K,tol=1e-100) %*% tZ
yhat <- S %*%y
lines(yhat ~ sort(x), lwd = 2)
legend("bottomright", paste("df =", round(sum(diag(S)),
2)), bty = "n")
# Kuadratik
tp <- function(z, degree = 3, knots = seq(min(z),
max(z), length = 10)) {
## If knots is integer.
if(length(knots) < 2)
knots <- seq(min(z), max(z), length = knots)
## Setup the columns for the global polinomials.
Z <- outer(z, 0:degree, "^"); cn <- paste("z^",
0:degree, sep = "")
## Compute local polinomials.
if(length(knots) > 2) {
knots <- sort(unique(knots))
for(j in 2:(length(knots) - 1)) {
zk <- z - knots[j]
check <- zk < 0
zk <- zk^degree
zk[check] <- 0
189
Nonparametrik Regresyon Analizi
190
Ekler
191
Nonparametrik Regresyon Analizi
192
Ekler
lambda<-0.01
a <- min(y)
b <- max(y)
plot(x,y,pch=19,cex=0.7,xlab="times",ylab="accel")
par(new=TRUE)
plot(x,BS_dsm$fhat,type="l",ylim=c(a,b),ylab="accel",
xlab="times",col=2,lty=1,lwd=3)
par(new=TRUE)
plot(x,BS_ma$fhat,type="l",ylim=c(a,b),ylab="accel",
xlab="times",col=3,lty=2,lwd=3)
par(new=TRUE)
plot(x,BS_fsm$fhat,type="l",ylim=c(a,b),ylab="accel",
xlab="times",col=4,lty=3,lwd=3,main="B-Splayn Tahmin-
leri")
par(new=TRUE)
193
Nonparametrik Regresyon Analizi
194
Ekler
195
Nonparametrik Regresyon Analizi
}
else{
w[i]<-0
}
#f[i]<-w[i]*y[i]
f[i]<-(w[i]*y[i])/(k)
}
W[,i2] <- w
fhat[i2]<-sum(f)
}
#plot(fhat,type="l")
a <- new.env()
a$fhat <- fhat
a$W <- (1/n)*t(W)#(1/n)*t(W) #Smoothing mat-
rix of kNN regression
return(a)
}
######################################################
##################
kdsmooth <- function(x,y,bws){
#bws range between mean(y)+-2sigma
library(condSURV)
n <- length(y); sx <-
seq(min(x),max(x),length.out = n)
fhat <- ksmooth(x,y,kernel="normal",bandwidth =
bws,n.points=n)
W <- matrix(0,n,n)
for (i in 1:n){
W[,i] <- NWW(x,sx[i],kernel="gaussian",bws)
}
fhat2 <- W%*%y
a <- new.env()
a$fhat <- fhat$y
a$sx <- fhat$x
a$W <- W
return(a)
}
######################################################
##################
localsmooth <- function(x,y,span){ #second degree
local with tricube kernel function
196
Ekler
library(KernSmooth)
library(locfit)
library(evmix)
#--------------------------------------------------
-----------------
n <- length(y)
sx <-seq(min(x)-0.1,max(x)+0.1,length.out=n)
span <- 0.1
yhat <- 0
H <- matrix(0,n,n)
#--------------------------------------------------
-----------------
for (j in 1:n){
u <- x[j]-sx; K <-
diag(kdgaussian(u,bw=span))
e <- matrix(c(1,rep(0,1)),2,1); ones
<- matrix(1,n,1)
xd <- x-sx[j]; xm <- mat-
rix(c(ones,xd),n,2)
yhat[j] <-t(e)%*%solve(t(xm)%*%K%*%xm,tol=1e-
500)%*%t(xm)%*%K%*%y
H[j,] <-t(e)%*%solve(t(xm)%*%K%*%xm,tol=1e-
500)%*%t(xm)%*%K
}
a <- new.env()
a$fhat <- yhat
a$Hatmatrix <- H
return(a)
}
######################################################
##################
bsmooth <- function(x,y,nknots,sp){
library(splines)
myknots <- seq(min(x)*1.5,max(x),length.out =
nknots)
ones <- matrix(1,n,1)
Bmat <- bs(x,degree = 3,knots = myknots)
B <- matrix(c(ones,Bmat),n,(ncol(Bmat)+1))
D <-matrix(0,n,(ncol(Bmat)+1))
for (i in 1:n){
for (j in 1:(ncol(Bmat)+1)){
197
Nonparametrik Regresyon Analizi
if (i==j){
D[i,j]<-1
}
if (j==(i+1)){
D[i,j]<--3
}
if (j==(i+2)){
D[i,j]<-3
}
if (j==(i+3)){
D[i,j]<--1
}
}
}
bhat <-solve(t(B)%*%B+sp*t(D)%*%D,tol=10e-
200)%*%t(B)%*%y
fhat <- B%*%bhat
H <- B%*%solve(t(B)%*%B+sp*t(D)%*%D,tol=10e-
200)%*%t(B)
a <- new.env()
a$fhat <- fhat
a$H <- H
return(a)
}
######################################################
##################
TPBsmooth <- function(x,y,nknotsi,sp){
library(psre)
ones <- matrix(1,n,1);
Bmat <- tpb(x,degree = 3,nknots = nknotsi)
B <- matrix(c(ones,Bmat),n,(ncol(Bmat)+1))
D <-matrix(0,n,(ncol(Bmat)+1))
for (i in 1:n){
for (j in 1:(ncol(Bmat)+1)){
if (i==j){
D[i,j]<-1
}
if (j==(i+1)){
D[i,j]<--3
}
if (j==(i+2)){
198
Ekler
D[i,j]<-3
}
if (j==(i+3)){
D[i,j]<--1
}
}
}
bhat <-solve(t(B)%*%B+sp*t(D)%*%D,tol=10e-
200)%*%t(B)%*%y
fhat <- B%*%bhat
H <- B%*%solve(t(B)%*%B+sp*t(D)%*%D,tol=10e-
200)%*%t(B)
a <- new.env()
a$fhat <- fhat
a$H <- H
return(a)
}
######################################################
##################
splinesmooth <- function(x,y,sp){
smoother.matrix <- function(a.spline, x) {
n <- length(x); w <- matrix(0, nrow=n, ncol=n)
for (i in 1:n) {
y <- rep_len(0, n) # Equivalent to rep(0,
length.out=n)
y[i] <- 1
w[,i] <- fitted(smooth.spline(x, y, lamb-
da=a.spline$lambda))
}
return(w)
}
fit <- smooth.spline(x,y,spar=sp)
fhat <- fit$y
H <-smoother.matrix(fit,x)
a <- new.env()
a$fhat <- fhat
a$H <- H
a$x <- fit$x
return(a)
}
######################################################
199
Nonparametrik Regresyon Analizi
#################
#FUNCTIONS OF CRITERIA------------------------------
-------------
myAIC <- function(y,H){ #H düzeltme matrisi
S_\lambda olarak da geçer
library(psych)
library(pracma)
n <- length(y)
score <- 2*tr(H)-2*log((t(y)%*%((diag(n)-
H)^2)%*%y)/(tr(diag(n)-H)))
return(score)
}
#---------------------------------------------------
------------------
myBIC <- function(y,H){ #Bayes bilgi kriteri
n <- length(y)
score <- tr(H)*(log(n))-2*log((t(y)%*%((diag(n)-
H)^2)%*%y)/(tr(diag(n)-H)))
return(score)
}
#-----------------------------------------------------
------------------
myGCV <- function(y,H){ #Genelleştirilmiş Çapraz
geçerlilik (Generalized CV)
n <- length(y)
score <- ((1/n)*(t(y)%*%((diag(n)-
H)^2)%*%y))/(((1/n)*tr(diag(n)-H))^2)
return(score)
}
#---------------------------------------------------
------------------
myREML <- function(y,H){
n <- length(y)
score <- (n*(t(y)%*%((diag(n)-
H)^2)%*%y))/(tr(diag(n)-H))
return(score)
}
200
Ekler
201
Nonparametrik Regresyon Analizi
if (z[i]==t[j]){
N[i,j] <- 1
}
else{
N[i,j] <- 0
}}}
K<-((Q)%*%solve(R)%*%t(Q))
S <- N%*%solve(t(N)%*%N+lambda*K)%*%t(N)
a <- new.env()
a$S <- S; a$N <- N; a$K <- K; a$Q <- Q;
a$R <- R
return(a)
}
#ÖRNEK-----------------------------------------
------------------------
n <- 45
z <- 10*sort(runif(n))
z[5] <- z[7]
y <- z*sin(z)+rnorm(n,sd=0.5)
obj <- sspline(z,0.0001)
plot(obj$S%*%y,type="l",ylim=c(min(y),max(y)),
ylab="y & f",xlab="z")
par(new=TRUE)
plot(y,pch=19,ylab="y & f",xlab="z")
202
ÖZ GEÇMİŞ
203