Professional Documents
Culture Documents
Robustna Regresija
Robustna Regresija
Robustna Regresija
Robustna regresija
Selena Stanković
Aleksandra Ilić
Milica Ivezić
Sadržaj
1 Uvod 3
2 Metode ocenjivanja 4
2.1 M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Primeri/zadaci 14
2
1 Uvod
Da bismo objasnili šta je robustna regresija i kada se koristi posmatraćemo sledeći
linearni model sa p prediktora
yi = β0 + β1 xi,1 + ... + βp xi,p + ei , i = 1, 2, ..., n
yi je vrednost zavisne promenljive i-te opservacije, xi,k predstavlja vrednost i-te
opservacije k-tog prediktora , ei je greška, a β0 , ..., βp su parametri.
Metod za nalaženje parametara koji se najčešće koristi je metod najmanjih kvadrata,
u kom kao ukupnu grešku predvidjanja uzimamo sumu :
n
X
Q= e2i
i=1
Traženjem minimuma funkcije Q(β0 , β1 , ..., βp ) dobijamo ocene βˆ0 , βˆ1 , ..., βˆp parame-
tara β0 , β1 , ..., βp , a ocenjeni model je
ŷi = βˆ0 + βˆ1 xi,1 + ... + βˆp xi,p
Da bismo proverili da li je model dobar, posmatramo reziduale
ei = yi − ŷi = yi − (βˆ0 + βˆ1 xi,1 + ... + βˆp xi,p )
Ako važe uslovi Gaus-Markova tj E(ei ) = 0, var(ei ) = const, E(ei ej ) = 0, onda su
ocene dobijene metodom najmanjih kvadrata dobre. Možemo dodatno pretpostaviti
da greške imaju normalnu raspodelu, N (0, σ 2 ).
Kada reziduali nemaju normalnu raspodelu metod najmanjih kvadrata gubi efika-
snost, pa tada koristimo robustnu regresiju.
Robustna regresija je takode veoma bitna kod modela koji imaju autlajere, tj tačke
za koje je vrednost reziduala velika. Autlajeri mogu predstavljati pogrešan poda-
tak ili nam mogu reći da regresiona prava nije odgovarajuća. Robustna regresija ih
otkriva i daje nam model koji je ”otporan”na njih.
3
2 Metode ocenjivanja
2.1 M
Ovo je jedna od metoda ocenjivanja robustne regresije, koja se može shvatiti kao
robustna generalizacija metode maksimalne verodostojnisti.
Ocena M metodom dobija se traženjem sledećeg minimuma :
n e
i
X
min ρ
b
i=1
σ
, gde je
p
X
ei = yi − (βˆ0 + βˆ1 xi,1 + ... + βˆp xi,p ) = yi − βˆj xi,j
j=0
ili matrično
β̂X T W X − X T W Y = 0
Za rešavanje ovoga potrebna nam je IRLS metoda (iteratively reweighted least-
squares), zato što težine zavise od reziduala, reziduali od procenjenih koeficijenata,
a oni od težina.
4
IRLS :
1. Ocenimo β̂ (0) metodom najmanjih kvadrata.
(t−1) (t−1)
2. U svakoj iteraciji t računamo reziduale ei i odgovarajuće težine wi =
t−1
w(ei ).
3. Računamo β̂ (t) kao
β̂ (t) = [X T W (t−1) X]−1 X T W (t−1) Y
(t−1)
, gde je W (t−1) = diag wi .
Ponavljamo korake 2 i 3 dok koeficijenti ne iskonvergiraju.
Treba još da odredimo σ̂. Često korišćena ocena je :
M AD(e1 , ..., en ) median|ei − median(e1 , ..., en )|
σ̂ = =
0.6745 0.6745
Konstanta 0.6745 je izabrana tako da kada bi ei -ovi imali N (0, σ 2 ), σ̂ bila asimptotski
nepristrasna ocena za σ.
5
(ρ, ψ, ω - least squares)
6
2.2 S
7
2.3 MM
MM-procena je specijalan slučaj M-procene koju je razvio Yohai (1987),ona kom-
binuje visoku relativnu efikasnost M ocenjivača sa osobinom visoke tačke preloma
ocenjivača. MM-procene su postale sve popularnije i jedna od najčešće korišćenih
robusnih tehnika regresije.
2. ρ(−r) = ρ(r)
3. 0 ≤ r ≤ v ⇒ ρ(r) ≤ ρ(v)
4. a = supρ onda 0 < a < ∞
5. ako je ρ(u) < a i 0 ≤ v, onda ρ(u) < ρ(v).
Za dati uzorak obima n, ocenjivač skale Sn definisan je kao rešenje
n
1 X ri
ρ =b (∗)
n i=1 Sn
Korak 1. Neka je βˆ0,n , inicijalni ocenjivač sa što većom tačkom preloma, ukoliko
je moguće želimo da tačka preloma iznosi ∗ = 0.5. Često se za početni ocenjivač
uzima upravo klasa S ocenjivača.
8
Korak 3. Neka je ρ1 druga funkcija koja zadovoljava pretpostavke (A) tako da
ρ1 (r) ≤ ρ0 (r),
supρ1 (r) = ρ0 (r) = a.
Neka je ψ1 = ∂∂r ρ1 . Onda su MM ocenjivači βˆ1,n definisani kao rešenje problema
n r
i
X
ψ1 xi = 0
i=1
Sn
što potvrduje
S(βˆ1,n ) ≤ S(βˆ0,n ),
gde je
n r (β)
i
X
S(β) = ρ .
i=1
S n
Dakle, prva dva koraka su odgovorna za visoku tačku preloma ocenjivača, dok je
treći korak odgovoran za visoku efikasnost ocenjivača. Upravo zbog ovoga ρ0 i ρ1 ne
moraju nužno biti iste funkcije i zašto ocenjivač izabran u ovom koraku ne mora biti
nužno efikasan. Yohai dokazuje da ukoliko se u prvom koraku koristi ocenjivač sa
tačkom preloma 0.5 onda će MM ocenjivač takode imati tačku preloma 0.5. Klasa
MM ocenjivača poseduje egzakt f it osobinu koja kaže da na datom uzorku obima
n ukoliko bar n − n2 + 1 observacija zadovoljavaju y = xTi β, onda se kao ocenjivač
parametra dobija upravo β nezavisno od drugih observacija. Ovu osobinu poseduju
robusne klase ocenjivača poput S. Takode ukoliko se u prvom koraku uzme regresi-
ono invarijantan i/ili afino invarijantan ocenjivač onda će i dobijeni MM ocenjivač
zadržati te osobine.
Slika 1.: Uprkos 9 (od ukupno 20) observacija koje su autlajeri, MM ocenjivač
Slika 1
9
pronalazi linearan fit.
Bez obzira na ove impresivne osobine MM ocenjivača i ovaj ocenjivač se relativno
lako pokvari kada su nivoi kontaminacije mnogo manji od 50%. Ovo ilustrujemo
primerom.
Slika 2.: Uprkos kontaminaciji uzorka od svega 20% MM ocenjivač se u potpunosti
Slika 2
Slika 3
Slika 3.: Mala promena uzorka i MM ocenjivač uspeva da pronade liearan trend
u podacima.
10
Izvori problema MM ocenjivača
Bez obzira na sposobnost MM ocenjivača da izadu na kraj sa individualnim autlaje-
rima u primeru ilustrovanom na Slici 3., videli smo osetljivost ocenjivača na klaster
podataka u primeru na Slici 2.
Rousenev i Liroj (1987, str. 154) naglašavaju da je visoka tačka preloma potreban,
ali ne i dovoljan uslov za dobar robusan ocenjivač. Deo problema leži u činjenici da
tačka preloma samo razmatra uticaj autlajera koji teče u beskonačnost.
([2]) ”, ” ” ”, . , on može postati vrlo
nepouzdan i da bude vrlo udaljen od prave ocene parametra. Robusnost ocenjivača
na autlajere donekle zavisi od stope kojom se ovaj skup širi kako se udeo autlajera
pocećava. Drugi izvor loše preformanse MM klase ocenjivača moe da leži i u Koraku
3. definicije ovog ocenjivača. Upravo izbor konstanti koji obezbeduje efikasnost i do
95% može da ima takvu posledicu da se ovaj ocenjivač ponaša znatno lošije, odnosno
proizvodi lošiji fit.
Slika 4.: Manje efikasni MM ocenjivači proizvode znatno bolji linearan fit.
Slika 4
11
}
plot(x[s1], y[s1], col = ”purple”, pch = 20, xlab = ”x”, ylab = ”y”)
points(x[s1], y[s1], pch = 20)
rlmH < −rlm(y x, method = ”M M ”, psi = psi.bisquare, c = 4.685, maxit = 60)
abline(rlmH, col = ”red”, lwd = 2)
rlmL < −rlm(y x, method = ”M M ”, psi = psi.bisquare, c = 2.973, maxit = 60)
abline(rlmL, col = ”blue”, lwd = 2)
legend(320, 80, 75.9%ef ikasanM M , box.lwd = 2, box.col = ”blue”)
legend(320, 95, 95.7%ef ikasanM M , box.lwd = 2, box.col = ”red”)
12
težina: (
u2i u4i u6i
2 − 2c22 + 6c2 , −c ≤ ui ≤ c
ρ(ui ) = c
6 , ui < −c ili ui > c
Algoritam 3:
1. Proceniti koeficijente regresije na podacima koje koristi OLS.
2. Testiranje pretpostavki modela klasične regresije.
3. Otkriti prisustvo autlajera u podacima.
4. Izračunati vrednost reziduala ei = yi − ŷi procene S.
5. Izračunati vrednost σ̂i = σˆsn .
6. Izračunati vrednost ui = σ̂eii .
7. Izračunati ponderisanu vrednost
( h 2 i2
ui
1 − 4.685 , |ui | ≤ 4.685;
wi =
0 , |ui | > 4.685.
13
3 Primeri/zadaci
Primer ove regresije émo uraditi na podacima Stackloss, koji predstavljaju opera-
tivne podatke postrojenja za oksidaciju amonijaka u azotnu kiselinu. Podaci sadrźe
21 opservaciju sa 4 promenljive. Promenljive su:
14
Dijagnostički grafici za OLS (ordinary least squares) metodu: grafik reziduala vs uklopljene(fitovane)
vrednosti,normalni QQ grafik reziduala,Kukovo rastojanje i statistika Kukovog rastojanja vs hii (1 − hii )
15
Kako bismo uzeli u obzir opservacije sa velikim vrednostima reziduala koristimo robusnu regresiju
16
Koristeći rlm, različite teźine u robustnim procenama mogu se lako izračunati, a grafički pregled moźe biti koristan
kako bi se odredili reziduali koji imaju teźine manje od 1. U mnogim siguacijama, te tezine vredi posmatrati jer one
automatski ukazuju na opservacije koje su razmatrane od strane robusne procene kao viśe ili manje udaljene od
većine podataka. Dijagnostičke grafike moźemo posmatrati i za robustno uklopljene modele kako bismo procenili
uklopljene vrednosti. Na sledećim slikama moźemo da vidimo dijagnostičke grafike za Huber procenu.
17
Ovo su izracunate vrednosti tezina reziduala razlicitim procenama. Na drugoj slici one su predstavljene i grafički, s
tim śto su teźine za Huber - krugovi,Hampel - trouglovi,Bisquare - krstići
Ovde ćemo
takodje uraditi i MM i S procenu na datim podacima.Funkcija rlm nam takodje omogućava implementaciju MM
procene:
rlm(formula,data,..,method = ”MM”)
Implementaciju S procene omogućava nam funkcija lqs. Koriśćenje funkcije lqs je :
18
Normalni QQ grafici razlicitih procena
19
20