Stat - Estymacja

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 51

Estymacja punktowa i przedziałowa

Zagadnienie 3

Robert Kapłon
Statystyka dla inżynierów
Semestr zimowy
Plan prezentacji

1 Populacja, próba i wnioskowanie statystyczne

2 Estymacja punktowa

3 Metoda największej wiarygodności

4 Własności estymatorów

5 Estymacja przedziałowa
Procedura konstrukcji przedziału
Przedział ufności dla średniej µ
Przedziały ufności dla frakcji

1
1. Populacja, próba i wnioskowanie statystyczne
Definicje

Populacja – zbiór jednostek lub elementów będących przedmiotem


zainteresowania badacza, np. populacja osób z wykształceniem wyższym,
gospodarstwa domowe, osoby odwiedzające daną stronę internetową, zbiór
klientów banku, zbiór klientów Pasażu Grunwaldzkiego itd.
Próba – jednostki lub elementy będące podzbiorem populacji. Obserwacje
w pojedynczej próbie oznaczamy

x1 , x2 , . . . , xn

Zanim będziemy dysponować taką próbą, mamy niepewność co do


konkretnych jej wartości. W tej sytuacji każdą obserwację traktujemy jako
zmienną losową i piszemy: X1, X2 , . . . , Xn .
Wnioskowanie statystyczne — uogólnianie wniosków na całą populację
wyciągniętych na podstawie losowej próby.

2
2. Estymacja punktowa
Pojęcia podstawowe

Statystyki – funkcje mierzalne T(X) próby X = (X1 , X2 , . . . , Xn ). Innymi słowy,


statystykami nazywamy zmienne losowe będące funkcjami próby.
Przykładowo, jeśli X1 , X2 , X3 to statystyka T może mieć postać:
T(X1, X2, X3 ) = (X1 + X2 + X3 )/3.
Estymacja parametryczna – szacowanie nieznanych parametrów w
ustalonym/znanym typie rozkładu (np. λ w rozkładzie Poissona, µ w
rozkładzie normalnym). Wykorzystujemy model parametryczny,
indeksowany skończoną liczbą parametrów.
Estymacja nieparametryczna – szacowanie nieznanej postaci rozkładu;
model nieparametryczny nie można indeksować skończoną liczbą
parametrów. Przykładem może być zadanie oszacowania dystrybuanty
(rozważamy wszystkie) na podstawie niezależnych obserwacji X1 , X2, . . . , Xn .

3
Pojęcia podstawowe cd.

Estymacja punktowa1 – polega na podaniu jednej oceny (oszacowaniu)


wartości parametru θ na podstawie wyników próby.
Estymacja przedziałowa – polega na podaniu nie jednej, ale zbioru ocen
wartości szacowanego parametru, charakteryzującego się pewnymi
własnościami.
Estymatorem – nazywamy każdą statystykę służącą do oszacowania
wartość nieznanego parametru θ. Słowo estymator zawsze łączymy z
szacowanym parametrem.

1 jeśli nie zostało zaznaczone inaczej, będzie chodziło o estymację parametryczną


4
3. Metoda największej wiarygodności
Funkcja wiarygodności – definicja

Definicja: Funkcja największej wiarygodności


Niech X1, X2, . . . Xn będzie (iid) próbą z populacji o funkcji gęstości bądź masie
prawdopodobieństwa f(x|θ1, θ2, . . . , θk ), wtedy funkcję wiarygodności
definiujemy

L(θ|x) = L(θ1, θ2, . . . , θk |x1, x2, . . . xn )


Ön
= f(xi |θ1 , θ2 , . . . , θk )
i=1

Najczęściej wykorzystujemy logarytm funkcji wiarygodności, czyli log L(θ|x)

5
Funkcja wiarygodności – definicja

Definicja: Funkcja największej wiarygodności


Niech X1, X2, . . . Xn będzie (iid) próbą z populacji o funkcji gęstości bądź masie
prawdopodobieństwa f(x|θ1, θ2, . . . , θk ), wtedy funkcję wiarygodności
definiujemy

L(θ|x) = L(θ1, θ2, . . . , θk |x1, x2, . . . xn )


Ön
= f(xi |θ1 , θ2 , . . . , θk )
i=1

Najczęściej wykorzystujemy logarytm funkcji wiarygodności, czyli log L(θ|x)

1. Funkcja wiarygodności jest łącznym prawdopodobieństwem wyników próby,


bądź łączną gęstością prawdopodobieństwa tych wyników.
2. Funkcja wiarygodności nie jest funkcją gęstości.
3. Funkcja wiarygodności to funkcja parametrów θ1 , θ2 , . . . , θk a nie x.

5
Estymator największej wiarygodności

Definicja: Estymator największej wiarygodności


Estymatorem największej wiarygodności MLE (maximum likelihood estimator),
parametru θ nazywamy taki estymator θ̂, że jego wartość maksymalizuje
wiarygodność próby (maksymalizuje funkcję wiarygodności)

6
Estymator największej wiarygodności

Definicja: Estymator największej wiarygodności


Estymatorem największej wiarygodności MLE (maximum likelihood estimator),
parametru θ nazywamy taki estymator θ̂, że jego wartość maksymalizuje
wiarygodność próby (maksymalizuje funkcję wiarygodności)

Twierdzenie o niezmienniczości
Jeśli θ̂ jest estymatorem największej wiarygodności parametru θ, wtedy g( θ̂)
jest również estymatorem g(θ) dla każdej funkcji g.

6
Estymator największej wiarygodności

Definicja: Estymator największej wiarygodności


Estymatorem największej wiarygodności MLE (maximum likelihood estimator),
parametru θ nazywamy taki estymator θ̂, że jego wartość maksymalizuje
wiarygodność próby (maksymalizuje funkcję wiarygodności)

Twierdzenie o niezmienniczości
Jeśli θ̂ jest estymatorem największej wiarygodności parametru θ, wtedy g( θ̂)
jest również estymatorem g(θ) dla każdej funkcji g.

Przykład niezmienniczości:
2
1. Jeśli estymatorem parametru θ jest X, to estymatorem θ 2 będzie X .
2. Jeśli estymatorem wartości średniej w rozkładzie
p Bernoulliego jest p̂ to
estymatorem odchylenia standardowego jest p̂(1 − p̂)

6
Szacowanie parametrów metodą ML

Procedura poszukiwania estymatora MLE parametru θ jest następująca:


1. wykorzystując rozkład z próby f(x|θ) znaleźć funkcję wiarygodności L
2. jeśli ułatwi to obliczenia, zlogarytmować tę funkcję,
3. stosując warunek koniczny istnienia ekstremum rozwiązać równanie

∂ log L(θ|x)
=0
∂θ
4. otrzymany w ten sposób estymator należy wykorzystać do sprawdzenia
warunku dostatecznego istnienia ekstremum

∂ 2 log L(θ|x)
<0
∂θ 2 θ=θ̂

7
Wyznaczanie estymatorów — zadania

Zadanie 1. Niech X1 , . . . , Xn ∼ Bernoulli(p). Funkcja prawdopodobieństwa

f(x|p) = px (1 − p) 1−x , x = 0, 1.

Znajdź estymator największej wiarygodności parametru p.


Zadanie 2. Przypuśćmy, że x1 = 3, x2 = 5, x3 = 4, x4 = 2 są niezależnymi
obserwacjami, które podlegają rozkładowi Poissona:

λx
f(x|λ) = e−λ , x = 0, 1, . . .
x!
Znajdź estymator największej wiarygodności parametru λ.
Zadanie 3. Niech X1, . . . , Xn ∼ N (µ, σ 2 ). Parametry θ = (µ, σ 2 ). Oszacuj
nieznany wektor θ parametrów.

8
4. Własności estymatorów
Uwagi ogólne

Konstruujemy statystykę θ̂ = T(X), zwaną estymatorem punktowym


parametru θ w taki sposób, aby była blisko nieznanego parametru θ.
Jakiej statystyki powinniśmy użyć? Najlepszej? Co to znaczy?
Punktem wyjścia może być dokładność estymatora mierzona błędem
średniokwadratowym:
MSE( θ̂) = Å[( θ̂ − θ) 2 ]
Jeśli estymator θ̂1 jest lepszy od θ̂2 wtedy MSE( θ̂1 ) ⩽ MSE( θ̂2 ) dla każdej
wartości parametru θ ∈ Θ.
Taki najlepszy estymator istnieje rzadko: w zależności od θ lepszy jest jeden
bądź drugi.
W konsekwencji istnieje konieczność dodatkowych kryteriów optymalności:
nieobciążoność, efektywność i zgodność.

9
Estymator nieobciążony

Definicja: Estymator nieobciążony


Estymator θ̂ = T(X) parametru θ jest nieobciążony, jeśli

Å[ θ̂] = θ, θ ∈ Θ.

Estymator, który nie spełnia warunku nieobciążoności, nazywamy


estymatorem obciążonym. Obciążeniem estymatora θ̂ nazywamy różnicę

Å[θ̂] − θ = bias( θ̂).

10
Estymator nieobciążony

Definicja: Estymator nieobciążony


Estymator θ̂ = T(X) parametru θ jest nieobciążony, jeśli

Å[ θ̂] = θ, θ ∈ Θ.

Estymator, który nie spełnia warunku nieobciążoności, nazywamy


estymatorem obciążonym. Obciążeniem estymatora θ̂ nazywamy różnicę

Å[θ̂] − θ = bias( θ̂).

1. Własność nieobciążoności estymatora gwarantuje otrzymywanie za jego


pomocą ocen wolnych od błędu systematycznego.
2. W pojedynczych przypadkach oszacowania parametru θ za pomocą tego
estymatora oceny mogą być obarczone błędem przypadkowym, lecz średnia
wartość tego błędu jest równa 0.

10
Sprawdzanie obciążoności estymatorów

1. Zaproponowano statystykę T(X1, X2, . . . , Xn ) = X jako estymator parametru λ


w rozkładzie Poissona. Czy estymator ten jest nieobciążony?
2. Estymatorem największej wiarygodności parametru σ 2 w rozkładzie
normalnym jest

n
σ̂ 2 = (Xi − X) 2
n
i=1

Czy estymator ten jest nieobciążony?


3. Niech X1 , X2 , . . . Xn będzie próbą prostą z populacji i rozkładzie f(x|θ), gdzie
Å[X] = θ. Zaproponowano estymator
Õ
n
θ̂ = ai Xi
i=1

gdzie ai to stałe. Jaki warunek powinny spełniać stałe, aby rozważany


estymator był nieobciążony?

11
Estymator efektywny – definicja

Niech θ̂1 i θ̂2 będą dwoma nieobciążonymi estymatorami parametru θ. Jeśli

Var( θ̂1 ) < Var( θ̂2 )

to mówimy, że estymator θ̂1 jest bardziej efektywny niż θ̂2 . Z kolei miarą
efektywność θ̂1 jest iloraz Var( θ̂2 )/Var( θ̂1 )

12
Estymator efektywny – definicja

Niech θ̂1 i θ̂2 będą dwoma nieobciążonymi estymatorami parametru θ. Jeśli

Var( θ̂1 ) < Var( θ̂2 )

to mówimy, że estymator θ̂1 jest bardziej efektywny niż θ̂2 . Z kolei miarą
efektywność θ̂1 jest iloraz Var( θ̂2 )/Var( θ̂1 )

Definicja: Estymator efektywny


Niech W będzie zbiorem wszystkich nieobciążonych estymatorów parametru θ.
Mówimy, że estymator θ̂ ∗ ∈ W jest estymatorem efektywnym
(najefektywniejszym) jeśli zachodzi

Var( θ̂ ∗ ) ⩽ Var( θ̂) dla każdego θ̂ ∈ W.

12
Estymator efektywny – nierówność Cramèra-Rao

Twierdzenie o nierówności Cramèra-Rao


Niech f(x|θ) będzie funkcją gęstości przynajmniej dwukrotnie różniczkowalną
ze względu na parametr θ, a zbiór wartości x będzie niezależny od tego
parametru. Jeśli X1 , X2 , . . . , Xn jest próbą iid, a θ̂ nieobciążonym estymatorem
parametru θ, wtedy
( "  2 # ) −1
∂ log f(x|θ)
Var( θ̂) ⩾ nÅ
∂θ
  2   −1
∂ log f(x|θ)
= − nÅ
∂θ 2

13
Estymator efektywny – nierówność Cramèra-Rao

Twierdzenie o nierówności Cramèra-Rao


Niech f(x|θ) będzie funkcją gęstości przynajmniej dwukrotnie różniczkowalną
ze względu na parametr θ, a zbiór wartości x będzie niezależny od tego
parametru. Jeśli X1 , X2 , . . . , Xn jest próbą iid, a θ̂ nieobciążonym estymatorem
parametru θ, wtedy
( "  2 # ) −1
∂ log f(x|θ)
Var( θ̂) ⩾ nÅ
∂θ
  2   −1
∂ log f(x|θ)
= − nÅ
∂θ 2

1. Prawa strona nierówności Cramèra-Rao określa kres dolny wariancji


estymatora nieobciążonego parametru θ.
2. Jeżeli wariancja Var( θ̂) jest równa prawej stronie nierówności, to taki
estymator jest efektywny.

13
Estymator efektywny – przykład

Niech X1 , X2 , . . . , Xn będzie próbą iid o rozkładzie N (µ, σ 2 ). Czy estymator µ̂ = X


jest estymatorem efektywnym.

14
Estymator efektywny – przykład

Niech X1 , X2 , . . . , Xn będzie próbą iid o rozkładzie N (µ, σ 2 ). Czy estymator µ̂ = X


jest estymatorem efektywnym.

Rozwiązanie: Estymator ten jest nieobciążony (sprawdź). Ponieważ


 
2 1 (x − µ) 2
f(x|µ, σ ) = √ exp −
σ 2π 2σ 2
√ (x−µ) 2
więc log f(x|µ, σ 2 ) = − log(σ 2π) − 2σ 2
. Dla prawej strony nierówności
Cramèra-Rao

14
Estymator efektywny – przykład

Niech X1 , X2 , . . . , Xn będzie próbą iid o rozkładzie N (µ, σ 2 ). Czy estymator µ̂ = X


jest estymatorem efektywnym.

Rozwiązanie: Estymator ten jest nieobciążony (sprawdź). Ponieważ


 
2 1 (x − µ) 2
f(x|µ, σ ) = √ exp −
σ 2π 2σ 2
√ 2
więc log f(x|µ, σ 2 ) = − log(σ 2π) − (x−µ)
2σ 2
. Dla prawej strony nierówności
Cramèra-Rao
" 2#
∂ log f(x|µ, σ 2 ) (x − µ) ∂ log f(x|µ, σ 2 ) nÅ[(X − µ) 2 ] n
= 2
; nÅ = = 2
∂µ σ ∂µ σ4 σ

14
Estymator efektywny – przykład

Niech X1 , X2 , . . . , Xn będzie próbą iid o rozkładzie N (µ, σ 2 ). Czy estymator µ̂ = X


jest estymatorem efektywnym.

Rozwiązanie: Estymator ten jest nieobciążony (sprawdź). Ponieważ


 
2 1 (x − µ) 2
f(x|µ, σ ) = √ exp −
σ 2π 2σ 2
√ 2
więc log f(x|µ, σ 2 ) = − log(σ 2π) − (x−µ)
2σ 2
. Dla prawej strony nierówności
Cramèra-Rao
" 2#
∂ log f(x|µ, σ 2 ) (x − µ) ∂ log f(x|µ, σ 2 ) nÅ[(X − µ) 2 ] n
= 2
; nÅ = = 2
∂µ σ ∂µ σ4 σ

1 Ín 1
Z kolei lewa strona Var(X) = n2 i=1 Var(Xi ) = n2
n Var(X) = σ 2 /n

14
Estymator zgodny – definicja

Definicja: Estymator zgodny


Estymator θ̂ parametru θ nazywamy estymatorem zgodnym, jeśli jest zbieżny
według prawdopodobieństwa do θ, czyli

[ε>0 lim Ð(| θ̂n − θ| < ε) = 1


n→∞

1. Im większa próba, tym większe prawdopodobieństwo tego, że różnica


między parametrem a estymatorem będzie coraz mniejsza.
2. Można powiedzieć, że zwiększając rozmiar próby, zwiększamy precyzję
szacunku nieznanego parametru θ.
3. Średnia z próby X jest zgodnym estymatorem bez względy na rozkład.
Znamy tę własność pod pojęciem prawa wielkich liczb (patrz wykład 1 i 2).

15
Własności estymatorów największej wiarygodności

1. Estymator ML jest zgodny


2. Estymator ML jest niezmienniczy
3. Estymator ML efektywny (przynajmniej asymptotycznie)
4. Estymator ML ma asymptotyczny rozkład normalny

θ̂ − θ
q ⇝ N (0, 1)
Var( θ̂)

gdzie

1
Var( θ̂) =  2
∂ log f(x |θ)
nÅ ∂θ

16
5. Estymacja przedziałowa
Definicja ogólna przedziału ufności

Niech X1, X2, . . . , Xn będzie próbą z pewnego rozkładu indeksowanego


parametrem θ. Przedziałem ufności dla parametru θ nazywamy przedział
[TL , TU ] spełniający warunki:
1. końce TL = TL (X) i TU = TU (X) sa funkcjami próby losowej X i nie zależą od
szacowanego parametru θ; przyjmujemy tutaj, że zmienne losowe TL i TU są
typu ciągłego;
2. dla zadanej liczby α ∈ (0, 1) prawdopodobieństwo pokrycia nieznanego
parametru θ przez ten przedział jest równe 1 − α, tzn.

Ð(TL ⩽ θ ⩽ TU ) = 1 − α

a liczbę 1 − α nazywamy poziomem ufności.

17
Uwagi odnośnie przedziału ufności

1. Przedział [TL, TU ] jest przedziałem losowym, a więc w każdej próbie będzie


na ogół różny.
2. Niektóre z tych przedziałów będą zawierały parametr θ, a inne nie będą go
zawierały.
3. Jednakże w długiej serii niezależnych prób, częstość przypadku gdy ten
przedział zawiera parametr θ, będzie w przybliżeniu równy 1 − α.

18
Konstrukcja przedziału ufności i funkcja centralna

Narzędziem do konstrukcji przedziałów ufności jest (najczęściej) tzw. funkcja


centralna.
Definicja: Funkcja centralna
Niech X1, X2, . . . , Xn będzie próbą. Funkcja Q(X1, X2, . . . , Xn ; θ) nazywa się
funkcją centralną dla parametru θ ∈ Θ, jeśli jej rozkład nie zależy od tego
parametru θ.

Jeśli dysponujemy funkcją centralną Q(X; θ) parametru θ, przedział


konstruujemy, wybierając liczby a i b w taki sposób, aby spełniały równość

Ð(a ⩽ Q(X; θ) ⩽ b) = 1 − α

19
Konstrukcja przedziału ufności i funkcja centralna cd.

1. Zakładamy, że funkcja centralna jest ciągła i ściśle monotoniczna względem


θ
2. Nierówność a ⩽ Q(X; θ) ⩽ b jest równoważna nierówności

TL (X; a, b) ⩽ θ ⩽ TU (X; a, b)

3. Przy wyborze wartości a i b kierujemy się kryterium minimalnej długości


przedziału
4. Jeśli a = −∞ lub b = ∞ wtedy otrzymujemy tzw. jednostronne przedziały
ufności.
5. Najczęściej a i b to kwantyle rozkładu Q(X; θ).
6. Kwantylem rzędu α ciągłej zmiennej losowej X o dystrybuancie F nazywamy
taką liczbę xα , która spełnia równanie

F(xα ) = α

20
Przykłady funkcji centralnych

Funkcje centralne łatwo wyznaczyć, wykorzystując własność estymatorów


największej wiarygodności, mówiącą o asymptotycznym rozkładzie
normalnym.
iid
Przykład: Niech próba X1 , X2 , . . . , Xn ∼ N (µ, σ 2 ), gdzie µ jest nieznanym
2
parametrem, a σ znana liczbą dodatnią. Wiemy, że estymatorem
parametru µ jest X, a Var(X) = σ 2 /n, więc

θ̂ − θ X−µ X − µ√
q =p = n ∼ N (0, 1)
2
σ /n σ
Var( θ̂)

21
Przykłady funkcji centralnych

Funkcje centralne łatwo wyznaczyć, wykorzystując własność estymatorów


największej wiarygodności, mówiącą o asymptotycznym rozkładzie
normalnym.
iid
Przykład: Niech próba X1 , X2 , . . . , Xn ∼ N (µ, σ 2 ), gdzie µ jest nieznanym
2
parametrem, a σ znana liczbą dodatnią. Wiemy, że estymatorem
parametru µ jest X, a Var(X) = σ 2 /n, więc

θ̂ − θ X−µ X − µ√
q =p = n ∼ N (0, 1)
2
σ /n σ
Var( θ̂)
Tym samym
X − µ√
Q(X; µ) = n ∼ N (0, 1)
σ
jest funkcją centralną parametru µ o zestandaryzowanym rozkładzie
normalnym — rozkład nie zależy od parametrów.

21
Przykłady funkcji centralnych

iid
Niech próba X1, X2, . . . , Xn ∼ N (µ, σ 2 ), gdzie µ i σ 2 są nieznanymi
parametrami. Przyjmując, że estymatorami parametrów µ i σ 2 są

1Õ 1 Õ 2
n n
X= Xi , S2 = Xi − X
n n−1
i=1 i=1

można zaproponować następujące funkcje:

X − µ√
Q(X; µ) = n ∼ t(n − 1)
S
n−1 2
Q(X; σ 2 ) = S ∼ χ 2 (n − 1)
σ2
gdzie t(n − 1) oznacza rozkład t-Studenta z n − 1 stopniami swobody, a
χ 2 (n − 1) jest rozkładem chi-kwadrat z n − 1 stopniami swobody.

22
Przykład konstrukcji przedziału dla µ (znane σ 2 )
Do konstrukcji przedziału ufności dla parametru µ (średniej) i zadanej liczbowo σ 2
wykorzystajmy wyprowadzoną wcześniej funkcję centralną

X−µ√
Q(X; µ) = n ∼ N (0, 1)
σ
Stałe a i b znajdziemy, przyjmując minimalną długość przedziału (czyli a = −b)
!
X−µ√
Ð(a ⩽ Q(X; θ) ⩽ b) = 1 − α ⇒ Ð −b ⩽ n ⩽ b =1−α ⇒
σ
α  α
⇒ Φ(b) − Φ(−b) = 1 − α ⇒ 2Φ(b) − 1 = 1 − α ⇒ Φ(b) = 1 − ⇒ b = Φ−1 1 −
2 2

23
Przykład konstrukcji przedziału dla µ (znane σ 2 )
Do konstrukcji przedziału ufności dla parametru µ (średniej) i zadanej liczbowo σ 2
wykorzystajmy wyprowadzoną wcześniej funkcję centralną

X−µ√
Q(X; µ) = n ∼ N (0, 1)
σ
Stałe a i b znajdziemy, przyjmując minimalną długość przedziału (czyli a = −b)
!
X−µ√
Ð(a ⩽ Q(X; θ) ⩽ b) = 1 − α ⇒ Ð −b ⩽ n ⩽ b =1−α ⇒
σ
α  α
⇒ Φ(b) − Φ(−b) = 1 − α ⇒ 2Φ(b) − 1 = 1 − α ⇒ Φ(b) = 1 − ⇒ b = Φ−1 1 −
2 2
 
z kolei Φ−1 1 − α2 jest kwantylem rzędu 1 − α/2 (odczytywanym z tablic) co oznaczamy
z ( 1− α ) . Przedział wyznaczamy
2

23
Przykład konstrukcji przedziału dla µ (znane σ 2 )
Do konstrukcji przedziału ufności dla parametru µ (średniej) i zadanej liczbowo σ 2
wykorzystajmy wyprowadzoną wcześniej funkcję centralną

X−µ√
Q(X; µ) = n ∼ N (0, 1)
σ
Stałe a i b znajdziemy, przyjmując minimalną długość przedziału (czyli a = −b)
!
X−µ√
Ð(a ⩽ Q(X; θ) ⩽ b) = 1 − α ⇒ Ð −b ⩽ n ⩽ b =1−α ⇒
σ
α  α
⇒ Φ(b) − Φ(−b) = 1 − α ⇒ 2Φ(b) − 1 = 1 − α ⇒ Φ(b) = 1 − ⇒ b = Φ−1 1 −
2 2
 
z kolei Φ−1 1 − α2 jest kwantylem rzędu 1 − α/2 (odczytywanym z tablic) co oznaczamy
z ( 1− α ) . Przedział wyznaczamy
2

X−µ√ σ σ
− z ( 1− α ) ⩽ n ⩽ z ( 1− α ) ⇒ X − z ( 1− α ) √ ⩽ µ ⩽ X + z ( 1− α ) √
2 σ 2 2 n 2 n
Możliwa jest sytuacja, gdy a = −∞ lub b = ∞. Wtedy otrzymamy tzw. przedziały
jednostronne.
23
Przedziału ufności dla µ, gdy nieznane σ 2

Raczej nie zdarza się, aby σ 2 było znane. Dlatego w praktyce do konstrukcji
przedziału dla średniej wykorzystujemy funkcję centralną

X − µ√
Q(X; µ) = n ∼ t(n − 1)
S
Postępując dokładnie jak w wypadku, gdy σ 2 było znane, możemy otrzymać
następujący przedział
 α  S  α  S
X−t 1− ,n−1 √ ⩽ µ ⩽ X+t 1− ,n−1 √
2 n 2 n

gdzie t 1 − α2 , n − 1 jest kwantylem rzędu (1 − α/2) rozkładu t-Studenta o n − 1
stopniach swobody. √
Uwaga:
√ Można spotkać alternatywną postać przedziału, gdzie zamiast n jest
n − 1. Oznacza to, że przyjęto estymator obciążony wariancji S2 (czyli
występuje w niej składnik n1 a nie n−11
).

24
Przedział ufności dla średniej — zadanie
Zadanie 4. Przeprowadzono badanie na próbie 10 kobiet w wieku 19-30 lat.
Zapytano je o liczbę dziennie spożywanych kalorii i otrzymano: 1847, 1920,
1978, 1958, 2000, 2018, 1893, 2037, 1920, 2030. Przyjmując poziom ufności
1 − α = 0.95 oszacować metodą przedziałową średnią dostarczanych kalorii.

25
Przedział ufności dla średniej — zadanie
Zadanie 4. Przeprowadzono badanie na próbie 10 kobiet w wieku 19-30 lat.
Zapytano je o liczbę dziennie spożywanych kalorii i otrzymano: 1847, 1920,
1978, 1958, 2000, 2018, 1893, 2037, 1920, 2030. Przyjmując poziom ufności
1 − α = 0.95 oszacować metodą przedziałową średnią dostarczanych kalorii.
Ponieważ nie znamy σ 2 , wiec wykorzystamy przedział
 α  S  α  S
X−t 1− ,n−1 √ ⩽ µ ⩽ X+t 1− ,n−1 √
2 n 2 n

Na podstawie próby szacujemy: x = 1960.1


v
u
t
1 Õ
n
2
s= xi − x = 63.75
n−1
i=1
   
α 0.05
t 1− ,n−1 = t 1− , 10 − 1 = 2.2622
2 2

i otrzymujemy: 1914 ⩽ µ ⩽ 2006


25
Interpretacja i uwagi do przykładu o kaloriach

1. Mamy 95% przekonanie, że nieznana średnia kalorii w populacji zostanie


pokryta przez przedział (1914, 2006).
2. Mamy 95% przekonanie, że nieznana średnia kalorii kobiet w wieku 19-30
lat leży między 1914 a 2006 kalorii – w domyśle chodzi o to, że przedział
oszacowano za pomocą metody dającej prawdziwy wyniki w 95% wszystkich
możliwych prób.
3. Które ze stwierdzeń należy przyjąć:
Nie można więc powiedzieć: prawdopodobieństwo tego, że średnia z populacji
należy do przedziału (1914, 2006) jest równe 95%. Po pobraniu próby i
wyznaczeniu przedziału nie ma już losowości. Średnia ta należy, bądź nie do
przedziału.
Prawdopodobieństwo, że nieznany parametr należy do wyznaczonego przedziału
wynosi 0.95.

26
 
Uwagi do: X − t 1 − α2 , n − 1 √S ⩽ µ ⩽ X + t 1 − α2 , n − 1 √S
n n

1. Założenie mówiące o rozkładzie normalnym badanej cechy nie jest tak istotne
(model jest dość odporny), chyba że występują wartości odstające lub rozkład jest
bardzo skośny. Statystyki X i S2 nie są odporne na wartości odstające.
2. Należy więc zidentyfikować wartości odstające i podjąć decyzję co z nimi zrobić.
3. Jeśli próba jest duża, to nie musimy się przejmować normalnością rozkładu
pojedynczych obserwacji, ponieważ interesuje nas rozkład średniej X. Wiemy z CTG,
że X zbiega do rozkładu normalnego.
4. Również estymowany S2 , bez względu na rozkład, wraz ze wzrostem próby dąży do
σ 2 (zgodnie z prawem wielkich liczb).
5. Próba mniejsza niż 15: użyj przedziału, gdy obserwacje mają rozkład normalny. Gdy
występują obserwacje odstające lub/i brak normalności – zrezygnuj.
6. Jeśli próba n ⩾ 40, a rozkład jest skośny, można użyć tego przedziału.

27
Przedział ufności Walda dla frakcji p̂
Niech X1, X2, . . . , Xn będzie próbą losową, w której każde Xi (i = 1, . . . , n) ma
rozkład BernoulliegoÍz parametrem p, więc P(Xi = 1) = p. Oznaczając liczbę
sukcesów przez X = ni=1 Xi estymatorem największej wiarygodności p jest

X
p̂ = .
n
Z własności MLE wiemy, że gdy n → ∞ wtedy

p̂ − p
Q(X; p) = p ∼ N(0, 1).
Var( p̂)

Tym samym dla każdego 0 < α < 1 mamy


!
p̂ − p
P −z(1 − α/2) < p < z(1 − α/2) ≈ 1 − α
Var( p̂)

gdzie Var( p̂) = p̂(1 − p̂)/n (niezmienniczość), a z(1 − α/2) jest kwantylem rzędu
1 − α/2 zestandaryzowanego rozkładu normalnego.
28
Przedział ufności Walda (cd.)

(1 − α) 100% przedział ufności dla frakcji p ma postać:


r r
p̂(1 − p̂) p̂(1 − p̂) X
p̂ − z1−α/2 < p < p̂ + z1−α/2 ; p̂ = .
n n n
Uwagi:
Przedział ufności Walda wykorzystuje przybliżony rozkładu statystyki,
dlatego wymaga dużych prób.
Kiedy liczba sukcesów X znajduje się w pobliżu 0 lub n, wtedy oszacowane
granice przedziału mogą wychodzić poza dopuszczalne wartości.
Przedział ten ma prawdziwy poziom ufności < 1 − α, a taki przedział
nazywamy przedziałem liberalnym.
Funkcja binconf() z pakietu Hmisc pozwala oszacować ten przedział, ale
występuje on pod nazwą asymptotic.

29
Przedział ufności Wilsona dla frakcji p̂

Kiedy rozmiar próby jest mały (n < 40) wtedy (1 − α)100% przedział ufności
(Wilsona) ma postać:

s s
√ √
z1−α/2 n z21−α/2 z1−α/2 n z21−α/2
p̃ − p̂(1 − p̂) + < p < p̃ + p̂(1 − p̂) +
n + z21−α/2 4n n + z21−α/2 4n

gdzie
X + 21 z21−α/2
p̃ = , z1−α/2 = z(1 − α/2)
n + z21−α/2

Uwagi:
Przedział Wilsona zawsze ma granice między 0 a 1.
W stosunku do innych sposobów szacowania przedziałów, tutaj prawdziwy
poziom ufności jest najbliższy temu przyjętemu.

30
Przedział ufności Cloppera-Pearsona (dokładny) dla frakcji p̂
W konstrukcji tego konserwatywnego przedziału wykorzystuje się związek
między rozkładem dwumianowym a rozkładem beta.
Budowa (1 − α)100% przedziału Cloppere-Pearsona sprowadza się do
wyznaczenia odpowiednich kwantyli z dwóch rozkładów beta.

qbeta(α/2; X, n − X + 1) < p < qbeta(1 − α/2; X + 1, n − X)

gdzie qbeta(α; a, b) jest kwantylem α rozkładu beta z parametrem a i b.

Uwagi:
Konserwatywny oznacza, że prawdziwy poziom ufności jest zawsze równy
lub większy od postulowanego/założonego poziomu 1 − α.
Niektórzy uważają, że z praktycznego poziomu widzenia nie jest on dobrym
wyborem, właśnie ze względu na jego konserwatywność – zwykle jest
szerszy od innych przedziałów.
Swoją nazwę dokładny przedział ten zawdzięcza wykorzystaniu rozkładu
dokładnego. Wspomniana wcześniej funkcja binconf() oznacza go jako
exact.
31
Przedział ufności dla frakcji — zadanie

Zadanie 5. Metodą punktową i przedziałową oszacuj odsetek osób wierzących


w życie po śmierci. Wykorzystaj dane z badania znajdujące sie w pliku
satysfakcja.dat. Wyniki zinterpretuj.

32

You might also like