Professional Documents
Culture Documents
02 - Zmienne Losowe - X
02 - Zmienne Losowe - X
02 - Zmienne Losowe - X
Dla ustalenia liczby ryb w jeziorze odławiamy pewną liczbę ryb, np.
1000sztuk. Złapane ryby znakujemy i wpuszczamy je do jeziora. Po
upływie pewnego czasu dokonujemy odłowu uzyskując np.: 1200 ryb,
wśród których było 25 znakowanych.
B C
N liczba ryb = liczba kul w urnie
( )( ) B ryby znakowane = kule białe
PN N b c
C ryby nieznakowane = kule czarne
( n) n ryby odłowione = liczba losowań zależnych
b wyłowione znakowane =wylosowane białe
c wyłowione nieznakowane = wylosowane czarne
Prawdopodobieństwo wylosowania b kul białych i c kul
czarnych w n losowaniach
Cd. ryby
Aby na podstawie tych danych empirycznych oszacować liczbę ryb w
jeziorze zastosujemy zasadę największej wiarygodności, polegającej
na wyznaczeniu takiej liczby N, aby prawdopodobieństwo PN miało
wartość największą.
PN ( Bb )( nNbB ) ( nN 1 ) N 2 nN BN Bn
N * B N 1 B
PN 1 (n ) (b )(nb ) N ( N B n b)
PN/P N-1 >1 dla N<B*n/b
PN osiąga największą
PN/P N-1 <1 dla N> B*n/b wartość dla N = [B n/b]
Zmienne losowe
Zmienna losowa
X(wi) = i
3 2 1 4 5 6 Zmienne
Y(wi) = 1 gdy i parzyste Y(wi) =0 gdy i nieparzyste dyskretne
Przykład 1
Dystrybuanta zmiennej 5/6
losowej X w rzucie jedną 4/6
3/6
kostką do gry:
1 2 3 4 5 6 7 8
Przykłady
X ( )
E( X )
card ()
fX ( xi ) P ( X xi ) pi
n n
EX xi fX ( xi ) xi pi
i 1 i 1
Przykład
W pewnej loterii sprzedaje się n losów, z których n1 wygrywa sumę
x1 zł., n2 - wygrywa x2 zł., ...nk losów wygrywa xk zł.
Loterię nazywamy sprawiedliwą, jeśli suma wygranych jest
równa ilości pieniędzy uzyskanych ze sprzedaży biletów.
Jaka powinna być cena jednego losu, żeby loteria była sprawiedliwa?
Suma wygranych =
i=1...k xi *ni 1 los = EX zł Zysk = n *EX
Przykład
2,40
1,20 4,80
Dowód Tw. 2:
E(X*Y) = w Y(w) *X(w) * P({w}) = xX(),y Y() x*y P(X=x i Y=y) =
xX(),y Y() x*y P(X = x ) * P ( y = y ) =
xX() x* P(X=x) *( yY() y * P(Y=y) ) = E(X) * E(Y).
Wariancja
Rozważmy dwie zmienne o rozkładach {(100,1/2), (100,1/2)}, {(2,1/3),
(-1,2/3)} Mamy EX = EY = 0. Chociaż zmienne bardzo się
różnią, to wartości oczekiwane są takie same.
Nowy parametr, który
charakteryzuje rozrzut wartości
zmiennej losowej.
X
1 z prawdop . p
0 z prawdop . 1 p
Wtedy EX = p oraz
D2X = E((X- EX)2) = (1-p) 2 p +(0-p) 2(1-p) = p(1-p)
b a b
P(a X b) F (b) F (a ) f ( x)dx f ( x)dx f ( x)dx
a
Definicje:
E( X ) xf ( x)dx
dystrybuanta funkcja gęstości Funkcja dystrybuanty
1
f(a)
F(a)
dystrybuanta
Interpretacja wykresu
• całe pole pod funkcją gęstości ma powierzchnię równą 1
• wartość funkcji dystrybuanty zmienia się wraz z wartością „x” w sposób
pokazany strzałką (prawa granica pola przesuwa się)
a=0
b=8
ab 2
E( X ) (b a )
2 D2 ( X )
12
Rozkład trójkątny f(X)
2 dystrybuanta
Rozkład ten opisują trzy wartości
zmiennej: ca funkcja gęstości
a — najmniejsza przewidywana
b — najbardziej prawdopodobna
a b c X
c — największa przewidywana xi
Zalety rozkładu
• łatwy do matematycznego przetwarzania
• nadaje się do modelowania wszystkich rozkładów jednomodalnych
• zrozumiały dla osób nie znających statystyki
ZMIENNE LOSOWE WIELOWYMIAROWE
Badamy pewną zbiorowość ze względu na kilka cech ( np. dwie)
ZMIENNE LOSOWE WIELOWYMIAROWE
PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH
DWUWYMIAROWYCH
xi j
r
i
s
y pij
j
mrs
x
r s
y f ( x, y )dxdy
m10 E ( X 1Y 0 ) E ( X ) m01 E ( X 0Y 1 ) E (Y )
m11 E ( X 1Y 1 ) E ( XY )
PARAMETRY ROZKŁADU ZMIENNYCH LOSOWYCH
DWUWYMIAROWYCH
rs E ( X EX ) r (Y EY ) s
2
20 E ( X EX ) (Y EY ) D X 0
2
02 E ( X EX ) 0 (Y EY ) 2 D 2Y
( x m
i j
10 )( y m01 ) pij
cov( X , Y )
(x m 10 )( y m01 ) f ( x, y )dxdy
Współczynnik korelacji
1 1
Współczynnik korelacji dla zmiennych
losowych liniowo zależnych
PY aX b 1
D 2Y D 2 (aX b) a 2 D 2 X
Y aX b EY aEX b
aEX 2 a( EX ) 2 a( EX ) 2 a( EX ) 2 aEX 2 a( EX ) 2 aD 2 X
11 cov(X , Y ) aD 2 X aD 2 X a
XY 1
20 02 2 2
D ( X ) D (Y ) 2 2 2
D ( X )a D ( X ) a D X a
2 2
Funkcja regresji zmiennej losowej Y względem
zmiennej losowej X.
g ( x) E (Y X x) g ( x) E (Y X x) yf ( y x)dy
f ( y x) rozkład warunkowy
E Y g ( x) min
2
Dla funkcji regresji zachodzi własność
Własność ta jest podstawą szacowania metodą najmniejszych kwadratów funkcji
regresji II rodzaju, tzn. funkcji g(x) o przyjętym z góry typie i o parametrach
wyznaczonych tak, by dla wyników (xi,yi) (i=1,2,...,n) n-elementowej próby z
dwuwymiarowego rozkładu (X,Y) zachodziło minimum funkcji:
n
S yi g ( xi ) g ( x) x
2
i 1
Rad rozpada się w radon. Rozpadające się jądro radu wysyła cząsteczkę α.
Odległości między atomami są stosunkowo duże, można zatem przyjąć, że jądra
rozpadają się niezależnie od stanu sąsiednich atomów.
Załóżmy, że prawdopodobieństwo p(t) rozpadu danego atomu radu w pewnym
przedziale czasu o długości t zależy tylko od długości tego przedziału. Jeżeli łącznie
jest n atomów ( w jednym gramie 10 ) to średnia liczba cząsteczek wysyłanych w
czasie t jest równa a = np(t). Jak pokazują doświadczenia, liczba ta przy t = 1 s jest
rzędu 1010, zatem p(1) = 10-12
Sukces – rozpad atomu radu. Liczba wyemitowanych cząsteczek jest równa licznie
sukcesów w n doświadczeniach Bernoulliego.
Prawdopodobieństwo sukcesu p = p(t). Parametry n i p są takie, że faktycznym
rozkładem prawdopodobieństwa zmiennej losowej X(t) – liczba wysłanych w czasie
t cząsteczek będzie rozkład Poissona z parametrem a = np(t):
Podstawowe rozkłady ciągłe
Rozkład gamma Rozkład beta
Rozkład t-Studenta
Rozkład χ2
Rozkład normalny ( rozkład Gaussa)
( x m) 2 2
1
2 2
1 ( x m)
f ( x) e exp( 2
)
2 2 2
EX m D2 X 2 N(m,)
X m 1 x2
U N(0,1) f ( x) exp( )
2 2
Centralne twierdzenie graniczne
ROZKŁAD.NORMALNY
Daje w wyniku normalny rozkład łączny dla danej średniej i normalnego
odchylenia. Funkcja ta ma bardzo szeroki zakres zastosowań w statystyce,
łącznie z badaniem hipotez.
Składnia
ROZKŁAD.NORMALNY(x;średnia;odchylenie_std;skumulowany)
ROZKŁAD.NORMALNY.ODW(prawdopodobieństwo;średnia;odchylenie_std)
ROZKŁAD.NORMALNY.S.ODW(prawdopodobieństwo)
0.5
0.4
0.3
dnorm( x 1 1)
dnorm( x 2 1)
dnorm( x 3 1)
dnorm( x 4 1)
0.2
0.1
0 0
30 0 30
30 x 30
1.2
1.2
1.1
0.9
0.8
pnorm( x 0 1) 0.7
pnorm( x 2 1)
0.6
pnorm( x 3 1)
pnorm( x 4 1) 0.5
0.4
0.3
0.2
0.1
0 0
10 8 6 4 2 0 2 4 6 8 10
10 x 10
1.2
1.1
1
1
0.8
dnorm( x 2 1) 0.6
dnorm( x 0 3)
dnorm( x 2 0.4)
dnorm( x 3 0.8)
0.4
0.2
0 0
10 8 6 4 2 0 2 4 6 8 10
10 x x x x 10
0
10 8 6 4 2 0 2 4 6 8
x
1.2
1.2
1.1
0.9
0.8
pnorm( x 2 1) 0.7
pnorm( x 0 3)
0.6
pnorm( x 2 0.4)
0.4
0.3
0.2
0.1
0 0
10 8 6 4 2 0 2 4 6 8 10
10 x x x x 10
Paradoks Bertranda
b) 1/3 c) 1/4
a) 1/2