Download as pdf or txt
Download as pdf or txt
You are on page 1of 20

Zmienna losowa wielowymiarowa

Wektory losowe
Dane są zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋𝑛 określone na przestrzenie probabilistycznej (Ω, S, P).
Uporządkowany układ n zmiennych losowych będziemy oznaczać 𝑿 = (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) i
nazywać n-wymiarową zmienną losową (wektorem losowym).
𝑿: Ω → 𝑅𝑛
W szczególności gdy 𝑛 = 2 mamy do czynienia z dwuwymiarową zmienną losową (𝑋, 𝑌).

Przydatne, gdy modelujemy doświadczenie, którego wyniki opisujemy układem kilku liczb,
np. wzrost i waga losowej osoby.
PRZYPADEK DYSKRETNY

Dwuwymiarowa zmienna (X;Y) ma rozkład skokowy, jeśli zmienne X i Y mają skończone lub
przeliczalne zbiory wartości.
Rozkład określa się za pomocą funkcji prawdopodobieństwa lub przez dystrybuantę.

Rozkład prawdopodobieństwa zmiennej losowej dwuwymiarowej nazywamy rozkładem


łącznym o określony jest następująco:
𝑝𝑖𝑗 = 𝑃(𝑋 = 𝑖; 𝑌 = 𝑗)

𝑝𝑖𝑗 ≥ 0

∑ ∑ 𝑝𝑖𝑗 = 1
𝑖 𝑗

Przykład

Z talii 52 kart losujemy jedną kartę. Niech zmienna X przyjmuje wartości równe liczbie
wylosowanych asów, a zmienna Y licznie wylosowanych kart kier. Wyznaczyć łączny rozkład
wektora losowego (X,Y).
36
y\x 0 1 𝑃(𝑋 = 0; 𝑌 = 0) =
52

0 36 3 12
𝑃(𝑋 = 0; 𝑌 = 1) =
52 52 52

1 12 1 3
𝑃(𝑋 = 1; 𝑌 = 0) =
52 52 52
1
𝑃(𝑋 = 1; 𝑌 = 1) =
52
Rozkłady brzegowe określone są następująco:

𝑃(𝑋 = 𝑖) = 𝑝𝑖 ∙ = ∑ 𝑝𝑖𝑗
𝑗

𝑃(𝑌 = 𝑗) = 𝑝∙𝑗 = ∑ 𝑝𝑖𝑗


𝑖

Ponieważ:
𝑃(𝑋 = 𝑖) = 𝑝𝑖 ∙ = 𝑃(𝑋 = 𝑥𝑖 ; 𝑌 = 𝑦1 ) + 𝑃(𝑋 = 𝑥𝑖 ; 𝑌 = 𝑦2 ) + ⋯ 𝑃(𝑋 = 𝑥𝑖 ; 𝑌 = 𝑦𝑘 ) + ⋯
prawdopodobieństwo 𝑃(𝑋 = 𝑖) jest prawdopodobieństwem tego, że zmienna X przyjmuje
wartość 𝑥𝑖 niezależnie od tego jaką wartość przyjmuje zmienna Y, zatem funkcja ta jest
rozkładem prawdopodobieństwa zmiennej X.
Zmienne losowe X i Y są niezależne, jeśli dla każdej pary (𝑥𝑖 ; 𝑦𝑗 ) spełniony jest warunek:

𝑃(𝑋 = 𝑥𝑖 ; 𝑌 = 𝑦𝑗 ) = 𝑃(𝑋 = 𝑥𝑖 ) ∙ 𝑃(𝑌 = 𝑦𝑗 )

Dla zmiennych z przykładu z kartami:

x 0 1

0 36 3 39
52 52 52
1 12 1 13
52 52 52
48 4
52 52

36 48 39
𝑃(𝑋 = 0; 𝑌 = 0) = 𝑃(𝑋 = 0) ∙ 𝑃(𝑌 = 0), ponieważ = 52 ∙ 52
52
12 48 13
𝑃(𝑋 = 0; 𝑌 = 1) = 𝑃(𝑋 = 0) ∙ 𝑃(𝑌 = 1), ponieważ = ∙
52 52 52
3 4 39
𝑃(𝑋 = 1; 𝑌 = 0) = 𝑃(𝑋 = 1) ∙ 𝑃(𝑌 = 0), ponieważ = 52 ∙ 52
52
1 4 13
𝑃(𝑋 = 1; 𝑌 = 1) = 𝑃(𝑋 = 1) ∙ 𝑃(𝑌 = 1), ponieważ = 52 ∙ 52
52

Zatem zmienne są niezależne.


Dystrybuanta 𝑭(𝒙; 𝒚) zmiennej losowej skokowej (𝑋; 𝑌) jest funkcją rzeczywistą określoną
wzorem

𝐹(𝑥; 𝑦) = 𝑃(𝑋 < 𝑥; 𝑌 < 𝑦) = ∑ ∑ 𝑝𝑖𝑗


𝑥𝑖 <𝑥 𝑦𝑗<𝑦

Własności dystrybuanty zmiennej losowej (𝑿; 𝒀):


o Niemalejąca względem każdego z argumentów;
o lim 𝐹(𝑥; 𝑦) = 0 𝑑𝑙𝑎 𝑑𝑜𝑤𝑜𝑙𝑛𝑒𝑔𝑜 𝑦;
𝑥→−∞
o lim 𝐹(𝑥; 𝑦) = 0 𝑑𝑙𝑎 𝑑𝑜𝑤𝑜𝑙𝑛𝑒𝑔𝑜 𝑥;
𝑦→−∞
o lim 𝐹(𝑥; 𝑦) = 1;
𝑥→∞
𝑦→∞
o F jest przynajmniej lewostronnie ciągła;
o Dla dowolnych punktów (𝑥1 ; 𝑦1 ) i (𝑥2 ; 𝑦2 ) takich, że 𝑥1 ≤ 𝑥2 i 𝑦1 ≤ 𝑦2
𝐹(𝑥2 ; 𝑦2 ) − 𝐹(𝑥2 ; 𝑦1 ) − 𝐹(𝑥1 ; 𝑦2 ) + 𝐹(𝑥1 ; 𝑦1 ) ≥ 0

Przykład
Rozkład wektora losowego dany jest tabelą:

x\y 0 1

0 0,25 0,25

1 0,25 0,25

Wówczas dystrybuanta określona jest wzorem:


0, 𝑥 ≤ 0 𝑙𝑢𝑏 𝑦 ≤ 0
1
, 0<𝑥≤1𝑖0<𝑦 ≤1
𝐹(𝑥; 𝑦) = 4
1
, 𝑥 > 1 𝑖 0 < 𝑦 ≤ 1 𝑙𝑢𝑏 𝑦 > 1 𝑖 0 < 𝑥 ≤ 1
2
{ 1, 𝑥 > 1𝑖 𝑦 >1

Rozkłady warunkowe
Dla zmiennej losowej skokowej, rozkładem warunkowym zmiennej losowej Y pod
warunkiem, że 𝑋 = 𝑥𝑖 nazywamy:
𝑝𝑖𝑗
𝑃(𝑌 = 𝑦𝑗 |𝑋 = 𝑥𝑖 ) =
𝑝𝑖.
Analogicznie, rozkładem warunkowym zmiennej losowej X pod warunkiem, że 𝑌 = 𝑦𝑖
nazywamy:
𝑝𝑖𝑗
𝑃(𝑋 = 𝑥𝑖 |𝑌 = 𝑦𝑗 ) =
𝑝.𝑗
Przykład
x\y -1 1
-1 1 1 1
6 6 3
Znajdź rozkład warunkowy
0 1 0 1
zmiennej losowej X pod
3 3 warunkiem, że 𝑌 = 1
1 1 1 1
6 6 3
2 1
3 3

1
1
𝑃(𝑋 = −1|𝑌 = 1) = 6 =
1 2
3
0
𝑃(𝑋 = 0|𝑌 = 1) = = 0
1
3
1
1
𝑃(𝑋 = 1|𝑌 = 1) = 6 =
1 2
3
Warunkowa wartość oczekiwana

Wartość oczekiwana rozkładu warunkowego nazywa się warunkową wartością oczekiwaną.

W przykładzie powyżej mamy:


𝐸(𝑋|𝑌 = 1) = −1 ∙ 𝑃(𝑋 = −1|𝑌 = 1) + 0 ∙ 𝑃(𝑋 = 0|𝑌 = 1) + 1 ∙ 𝑃(𝑋 = 1|𝑌 = 1) = 0

PRZYPADEK CIĄGŁY
Zmienną (X;Y) nazywamy zmienną losową ciągłą, jeśli jej dystrybuanta da się przedstawić w
postaci
𝑥 𝑦
𝐹(𝑥; 𝑦) = ∫ ∫ 𝑓(𝑠; 𝑡)𝑑𝑡𝑑𝑠
−∞ −∞

dla pewnej nieujemnej funkcji 𝑓(𝑥; 𝑦) zwanej gęstością zmiennej losowej.


Dystrybuantę możemy traktować jako objętość bryły.

UWAGA
∞ ∞
• ∫−∞ ∫−∞ 𝑓(𝑥; 𝑦)𝑑𝑥𝑑𝑦 = 1
• 𝑓(𝑥; 𝑦) ≥ 0
• W punktach ciągłości funkcji 𝑓(𝑥; 𝑦) zachodzi
𝜕2 𝐹(𝑥; 𝑦)
= 𝑓(𝑥; 𝑦)
𝜕𝑥𝜕𝑦
• 𝑃(𝐴) = ∬𝐴 𝑓(𝑥; 𝑦)𝑑𝑥𝑑𝑦
Przykład
Funkcja 𝑓(𝑥; 𝑦) jest gęstością zmiennej losowej (𝑋; 𝑌)
𝑐𝑥𝑦, 0≤𝑥 ≤2𝑖0≤𝑦≤1
𝑓(𝑥; 𝑦) = {
0, 𝑝. 𝑝.
a. Wyznacz stałą c;
b. Wyznacz dystrybuantę;

2 1 2 2 1
𝑦2 𝑥
∫ ∫ 𝑐𝑥𝑦𝑑𝑦𝑑𝑥 = 𝑐 ∫ 𝑥 | 𝑑𝑥 = 𝑐 ∫ 𝑑𝑥 = 𝑐 → 𝑐 = 1
0 0 0 2 0 0 2

Dla obszaru E:
𝑥 𝑦
𝐹(𝑥; 𝑦) = ∫ ∫ 0𝑑𝑡𝑑𝑠 = 0
0 0

Dla obszaru A:
𝑥 𝑦
𝑥 2 𝑦2
𝐹(𝑥; 𝑦) = ∫ ∫ 𝑡𝑠𝑑𝑡𝑑𝑠 =
0 0 4

Dla obszaru B
2 𝑦
𝐹(𝑥; 𝑦) = ∫ ∫ 𝑡𝑠𝑑𝑡𝑑𝑠 = 𝑦2
0 0

Dla obszaru C
𝑥 1 𝑥2
𝐹(𝑥; 𝑦) = ∫0 ∫0 𝑡𝑠𝑑𝑡𝑑𝑠 = 4

Dla obszaru D
2 1
𝐹(𝑥; 𝑦) = ∫ ∫ 𝑡𝑠𝑑𝑡𝑑𝑠 = 1
0 0
Ostatecznie:
0, 𝑥 ≤ 0 𝑙𝑢𝑏 𝑦 ≤ 0
1 2 2
𝑥 𝑦 , 0 < 𝑥 ≤ 2𝑖 0 <𝑦 ≤ 1
4
𝐹(𝑥; 𝑦) = 𝑦2 , 𝑥 > 2𝑖 0 <𝑦 ≤ 1
1 2
𝑥 , 𝑦 > 1𝑖 0 <𝑥 ≤2
4
{ 1, 𝑥 > 2𝑖 𝑦 >1

Rozkłady brzegowe zmiennych losowych ciągłych.

Jeżeli 𝑓(𝑥; 𝑦) jest gęstością zmiennej losowej (𝑋; 𝑌) to funkcje


∞ ∞
𝑓𝑋 (𝑥) = ∫−∞ 𝑓(𝑥; 𝑦)𝑑𝑦 i 𝑓𝑌 (𝑦) = ∫−∞ 𝑓(𝑥; 𝑦)𝑑𝑥

są gęstościami rozkładów brzegowych.


Zmienne 𝑋 i 𝑌 są niezależne, jeśli dla dowolnych 𝑥 i 𝑦 𝑓(𝑥; 𝑦) = 𝑓(𝑥)𝑓(𝑦).

Przykład

Funkcja 𝑓(𝑥; 𝑦) jest gęstością zmiennej losowej (𝑋; 𝑌)


1
𝑓(𝑥; 𝑦) = {4 , 0≤ 𝑥 ≤ 2𝑖 0 ≤ 𝑦 ≤ 2
0, 𝑝. 𝑝.
Znajdź rozkłady brzegowe. Czy zmienne są niezależne?

1
21 1 , 0≤𝑥≤2
𝑓𝑋 (𝑥) = ∫0 4 𝑑𝑦 = 2 → 𝑓𝑋 (𝑥) = {2
0, 𝑝. 𝑝.
1
1
𝑓𝑌 (𝑦) = → 𝑓𝑌 (𝑦) = {2 , 0≤𝑦≤2
2 0, 𝑝. 𝑝.
Czy zmienne są niezależne? TAK.
Dla zmiennej losowej ciągłej, gęstością warunkową nazywamy:
𝑓(𝑥0 ; 𝑦)
𝑓(𝑦|𝑋 = 𝑥0) =
𝑓𝑋 (𝑥0 )
𝑓(𝑥; 𝑦0 )
𝑓(𝑥|𝑌 = 𝑦0 ) =
𝑓𝑌 (𝑦0 )
Przykład

1
𝑓(𝑥; 𝑦) = {4 , 0≤ 𝑥 ≤ 2𝑖 0 ≤ 𝑦 ≤ 2
0, 𝑝. 𝑝.
Obliczmy gęstość rozkładu warunkowego 𝑋|𝑌 = 1.

Z poprzedniego przykładu mamy:


1
, 0≤𝑦≤2
𝑓𝑌 (𝑦) = {2
0, 𝑝. 𝑝.
Zatem
1
𝑓(𝑥; 1) 4 1
𝑓(𝑥|𝑌 = 1) = = =
𝑓𝑌 (1) 1 2
2

1
𝑓(𝑥|𝑌 = 1) = {2 , 0≤𝑥≤2
0, 𝑝. 𝑝.

Podstawowe parametry zmiennej losowej dwuwymiarowej

Miary współzależności zmiennych


• Kowariancja;
• Korelacja

Kowariancja pomiędzy zmiennymi X i Y nazywamy


𝐶𝑜𝑣(𝑋; 𝑌) = 𝐸[(𝑋 − 𝐸𝑋)(𝑌 − 𝐸𝑌)] = 𝐸(𝑋𝑌) − 𝐸𝑋 ∙ 𝐸𝑌
Czym jest 𝐶𝑜𝑣(𝑋; 𝑋)?

∑ ∑ 𝑥𝑖 ∙ 𝑦𝑗 ∙ 𝑝𝑖𝑗
𝐸(𝑋𝑌) = 𝑖 𝑗

∬ 𝑥 ∙ 𝑦 ∙ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦
{
Jeżeli zmienne są niezależne, to 𝑬(𝑿𝒀) = 𝑬𝑿 ∙ 𝑬𝒀, zatem 𝑪𝒐𝒗(𝑿; 𝒀) = 𝟎.

Zmienne
UWAGA W drugą stronę to nie zachodzi. nieskorelowane

Przykład

Zmienna X ma rozkład jednostajny na odcinku (−1; 1), a zmienna 𝑌 = 𝑋 2. Zatem zmienne są


zależne. Jednak są nieskorelowane, co sprawdzimy wykorzystując następujące fakty:

z tablic dra
L.Kowalskiego
𝑬𝑿 = 𝟎
𝟏 𝟏
𝑬𝒀 = 𝑬𝑿𝟐 = 𝑫𝟐 𝑿 + (𝑬𝑿)𝟐 = +𝟎 =
𝟑 𝟑
𝟏
𝟑
𝟏 𝟑
𝑬(𝑿 ∙ 𝒀) = 𝑬𝑿 = ∫ ∙ 𝒙 𝒅𝒙 = 𝟎
−𝟏 𝟐

𝑬(𝑿 ∙ 𝒀) = 𝑬𝑿 ∙ 𝑬𝒀 → 𝑪𝒐𝒗(𝑿, 𝒀) = 𝟎

Zatem zmienne są nieskorelowane choć są zależne.


Własności kowariancji:

• 𝑐𝑜𝑣(𝑋; 𝑋) = 𝐷 2 𝑋
• 𝑐𝑜𝑣(𝑋; 𝑌) = 𝑐𝑜𝑣(𝑌; 𝑋)
• 𝑐𝑜𝑣(𝑎 + 𝑋; 𝑌) = 𝑐𝑜𝑣(𝑋; 𝑌)
• 𝑐𝑜𝑣 (𝑎𝑋 + 𝑏𝑌; 𝑍 ) = 𝑎 ∙ 𝑐𝑜𝑣 (𝑋; 𝑌) + 𝑏 ∙ 𝑐𝑜𝑣 (𝑌; 𝑍 )
Jeżeli 𝑍 = 𝑋 + 𝑌, to
𝐷 2 (𝑋 + 𝑌) = 𝐷 2 𝑍 = 𝐶𝑜𝑣(𝑍, 𝑍) = 𝐶𝑜𝑣(𝑋 + 𝑌, 𝑋 + 𝑌) =
= 𝐶𝑜𝑣(𝑋, 𝑋) + 𝐶𝑜𝑣(𝑋, 𝑌) + 𝐶𝑜𝑣(𝑌, 𝑋) + 𝐶𝑜𝑣(𝑌, 𝑌) =
= 𝐷 2 (𝑋) + 𝐷 2 (𝑌) + 2𝐶𝑜𝑣(𝑋; 𝑌)
• 𝐷 2 (𝑋 + 𝑌) = 𝐷 2 (𝑋) + 𝐷 2 (𝑌) + 2𝐶𝑜𝑣(𝑋; 𝑌)

Ogólnie:
• 𝐷 2 (𝑎𝑋 + 𝑏𝑌) = 𝑎2 𝐷 2 (𝑋) + 𝑏 2 𝐷 2 (𝑌) + 2𝑎𝑏𝐶𝑜𝑣(𝑋; 𝑌)
KOWARIANCJA ZALEŻY OD JEDNOSTEK
Macierz kowariancji

𝑫𝟐 (𝑿) 𝑪𝒐𝒗(𝑿; 𝒀)
𝑲=[ ]
𝑪𝒐𝒗(𝑿; 𝒀) 𝑫𝟐 (𝒀)

• Kwadratowa;
• Symetryczna;
• Wyznacznik nieujemny, tzn. (𝒄𝒐𝒗(𝑿; 𝒀))𝟐 ≤ 𝑫𝟐 𝑿 ∙ 𝑫𝟐 𝒀

Korelacja

Współczynnik korelacji 𝝆 między zmiennymi X i Y jest miarą siły liniowego związku między
zmiennymi.
𝑪𝒐𝒗(𝑿; 𝒀)
𝝆(𝑿; 𝒀) =
𝑫(𝑿) ∙ 𝑫(𝒀)
Własności współczynnika korelacji:

• −1 ≤ 𝝆 ≤ 1;
• Jeżeli X i Y są niezależne, to 𝝆(𝑿; 𝒀) = 𝟎.
• Jeśli 𝜌(𝑋; 𝑌) = 1, to 𝑌 = 𝑎𝑋 + 𝑏 i 𝑎 > 0
• Jeśli 𝜌(𝑋; 𝑌) = −1, to 𝑌 = 𝑎𝑋 + 𝑏 i 𝑎 < 0
• Jeżeli 𝝆(𝑿; 𝒀) = 𝟎, to zmienne są nieskorelowane.
• Jeżeli 𝝆(𝑿; 𝒀) > 𝟎, to zmienne są skorelowane dodatnio.
• Jeżeli 𝝆(𝑿; 𝒀) < 𝟎, to zmienne są skorelowane ujemnie.
• 𝝆(𝒂𝑿 + 𝒃; 𝒄𝒀 + 𝒅) = 𝝆(𝑿; 𝒀) dla 𝑎, 𝑐 > 0

Macierz korelacji
𝟏 𝝆(𝑿; 𝒀)
𝑹=[ ]
𝝆(𝑿; 𝒀) 𝟏
Przykład
Oblicz współczynnik korelacji między zmiennymi X i Y. Czy zmienne są niezależne? Czy
zmienne są nieskorelowane?

x\y -1 1
-1 1 1 1
6 6 3
0 1 0 1
3 3
1 1 1 1
6 6 3
2 1
3 3

1 1 1
𝐸𝑋 = (−1) ∙ +0∙ +1∙ =0
3 3 3
1 1 1 2
𝐸𝑋 2 = (−1)2 ∙ + 02 ∙ + 12 ∙ =
3 3 3 3
2
𝐷2𝑋 =
3
2 1 1
𝐸𝑌 = (−1) ∙ +1∙ =−
3 3 3
2 1
𝐸𝑌2 = (−1) 2 ∙ + 12 ∙ = 1
3 3
8
𝐷2𝑋 =
9
1 1 1 1 1
𝐸𝑋𝑌 = (−1) ∙ + 1 ∙ + (−1) ∙ + 1 ∙ = 0 → 𝐶𝑜𝑣(𝑋; 𝑌) = 0 − (− ) ∙ 0 = 0
6 6 6 6 3
Zatem zmienne są nieskorelowane. Nie są jednak niezależne.
Twierdzenia graniczne

TWIERDZENIE POISSONA

0,3

0,25

0,2

0,15 Bin(1000;0,002)
P(2)
0,1

0,05

0
0 1 2 3 4 5 6 7 8

Rozkład Poissona dobrze przybliża rozkład dwumianowy, gdy n jest duże, a


prawdopodobieństwo sukcesu 𝒑 odpowiednio małe.

UWAGA
Dla dużych 𝑛 i małych 𝑝 zachodzi wzór:

𝑛 𝑘 𝑛−𝑘 − 𝜆
𝜆𝑘
( ) 𝑝 (1 − 𝑝) ≈𝑒 ,
𝑘 𝑘!
gdzie 𝜆 = 𝑛𝑝.

Warunki stosowalności: 𝑛 ≥ 50, 𝑝 ≤ 0,1 𝑜𝑟𝑎𝑧 𝑛𝑝 ≤ 10.


Dowód

𝑛 𝜆 𝑘 𝜆 𝑛−𝑘 𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1)𝜆𝑘 𝜆 𝑛 −𝜆


𝜆𝑘
𝑃(𝑋 = 𝑘) = ( ) ( ) (1 − ) = (1 − ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑛 → ∞ 𝑒
𝑘 𝑛 𝑛 𝑘 𝜆 𝑘 𝑛 𝑘!
𝑛 ∙ 𝑘! (1 − 𝑛)

Przykład

Urządzenie składa się z 1000 elementów pracujących niezależnie. Prawdopodobieństwo


awarii dowolnego elementu w czasie T jest równe 0,002. Oblicz prawdopodobieństwo, że w
czasie T nastąpi awaria 3 elementów urządzenia.

X – zmienna losowa będąca liczbą uszkodzonych elementów w czasie T


𝑋~𝐵(1000 ; 0,002)

Z rozkładu dwumianowego:
1000
𝑃(𝑋 = 3) = ( ) ∙ 0,0023 ∙ 0,998997 ≈ 0,180628
3
Z rozkładu Poissona:
𝜆 = 𝑛𝑝 = 1000 ∙ 0,002 = 2

23
𝑃(𝑋 = 3) = 𝑒 −2 ≈ 0,180447
3!

TWIERDZENIE MOIVRE’A – LAPLACE’A

Wykres rozkładu dwumianowego wraz ze wzrostem liczby prób 𝑛 coraz bardziej przypomina
wykres krzywej Gaussa.

Wykres rozkładu dwumianowego wraz ze wzrostem liczby prób 𝑛 coraz bardziej przypomina
wykres krzywej Gaussa.

https://upload.wikimedia.org/wikipedia/commons/0/06/De_moivre-laplace.gif

WNIOSEK

Dla dużych 𝑛 możemy stosować wzór przybliżony:

𝑋 − 𝑛𝑝
𝑃 (𝑎 < < 𝑏) ≈ Φ(𝑏) − Φ(𝑎).
√𝑛𝑝(1 − 𝑝)

Warunki stosowalności: 𝑛𝑝 ≥ 5 oraz 𝑛(1 − 𝑝) ≥ 5

𝑛 𝑝
20 0,25 ≤ 𝑝 ≤ 0,75
50 0,1 ≤ 𝑝 ≤ 0,9
100 0,05 ≤ 𝑝 ≤ 0,95
Przykład
Rozważmy zmienną losową o rozkładzie dwumianowym 𝑋~𝐵(15; 0,4).

0,25

0,2

0,15

0,1

0,05

0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Obliczyć 𝑃(5 ≤ 𝑋 ≤ 8).

𝑃(5 ≤ 𝑋 ≤ 8) = 𝑃(𝑋 = 5) + 𝑃(𝑋 = 6) + 𝑃(𝑋 = 7) + 𝑃(𝑋 = 8) =


= (15
5
)0,450,610 + (15
6
)0,46 0,69 + (15
7
)0,47 0,68 + (15
8
)0,48 0,67 =

= 0,1859 + 0,2066 + 0,1771 + 0,1181 = 0,6877

𝑬(𝑿) =6

𝑫𝟐 (𝑿) = 𝟑, 𝟔
→ 8
Sprawdźmy czy 𝑃(5 ≤ 𝑋 ≤ 8) ≈ ∫5 𝑓(𝑥)𝑑𝑥 ,

gdzie 𝑓(𝑥) jest gęstością rozkładu normalnego 𝑁(6; √3,6)


8
5−6 𝑌−6 8−6
∫ 𝑓(𝑥)𝑑𝑥 = 𝑃(5 ≤ 𝑌 ≤ 8) = 𝑃 ( ≤ ≤ )=
5 √3,6 √3,6 √3,6
𝑌−6
= 𝑃 (−0,53 ≤ ≤ 1,05) = Φ(1,05) − Φ(−0,53) =
√3,6
= Φ(1,05) − (1 − Φ(0,53)) = 0,8531 − 1 + 0,7019 = 0,555
POPRAWKA NA CIĄGŁOŚĆ
8,5
Obliczmy 𝑃(5 ≤ 𝑋 ≤ 8) ≈ ∫4,5 𝑓(𝑥)𝑑𝑥 ,
8,5
4,5 − 6 𝑌−6 8,5 − 6
∫ 𝑓(𝑥)𝑑𝑥 = 𝑃(4,5 ≤ 𝑌 ≤ 8,5) = 𝑃 ( ≤ ≤ )=
4,5 √3,6 √3,6 √3,6
𝑌−6
= 𝑃 (−0,79 ≤ ≤ 1,32) = Φ(1,32) − Φ(−0,79) =
√3,6
= Φ(1,32) − (1 − Φ(0,79)) = 0,9066 − 1 + 0,7852 = 0,6918

UWAGA
Stosując poprawkę na ciągłość, każde z prawdopodobieństw 𝑃(𝑋 = 𝑘) rozkładu
dwumianowego przybliżamy całką:
𝑘+0,5

𝑃(𝑋 = 𝑘) = ∫ 𝑓(𝑥)𝑑𝑥
𝑘−0,5

Zauważmy, że przybliżając rozkład dwumianowy, rozkładem normalnym, zastępujemy


rozkład skokowy rozkładem ciągłym.
Niech X będzie zmienną losową o rozkładzie dwumianowym. Jak wygląda poprawka
na ciągłość?
• 𝑃(6 ≤ 𝑋 ≤ 16) = 𝑃 (5,5 < 𝑋 < 16,5)
• 𝑃(4 < 𝑋 ≤ 13) = 𝑃 (4,5 < 𝑋 < 13,5)
• 𝑃(5 ≤ 𝑋 < 11) = 𝑃(4,5 < 𝑋 < 10,5)
• 𝑃(8 < 𝑋 < 15) = 𝑃(8,5 < 𝑋 < 14,5)
Przykład

Rzucono 40 razy monetą symetryczną. Niech X oznacza liczbę wyrzuconych orłów. Obliczyć
𝑃(15 ≤ 𝑋 ≤ 25).

Zmienna 𝑋~𝐵(40; 0,5) → 𝐸(𝑋) = 20; 𝐷 2 (𝑋) = 10 → 𝐷(𝑋) = √10


14,5 − 20 𝑋 − 20 25,5 − 20
𝑃(15 ≤ 𝑋 ≤ 25) = 𝑃(14,5 < 𝑋 < 25,5) = 𝑃 ( ≤ ≤ )=
√10 √10 √10
𝑋 − 20
= 𝑃 (−1,74 ≤ ≤ 1,74) = Φ(1,74) − Φ(−1,74) =
√10
= Φ(1,74) − (1 − Φ(1,74)) = 0,9591 − 1 + 0,9591 = 0,9182
UWAGA

Jeżeli zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋𝑛 mają skończone wartości oczekiwane, to


𝐸(𝑋1 + 𝑋2 + … + 𝑋𝑛 ) = 𝐸(𝑋1 ) + 𝐸(𝑋2 ) + ⋯ + 𝐸(𝑋𝑛 ).
UWAGA

Jeżeli zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋𝑛 są niezależne i mają skończone wariancje, to


𝐷 2 (𝑋1 + 𝑋2 + … + 𝑋𝑛 ) = 𝐷 2 (𝑋1 ) + 𝐷 2 (𝑋2 ) + ⋯ + 𝐷 2 (𝑋𝑛 ).
Zadanie
Załóżmy, że zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋𝑛 są niezależne i mają jednakowe rozkłady, o
wartości oczekiwanej 𝜇 oraz wariancji 𝜎 2 .
𝑋1 +𝑋2 + …+ 𝑋𝑛
Utwórzmy średnią arytmetyczną 𝑋̅ = 𝑛

𝜎2 𝜎
𝐸(𝑋̅) = 𝜇 𝐷 ̅)
2 (𝑋
= → 𝐷(𝑋̅) =
𝑛 √𝑛

Przykład Wykonujemy dwa rzuty czworościenną kostką. Wykres niebieski ilustruje rozkład
wyników na jednej kostce, wykres zielony sumę oczek na dwóch kostkach.

Porównaj wartości oczekiwane (rozkłady symetryczne) oraz wariancje rozkładów.

Przykład c.d. Tym razem znajdziemy rozkład nie sumy oczek lecz średniej z wyników na dwóch
kostkach.
CENTRALNE TWIERDZENIE GRANICZNE

Jeżeli zmienne 𝑋1 , 𝑋2 , … , 𝑋𝑛 są niezależnymi zmiennymi losowymi o jednakowych rozkładach


z wartością oczekiwaną 𝜇 i odchyleniem standardowym 𝜎, to równoważnie:

• 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ~𝑁(𝑛𝜇; √𝑛𝜎)

𝜎
• 𝑋̅~𝑁 (𝜇; )
√𝑛

𝑋̅−𝜇
• 𝜎 ~𝑁(0; 1)
√𝑛

dla odpowiednio dużej wartości n (𝑛 ≥ 30).

Jeżeli zmienne 𝑋𝑖 są niezależnymi zmiennymi losowymi o jednakowych rozkładach z


wartością oczekiwaną 𝜇 i odchyleniem standardowym 𝜎, to zmienna losowa

𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛
jest zbieżna do rozkładu 𝑁(0; 1).
WNIOSEK

Dla dużych 𝑛 zachodzi wzór przybliżony:

𝑋̅ − 𝜇
𝑃 (𝑎 < 𝜎 < 𝑏) = Φ(𝑏) − Φ(a),
√𝑛
co równoważnie można zapisać:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 − 𝑛𝜇
𝑃 (𝑎 < < 𝑏) = Φ(𝑏) − Φ(a).
𝜎 √𝑛
Przykład
2
Zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋30 są niezależne i mają identyczne rozkłady 𝑋𝑘 ~𝑃 (3) , 𝑘 =
1,2, … , 30.
Obliczyć:

• 𝑃(15 < 𝑋1 + 𝑋2 + ⋯ + 𝑋30 ≤ 22);


• 𝑃(21 ≤ 𝑋1 + 𝑋2 + ⋯ + 𝑋30 < 27).
𝐸(𝑋1 + 𝑋2 + ⋯ + 𝑋30 ) = 20
𝐷 2 (𝑋1 + 𝑋2 + ⋯ + 𝑋30 ) = 20

𝐷(𝑋1 + 𝑋2 + ⋯ + 𝑋30 ) = √20

15 − 20 22 − 20
𝑃(15 < 𝑋1 + 𝑋2 + ⋯ + 𝑋30 ≤ 22) = 𝑃 ( <𝑌< )=
√20 √20
= 𝑃(−1,12 < 𝑌 < 0,45) = Φ(0,45) − Φ(−1,12) = 0,54228
Wstępne pojęcia statystyki

STATYSTYKA → poznanie struktury określonej zbiorowości

• Zbieranie danych
• Analizowanie danych
• Wnioskowanie na podstawie danych

KAŻDA WIELKOŚĆ, KTÓRĄ MIERZYMY OBARCZONA JEST BŁĘDEM


▪ Niedoskonałość narzędzia pomiarowego
▪ Niedoskonałość metody pomiarowej
▪ Omylność eksperymentatora

OPTYMALNE PODEJMOWANIE DECYZJI W WARUNKACH NIEPEWNOŚCI = STATYSTYKA

demon Laplace’a
efekt motyla
Przedmiotem badań statystycznych są tzw. procesy masowe. Z tą analizą wiążą się dwa
podstawowe pojęcia:
▪ Zbiorowość statystyczna = populacja – zbiór elementów podobnych ze względu na
pewne kryteria
▪ Próba losowa – podzbiór populacji. Jej struktura powinna być zbliżona do struktury
populacji, aby wyniki uzyskane z próby można uogólnić do całej populacji

Cecha = zmienna charakteryzująca badane obiekty (wzrost, waga, wielkość kredytu, liczba
dzieci, poziom cukru we krwi, miesięczne wydatki na rozrywkę).
Badanie statystyczne może być:
▪ Całościowe – obejmujące całą populację
▪ Częściowe – obejmujące próbę losową

George Gallup
ZMIENNA LOSOWA

W RACHUNKU PRAWDOPODOBIEŃSTWA W STATYSTYCE

Ma znany rozkład. Nie zakładamy pełnej znajomości


rozkładu.
Wykorzystywany do obliczania
prawdopodobieństw Zmienna losowa = cecha statystyczna
elementów badanej zbiorowości.
POPULACJA Losujemy n elementów
(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) i badamy je ze
względu na pewną cechę-zmienna
losowa, np. wzrost, wielkość
PRÓBA LOSOWA
zarobków, poziom IQ.

Wyniki 𝑥1 , 𝑥2 , … , 𝑥𝑛 to
zaobserwowane wartości n-
elementowej próby.

CEL STATYSTYKI MATEMATYCZNEJ: na podstawie próby wyciągamy wnioski dotyczące


badanej cechy w całej populacji. (Badanie pełne często wiąże się z wysokimi kosztami lub jest
niszczące).
Próbę losową (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) nazywamy PRÓBĄ PROSTĄ, jeśli zmienne 𝑋1 , 𝑋2 , … , 𝑋𝑛 są
niezależne i każda ma rozkład taki, jak rozkład badanej cechy.
Dowolną funkcję 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) nazywamy STATYSTYKĄ. Jako funkcja zmiennej losowej
też jest zmienną losową. Jej rozkład zależy od rozkładów 𝑋1 , 𝑋2 , … , 𝑋𝑛 , ale też od postaci
funkcji 𝑔.
PODSTAWOWE STATYSTYKI

• Średnia z próby
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑋̅ =
𝑛
• Wariancja (nieobciążona) z próby

2
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝑆 =
𝑛−1

• Odchylenie standardowe z próby


𝑆 = √𝑆 2
• Wariancja z próby dla danej wartości oczekiwanej
02
∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2
𝑆 =
𝑛
ROZKŁAD NIEKTÓRYCH STATYSTYK
Jeżeli zmienne losowe 𝑋1 , 𝑋2 , … , 𝑋𝑛 są niezależne i pochodzą z rozkładu 𝑁(𝜇; 𝜎), to
𝜎
𝑋̅~𝑁 (𝜇; )
√𝑛
Po standaryzacji:
𝑋̅ − 𝜇
𝜎 ~𝑁(0; 1)
√𝑛

ROZKŁAD CHI-KWADRAT
Jeśli zmienne 𝑋1 , 𝑋2 , … , 𝑋𝑛 są niezależne o rozkładzie N(0;1), to

𝑌 = 𝑋12 + 𝑋22 + ⋯ + 𝑋𝑛2


ma rozkład chi-kwadrat z n stopniami swobody
• 𝐸𝑋 = 𝑛
• 𝐷 2 𝑋 = 2𝑛

Przykładowo, dla 𝑛 = 6:

𝑃(𝑌 > 𝑘) = 0,99 →

𝑘 = 0,87

𝑃(𝑌 < 𝑘) = 0,05 →


𝑘 = 1,64

You might also like