Professional Documents
Culture Documents
Main 05 05
Main 05 05
Main 05 05
з теорiї ймовiрностей
та математичної
статистики
Канiовська I.Ю.
Змiст
I Теорiя ймовiрностей 6
1 Випадковi подiї 7
1.1 Основнi поняття теорiї ймовiрностей . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Теоретико-множинний пiдхiд до основних понять ТЙ . . . . . . . . . . . 7
1.1.2 Класична модель ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Геометрична модель ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Система аксiом Колмогорова . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Аксiоми теорiї ймовiрностей . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Властивостi ймовiрностi, що випливають з аксiом . . . . . . . . . . . . . 11
1.2.3 Теореми неперервностi ймовiрностi . . . . . . . . . . . . . . . . . . . . . . 12
1.2.4 Аксiома неперервностi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Умовнi ймовiрностi. Незалежнiсть подiй. Формула Баєса. . . . . . . . . . . . . . 13
1.3.1 Умовнi ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Незалежнiсть подiй . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Формула повної ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4 Формула Баєса . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Полiномiальна модель ймовiрностi. Схема Бернуллi. . . . . . . . . . . . . . . . . 15
1.4.1 Полiномiальна схема . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Схема Бернуллi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.3 Найбiльш iмовiрна кiлькiсть успiхiв в схемi Бернуллi . . . . . . . . . . . 16
1.4.4 Асимптотичнi наближення формули Бернуллi . . . . . . . . . . . . . . . 17
2 Випадковi величини 18
2.1 Поняття випадкової величини та її задання . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 Функцiя розподiлу . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Дискретнi випадковi величини . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Неперервнi випадковi величини . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Числовi характеристики випадкових величин . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Математичне сподiвання . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Дисперсiя . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Моменти випадкової величини . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Мода та медiана випадкової величини . . . . . . . . . . . . . . . . . . . . 23
2.2.5 Асиметрiя та ексцес випадкової величини . . . . . . . . . . . . . . . . . . 23
2.2.6 Генератриса (твiрна функцiя) ДВВ . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Деякi закони розподiлу випадкових величин . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Бiномiальний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Геометричний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.3 Розподiл Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.4 Потiк Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.5 Рiвномiрний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.6 Експоненцiйний (показниковий) розподiл . . . . . . . . . . . . . . . . . . 28
2.3.7 Гауссiвський (нормальний) розподiл . . . . . . . . . . . . . . . . . . . . . 29
2.3.8 Гамма-розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2
ЗМIСТ
3 Випадковi вектори 32
3.1 Дискретнi випадковi вектори . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.1.1 Сумiсна функцiя розподiлу двовимiрного випадкового вектора . . . . . 32
3.1.2 Побудова функцiї розподiлу дискретного випадкового вектора . . . . . . 33
3.1.3 Сумiсна функцiя розподiлу n-вимiрного вектора . . . . . . . . . . . . . . 34
3.2 Неперервнi випадковi вектори . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Щiльнiсть розподiлу двовимiрного неперервного випадкового вектора . 34
3.2.2 Рiвномiрний закон розподiлу на площинi . . . . . . . . . . . . . . . . . . 35
3.2.3 Щiльнiсть розподiлу n-вимiрного неперервного випадкового вектора . . 36
3.3 Числовi характеристики випадкових векторiв . . . . . . . . . . . . . . . . . . . . 37
3.3.1 Математичне сподiвання випадкових векторiв . . . . . . . . . . . . . . . 37
3.3.2 Мiшанi початковi та центральнi моменти випадкових векторiв . . . . . . 37
3.3.3 Коварiацiя як скалярний добуток випадкових величин . . . . . . . . . . 38
3.3.4 Коефiцiєнт кореляцiї . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Умовнi закони розподiлу ВВ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4.1 Умовний закон розподiлу дискретного випадкового вектора . . . . . . . 40
3.4.2 Умовне математичне сподiвання дискретного випадкового вектора . . . 40
3.4.3 Умовнi закони розподiлу неперервних випадкових величин . . . . . . . . 40
3.4.4 Умовне математичне сподiвання неперервного випадкового вектора . . 41
3.4.5 Формули повного математичного сподiвання та дисперсiї . . . . . . . . . 41
3.4.6 Випадок незалежних координат випадкового вектора . . . . . . . . . . . 42
3
ЗМIСТ
II Математична статистика 77
8 Вибiрка, точкове та iнтервальне оцiнювання 78
8.1 Вибiрка та її первинний аналiз . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.1 Поняття вибiрки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.2 Розподiл випадкової вибiрки . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.3 Дискретний варiацiйний ряд . . . . . . . . . . . . . . . . . . . . . . . . . . 80
8.1.4 Iнтервальний варiацiйний ряд . . . . . . . . . . . . . . . . . . . . . . . . . 80
8.1.5 Емпiрична функцiя розподiлу . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.1.6 Вибiрковi характеристики ГС . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.1.7 Дiаграми розмаху . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.2 Точковi оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2.1 Незмiщенiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2.2 Конзистентнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.2.3 Ефективнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2.4 Асимптотична нормальнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . 87
8.3 Методи отримання точкових оцiнок . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.3.1 Метод моментiв . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.3.2 Метод максимальної правдоподiбностi . . . . . . . . . . . . . . . . . . . . 88
8.4 Iнтервальне оцiнювання . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.4.1 Побудова довiрчих iнтервалiв для гаусciвської ГС . . . . . . . . . . . . . 89
8.4.2 Наближенi довiрчi iнтервали . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.4.3 Довiрчий iнтервал для ймовiрностi появи подiї . . . . . . . . . . . . . . . 91
8.4.4 Довiрчi iнтервали для параметрiв рiвномiрної ГС . . . . . . . . . . . . . 92
4
ЗМIСТ
5
Частина I
Теорiя ймовiрностей
6
Роздiл 1
Випадковi подiї
Подiї бувають:
1. Випадковi — можуть вiдбутися чи не вiдбутися при проведеннi СЕ.
2. Неможливi — нiколи не вiдбуваються в даному СЕ.
3. Вiрогiднi — завжди вiдбуваються в даному СЕ.
Будемо вважати, що кожному СЕ можна поставити у вiдповiднiсть деяку множину, що на-
зивається простором елементарних подiй Ω. Пiд елементарними подiями ω будемо розумiти
єдинi логiчно можливi подiї СЕ, що виключають одна одну.
Приклад. 1. СЕ — кидання кубика один раз. Ω = {ω1 , ω2 , ..., ω6 }, де подiї
ωk = {випало k очок} , k = 1, ..., 6.
2. СЕ — кидання монетки до першої появи герба. Ω = {ω1 , ω2 , ..., ωk , ...},
де ωi = {герб випав на i-тому киданнi} , i ∈ N.
3. СЕ — зустрiч двох осiб, що домовилися зустрiтися протягом години. x — час приходу
першої особи, y — час приходу другої, 0 ≤ x, y ≤ 1. Ω = {(x, y) : 0 ≤ x, y ≤ 1} ⊂ R2 .
В подальшому випадковi подiї позначатимемо A, B, C, .... Випадкова подiя — пiдмножина
Ω. У прикладi з киданням кубика один раз A = {випало 6 очок} = {ω6 }. В загальному
випадку маємо A = {ωk1 , ωk2 , ..., ωkn , ...} ⊂ Ω. Неможлива подiя — ∅, вiрогiдна — Ω.
Зауваження. Розглядаємо подiї в межах фiксованих СЕ та простору елементарних подiй.
1. Включення A ⊂ B означає, що якщо вiдбулася подiя A, то обов’язково вiдбудеться
подiя B. Наприклад, A = {витягнуто даму пiк} , B = {витягнуто карту чорної мастi}.
Очевидно, A ⊂ B.
Рiвнiсть подiй: (A ⊂ B, B ⊂ A) ⇐⇒ (A = B).
2. Об’єднання подiй A ∪ B — це подiя, яка вiдбувається тодi, коли вiдбувається принаймнi
одна з подiй A чи B.
Властивостi: A ∪ A = A, A ∪ B = B ∪ A, (A ⊂ B) ⇒ (A ∪ B = B), A ∪ Ω = Ω, A ∪ ∅ = A,
(A ∪ B) ∪ C = A ∪ (B ∪ C).
n(∞)
S
Операцiя узагальнюється на скiнченну або злiченну кiлькiсть подiй: A = Ai .
i=1
3. Перетин подiй A ∩ B — це подiя, яка вiдбувається тодi, коли A i B вiдбуваються одно-
часно.
7
Роздiл 1. Випадковi подiї.
Властивостi: A ∩ A = A, A ∩ B = B ∩ A, (A ⊂ B) ⇒ (A ∩ B = A), A ∩ Ω = A, A ∩ ∅ = ∅,
(A ∩ B) ∩ C = A ∩ (B ∩ C), A ∩ B ⊂ A, A ∩ B ⊂ B, (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C),
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
n(∞)
T
Операцiя узагальнюється на скiнченну або злiченну кiлькiсть подiй: A = Ai .
i=1
8
Роздiл 1. Випадковi подiї.
6. (A ⊂ B) ⇒ (P(A) ≤ P(B)).
n
S
7. Якщо A1 , A2 , ..., An — повна група подiй СЕ, то P Ai = 1.
i=1
2a
2a
ϕ
x
Достатньо розглядати лише двi прямi. Ω = (ϕ, x) ∈ R2 : ϕ ∈ [0; π] , x ∈ [0; a]
При такiй побудовi простору елементарних подiй подiя A = {голка перетне пряму} =
{(ϕ, x) ∈ Ω : x ≤ l sin ϕ}
x
a
Ω
l
A
0 π ϕ
S(A) Rπ π 2l
P(A) = S(Ω) , S(Ω) = πa, S(A) = l sin ϕ dϕ = l (− cos ϕ)|0 = 2l. Отже, P(A) = πa .
0
Якщо провести n кидань голки, у m з яких голка потрапить на пряму, то за допомогою
приблизної рiвностi m 2l
n ≈ πa можна приблизно обчислити число π. Наприклад, якщо взяти
n = 5000, m = 2532, l/a = 0.8, то отримаємо π ≈ 3.1596.
Приклад (парадокс Бертрана). Нехай в колi радiусом R навмання обирається хорда. Яка
ймовiрнiсть того, що її довжина буде бiльшою за довжину сторони правильного трикутника,
вписаного в це коло?
Iснують три способи розв’язання цiєї задачi, причому кожен з них дає рiзний результат.
Спосiб 1. З мiркувань симетрiї обирається якийсь фiксований дiаметр кола i розглядає-
ться всi перпендикулярнi до нього хорди. Серед них i обирається навмання довiльна хорда.
Очевидно, що кожна хорда у цьому випадку може бути однозначно визначена своєю середи-
ною, тобто кожнiй хордi можна взаємно однозначно поставити у вiдповiднiсть координату її
середини, якщо за початок вiдлiку взяти якийсь з кiнцiв фiксованого дiаметру.
9
Роздiл 1. Випадковi подiї.
0 2R
R 3R
2 2
Таким чином, множина всiх значень координати середини хорди Ω = [0; 2R]. Множина, що
вiдповiдає подiї — це вiдрiзок A = R2 ; 3R
2 . В якостi мiри вiзьмемо довжину. Тодi P(A) =
l(A) R 1
l(Ω) = 2R = 2 .
Спосiб 2. В цьому способi пропонується розглядати тiльки хорди з одним закрiпленим
кiнцем. Кожнiй хордi поставимо у вiдповiднiсть ту частину дуги кола, яка потрапляє у кут
ϕ, що утворює хорда з дотичною, проведеною через точку закрiплення кiнця всiх хорд.
ϕ
n o
R2
В такому випадку Ω = (x, y) ∈ R2 : x2 + y 2 ≤ R2 , а A = (x, y) ∈ Ω : x2 + y 2 ≤ 4 . Тодi
2
P(A) = πR /4 1
πR2 = 4 .
Жозеф Бертран був противником геометричного означення ймовiрностi. Вiн казав, що
воно не дає можливостi однозначно обчислити ймовiрнiсть однiєї i тiєї ж випадкової подiї та
використовував вищенаведений приклад для доведення своєї правоти. Дiйсно, було отримано
три рiзних вiдповiдi при розв’язаннi однiєї задачi. Так в чому ж справа? Насправдi, помилка
полягає у рiзних трактуваннях поняття «навмання обрана хорда». В кожному з трьох способiв
це трактування було рiзним, що й стало причиною рiзних вiдповiдей.
10
Роздiл 1. Випадковi подiї.
∞ ∞
S P
P3: ∀A1 , A2 , ..., An , ... ∈ F, Ai ∩ Aj = ∅ при i 6= j : P An = P(An ) — аксiома
n=1 n=1
злiченної адитивностi. Iнодi у випадках «простої» алгебри (а не σ-алгебри) доста-
тньо аксiомискiнченної адитивностi P30 : ∀A1 , A2 , ..., An ∈ F, Ai ∩ Aj = ∅ при i 6=
Sn n
P
j:P Ak = P(Ak ).
k=1 k=1
Означення 1.2.1. Нормована мiра P, що введена на вимiрному просторi {Ω, F}, називається
ймовiрнiстю. Всi подiї беруться з σ-алгебри подiй. Трiйка {Ω, F, P} називається ймовiрнiсним
простором стохастичного експерименту.
Ця система аксiом несуперечна, бо iснують стохастичнi експерименти, якi задовольняють
цим аксiомам, але неповна, бо в рiзних задачах теорiї ймовiрностей розглядаються рiзнi ймо-
вiрнiснi простори.
11
Роздiл 1. Випадковi подiї.
(n−1)!
Ai = {i-тий лист дiйшов за призначенням} , i = 1, ..., n. P(Ai ) = n1 = n! .
Sn
A = {хоча б один iз листiв дiйшов за призначенням} , A = Ai .
i=1
P(Ai ∩ Aj ) = (n−2)!n!
1
= n(n−1) , i 6= j.
1
P(Ai ∩ Aj ∩ Ak ) = n(n−1)(n−2) , i 6= j 6= k.
...
1
P(A1 ∩ ... ∩ An ) = n! .
За формулою включення-виключення P(A) = n · n1 − Cn2 · 1
n(n−1)
1
− · · · + (−1)n−1 n! =1− 1
2! +
1 1
3! − · · · + (−1)
n−1
· n! ≈ 1 − 1e ≈ 0.63.
∞ ∞
S P
9. ∀A1 , A2 , ..., An , ... ∈ F : P Ak ≤ P(Ak )
k=1 k=1
∞
S
Доведення. An = A1 ∪ (A2 \A1 ) ∪ (A3 \A2 ) ∪ ... ∪ (An \An−1 ) ∪ ...
n=1
∞ ∞
S P
З аксiоми P3: P An = P(A1 ) + P(An \An−1 ).
n=1 n=2
n
P
Sn = P(A1 ) + P(Ak \Ak−1 ) = P(A1 ) + P(A2 ) − P(A1 ) + P(A3 ) − P(A2 ) + ... + P(An ) − P(An−1 ) =
k=2
∞
S
P(An ). Отже, P An = lim Sn = lim P(An ). N
n=1 n→∞ n→∞
Теорема
∞ 2. Нехай є монотонно спадна послiдовнiсть подiй A1 ⊃ A2 ⊃ ... ⊃ An ... ∈ F. Тодi
T
P An = lim P(An ).
n=1 n→∞
∞ ∞
T S т. 1
Доведення. P An =1−P An = 1 − lim P(An ) = lim (1 − P(An )) = lim P(An ).
n=1 n=1 n→∞ n→∞ n→∞
N
12
Роздiл 1. Випадковi подiї.
∞ ∞
S P
Перейшовши у правiй частинi до границi при n → ∞, отримаємо P Ak = P(Ak ), що
k=1 k=1
є твердженням аксiоми злiченної адитивностi. N
Для трьох подiй: P(A ∩ B ∩ C) = P(A ∩ B) · P(C/(A ∩ B)) = P(A) · P(B/A) · P(C/(A ∩ B)). За
методом математичної iндукцiї неважко довести, що
n
! n−1
!!
\ \
P Ak = P (A1 ) · P (A2 /A1 ) · P (A3 / (A1 ∩ A2 )) · ... · P An / Ak (3)
k=1 k=1
Приклад. На 10 картках написано по однiй буквi так, що можна скласти слово «матема-
тика». Дитина навмання витягує без повернення по однiй картцi. Яка ймовiрнiсть того, що
пiсля витягання 4 карток утвориться слово «мама»?
Треба обчислити ймовiрнiсть P(M (1) ∩ A(2) ∩ M (3) ∩ A(4) ), де верхнiй iндекс означає крок,
2
на якому витягнуто лiтеру. P(M (1) ) = 10 , P(A(2) /M (1) ) = 93 , P(M (3) /(M (1) ∩ A(2) )) = 18 ,
P(A(4) /(M (1) ∩ A(2) ∩ M (3) )) = 72 . Тому за формулою (3) P(M (1) ∩ A(2) ∩ M (3) ∩ A(4) ) = 10·9·8·7
2·3·1·2
.
13
Роздiл 1. Випадковi подiї.
Зокрема:
1. ∀i,j ∈ 1, ..,n, i 6= j : P(Ai ∩ Aj ) = P(Ai ) · P(Aj ) — попарна незалежнiсть.
Tn n
Q
2. P Ak = P(Ak ).
k=1 k=1
14
Роздiл 1. Випадковi подiї.
Приклад. В групi з 10 осiб троє вчаться на «5», четверо на «4», двоє на «3» та один на «2».
Викладач пiдготував на екзамен 20 питань. Студенти, якi вчаться на «5», знають вiдповiдi на
всi, на «4» — на 16, на «3» — на 10, на «2» — на 5. Екзаменацiйний бiлет мiстить 3 питання.
Деякий студент вiдповiв правильно на всi 3. Яка ймовiрнiсть того, що вiн вчиться на «2»?
Введемо гiпотези H1 = {студент вчиться на «5»}, H2 = {студент вчиться на «4»}, H3 =
3
{студент вчиться на «3»}, H4 = {студент вчиться на «2»}. За умовою P(H1 ) = 10 , P(H2 ) =
4 2 1
10 , P(H 3 ) = 10 , P(H4 ) = 10 . Позначимо A = {студент вiдповiв на всi три питання}. Тодi
16·15·14 10·9·8 5·4·3
P(A/H1 ) = 1, P(A/H2 ) = 20·19·18 , P(A/H3 ) = 20·19·18 , P(A/H4 ) = 20·19·18 . За формулою
P(H4 )·P(A/H4 ) 0.1·5·4·3
(7) шукана ймовiрнiсть P(H4 /A) = P 4 = 0.3·20·19·18+0.4·16·15·14+0.2·10·9·8+0.1·5·4·3 =
P(Hk )·P(A/Hk )
k=1
60 1
35460 = 591 .
Основна задача — знайти ймовiрнiсть того, що подiя A1 вiдбудеться m1 разiв, подiя A2 вiд-
k
P
будеться m2 разiв i т.д., подiя Ak вiдбудеться mk разiв, причому mj = n. Такi ймовiрностi
j=1
будемо позначати як Pn (m1 , m2 , ..., mk ).
mk
P A1 ∩ ... ∩ A1 ∩ A2 ∩ ... ∩ A2 ∩... ∩ Ak ∩ ... ∩ Ak = pm 1 m2
1 p2 ...pk
| {z } | {z } | {z }
m1 разiв m2 разiв mk разiв
15
Роздiл 1. Випадковi подiї.
n!
Pn (m1 , ..., mk ) = pm1 pm2 ...pm k
(1)
m1 !m2 !...mk ! 1 2 k
Приклад. Студент IПСА за рiвнем пiдготовки з ймовiрнiстю 0.3 вважається слабким сту-
дентом, з ймовiрнiстю 0.5 вважається середнiм студентом та з ймовiрнiстю 0.2 — сильним
студентом. Яка ймовiрнiсть того, що з 6 навмання обраних студентiв кiлькiсть слабких та
сильних буде однаковою?
Розглядаємо подiю A = {кiлькiсть слабких рiвна кiлькостi сильних}. Позначимо ймовiр-
ностi того, що студент має певний рiвень пiдготовки, таким чином: p1 = 0.3, p2 = 0.5, p3 = 0.2.
P(A) = ?
Скористаємось полiномiальною схемою: P(A) = P6 (3, 0, 3) + P6 (2, 2, 2) + P6 (1, 4, 1) +
6! 6! 6!
P6 (0, 6, 0) = 3!3! ·(0.3)3 ·(0.2)3 + 2!2!2! ·(0.3)2 ·(0.5)2 ·(0.2)2 + 1!4!1! ·0.3·(0.5)4 ·0.2+ 6! 6
6! ·(0.5) = 0.213445.
np − q m0 np + p
Таким чином отримуємо два варiанти:
16
Роздiл 1. Випадковi подiї.
1. np + p − не цiле ⇒
( m0 = [np + p]
(1)
m0 = np + p
2. np + p − цiле ⇒ (2)
m0 = np − q
(np)m −np
Pn (m) ≈ e
m!
a m am
Доведення (нестроге). Pn (m) = n(n−1)...(n−m+1) (1 − na )n−m = − n1 )(1 − n2 )...(1 −
m! m n m! 1(1
m
m+1 a n a −m
n )(1 − n ) (1 − n ) −→ am! e−a = (np)
m! e
−np
. N
n→∞
Твердження (формула Муавра-Лапласа). Нехай npq ≥ 20. Тодi для наближення формули
Бернуллi можна використати формулу Муавра-Лапласа:
1 (m−np)2
Pn (m) ≈ √ e− 2npq
2πnpq
17
Роздiл 2
Випадковi величини
В курсi функцiонального аналiзу доводиться, що якщо виконується (1), то {ω : ξ(ω) > x},
{ω : ξ(ω) ≤ x}, {ω : ξ(ω) ≥ x}, {ω : ξ(ω) = x} та {ω : ξ(ω) ∈ ha; bi} також належать F.
Надалi розглядатимуться випадковi величини двох видiв — дискретнi (ДВВ) та неперервнi
(НВВ).
Доведення. Введемо послiдовностi подiй An = {ω : ξ(ω) < −n} та Bn = {ω : ξ(ω) < n}.
Зауважимо, що An є монотонно спадною, а Bn — монотонно зростаючою. ∞
hтеорема i T
lim Fξ (x) = lim P(ξ < x) = lim P(ξ < −n) = неперервностi 2 = P An =
x→−∞ x→−∞ n→∞ n=1
= P(∅) = 0. ∞
hтеорема i S
lim Fξ (x) = lim P(ξ < x) = lim P(ξ < n) = неперервностi 1 = P Bn =
x→+∞ x→+∞ n→∞ n=1
= P(Ω) = 1. N
5. Функцiя розподiлу неперервна злiва: lim Fξ (x) = Fξ (x0 ).
x→x0 −0
18
Роздiл 2. Випадковi величини.
Означення 2.1.5. Графiчне зображення закону розподiлу ДВВ називається полiгоном роз-
подiлу ймовiрностей.
p
1
pn
...
p2
p3
p1
... x
x1 x2 x3 xn
Вигляд функцiї розподiлу для ДВВ:
ξ x1 x2 ... xn Pn
x1 < x2 < ... < xn , pi = 1
p p1 p2 ... pn i=1
0, x ≤ x1
1
p , x 1 < x ≤ x2
1
x2 < x ≤ x3
p1 + p2 ,
Fξ (x) = . . .
p1 + p2 n−1
P
pi , xn−1 < x ≤ xn
p1
i=1
n
P
x1 x2 x3 ... xn pi = 1, x > xn
i=1
19
Роздiл 2. Випадковi величини.
1 3 x
0, x ≤ 1
R1 Rx 3 2
Fξ (x)
0dt + 26 t dt =
−∞
1 Rx 1
1
Fξ (x) = fξ (t)dt = 26 (x3 − 1), 1 < x ≤ 3
−∞
R1 R3 3 2
0dt + 26 t dt+
−∞
1 3 x
1
+ R x 0dt = 1, x > 3
3
2. «Закон арксинуса» з щiльнiстю, що має розриви 2-го роду:
fξ (x)
(
0, |x| ≥ a
fξ (x) =
√ 1 , |x| < a
π a2 −x2
−a a x
20
Роздiл 2. Випадковi величини.
Iнтеграл або ряд (1) має збiгатися абсолютно, iнакше кажуть, що випадкова величина не
має математичного сподiвання.
1
Приклад. НВВ, розподiлена за законом Кошi з щiльнiстю fξ (x) = π(1+x2 ) не має математи-
+∞
чного сподiвання, бо iнтеграл π1 x
R
1+x2 dx розбiжний.
−∞
Доведення дляPДВВ.
P P {ξ1 = xk } P , P {ξ2 =P
= pk P yj } P
= pj , P {ξ
P1 + ξ2 = x
P k + yj } = pkj .
E (ξ1 + ξ2 ) = (xk + yj )pkj = xk pkj + yj pkj = xk pk + yj pj = Eξ1 +
k j k j j k k j
Eξ2 . N
Означення 2.2.2. Двi випадковi величини ξ1 та ξ2 , заданi на одному ймовiрнiсному просторi,
називаються незалежними, якщо ∀x, y подiї A = {ω : ξ1 (ω) < x} та B = {ω : ξ2 (ω) < y} є
незалежними. В цьому випадку P {ξ1 < x, ξ2 < y} = P(A ∩ B) = P(A) · P(B) = Fξ1 (x) · Fξ2 (y).
Властивостi 3 та 4 для НВВ буде доведено в темi «Функцiї випадкових аргументiв» (ст.
59).
−a a x
+∞ Ra
R x |x|
Eξ = xfξ (x)dx = a 1− a dx = 0, оскiльки iнтегрується непарна функцiя по
−∞ −a
симетричному промiжку.
21
Роздiл 2. Випадковi величини.
2.2.2 Дисперсiя
Означення 2.2.3. Дисперсiєю випадкової величини називається
n(∞)
+∞
P 2
(xk − Eξ) P {ξ = xk } , ξ — ДВВ
Z
2 2 k=1
Dξ = E (ξ − Eξ) = (x − Eξ) dFξ (x) = +∞ (2)
R 2
(x − Eξ) fξ (x)dx,
−∞
ξ — НВВ
−∞
Властивостi√дисперсiї:
1. Dξ ≥ 0, Dξ = σξ — середньоквадратичне (стандартне) вiдхилення.
2. Dξ = 0 ⇔ ξ = const, бо Dc = E(c − Ec)2 = 0.
3. Для обчислення дисперсiї бiльш зручною є наступна формула:
Dξ = E(ξ 2 − 2ξEξ + (Eξ)2 ) = Eξ 2 − 2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2 .
2 2
4. D(c·ξ) = c2 ·Dξ, оскiльки D(c·ξ) = E (c · ξ − E(c · ξ))2 = E (c · ξ − c · Eξ) = c2 ·E (ξ − Eξ) =
c2 · Dξ, c — константа.
5. D(ξ + c) = E(ξ + c − E(ξ + c))2 = E(ξ + c − Eξ − Ec) = E(ξ − Eξ)2 = Dξ, c — константа.
22
Роздiл 2. Випадковi величини.
x
2 2 x2
Для визначення моди знайдемо максимум fξ (x) при x ≥ 0. fξ0 (x) = σ σ−x 4 e− 2σ2 = 0 при
x2
3
x = σ. fξ00 (x) = − σ3x4 + σx6 e− 2σ2 , fξ00 (σ) = − σ23 e− 2 < 0. Отже, в точцi x = σ дiйсно максимум
1
fξ (x), тому M oξ = σ.
Rx0 Rx0 x
x − 2σ
2
Медiану знайдемо з рiвностi P {ξ < x0 } = 0.5. P {ξ < x0 } = fξ (x)dx = σ2 e
2
dx =
−∞ 0
x2
0 x2
0 √
1 − e− 2σ2 . З рiвняння 1 − e− 2σ2 = 0.5 знаходимо x0 = σ 2 ln 2.
Eξ Eξ Eξ
Asξ = 0 Asξ < 0 Asξ > 0
Означення 2.2.11. Ексцесом випадкової величини Exξ називається безрозмiрна числова ха-
4
рактеристика, що дорiвнює Exξ = σβ44 −3 = E(ξ−Eξ)
(Dξ)2 −3. Ця характеристика показує, наскiльки
ξ
швидко крива розподiлу прямує до точки максимуму.
23
Роздiл 2. Випадковi величини.
Властивостi генератриси:
1. Вiдповiдний ряд рiвномiрно збiгається принаймнi в колi |z| ≤ 1.
P∞ ∞
k
P
Доведення.
P {ξ = k} z ≤ P {ξ = k} = 1. N
k=0 k=0
Вправа. Виразити через похiднi генератриси центральнi моменти 3-го та 4-го порядкiв.
24
Роздiл 2. Випадковi величини.
n n
P {ξ = k} z k = Cnk pk q n−k z k = (pz + q)n . G0ξ (z) = np(pz + q)n−1 , G00ξ (z) =
P P
Gξ (z) =
k=0 k=0
n(n − 1)p2 (pz + q)n−2 .
2
G0ξ (1) = np(p + q)n−1 = np, G00ξ (1) = n(n − 1)p2 = n2 p2 − np2 , G00ξ (1) + G0ξ (1) − G0ξ (1) =
n2 p2 − np2 + np − n2 p2 = np(1 − p) = npq. Отже, знайдено значення математичного сподiвання
та дисперсiї.
Числовi характеристики:
1. Eξ = np.
√
( σξ = npq.
2. Dξ = npq,
[np + p] , якщо np + p не цiле
3. M oξ = — як найбiльш ймовiрна кiлькiсть успiхiв
np + p, np − q, якщо np + p цiле
у схемi Бернуллi.
4. M eξ — одне зi значень [np] − 1, [np], [np] + 1.
Застосування: якщо проводиться n незалежних випробувань з ймовiрнiстю успiху p, то
ξ ∼ Bin(n, p) задає кiлькiсть успiхiв.
25
Роздiл 2. Випадковi величини.
26
Роздiл 2. Випадковi величини.
fξ (x)
1
b−a
a b x
Функцiя розподiлу:
Fξ (x)
1
0,
x≤a
x−a
Fξ (x) = , a<x≤b
b−a
1, x>b
a b x
Числовi характеристики:
+∞ Rb x a+b
R
1. Eξ = xfξ (x)dx = b−a dx = 2 .
−∞ a
Rb x2 (a+b)2 (b−a)2 b−a
2. Dξ = Eξ 2 − (Eξ)2 = b−a dx − 4 = 12 , σξ = √ .
2 3
a
3. M oξ — будь-яка точка з ha; bi.
4. M eξ = a+b
2 .
5. Asξ = 0.
6. Exξ = − 56 .
Застосування: отримання вибiрок з iнших законiв розподiлу;
похибка округлення до най-
ближчої подiлки приладу при цiнi подiлки a має розподiл U − a2 ; a2 .
27
Роздiл 2. Випадковi величини.
fξ (x)
λ
0 x
Функцiя розподiлу:
Fξ (x)
1
Rx
λ e−λt dt = 1 − e−λx , x>0
Fξ (x) = 0
0, x≤0
0 x
28
Роздiл 2. Випадковi величини.
Приклад. Яка ймовiрнiсть того, що людина проживе 100 рокiв? Нехай ξ — час життя лю-
дини. Оскiльки P {ξ = 100} = 0, знайдемо P {ξ ≥ 100}. P {ξ ≥ 100} = e−λ·100 , λ = ?. Оскiль-
1
ки λ = Eξ , то, прийнявши Eξ = 70 (середня тривалiсть життя), отримаємо P {ξ ≥ 100} =
−100/70
e ≈ 0.24.
fξ (x)
0 a−σ a a+σ x
Змiст параметрiв a та σ 2 :
+∞ (x−a)2
h √ i +∞ √ 2
1
xe− 2σ2 dx = σx−a √1 (a + σ 2t)e−t dt =
R R
1. Eξ = √2πσ √ = t, dx = σ 2dt =
2 π
−∞ −∞
+∞ 2
√a e−t dt = [iнтеграл Ейлера-Пуассона] = a.
R
= π
−∞
+∞ (x−a)2
2. Знайдемо всi центральнi моменти: βk = E(ξ − Eξ)k = √1 (x − a)k e−
R
σ 2π
2σ 2 dx =
−∞
+∞
σ k√
2k/2 2
tk e−t dt.
R
[iдентична замiна] = π
−∞
Якщо k = 2l + 1, то βk = 0 (непарна функцiя пiд iнтегралом). β3 = 0 ⇒ Asξ = 0.
Вiзьмемо k = 2l:
+∞
2l l R 2
h i +∞
2l l R
1 1
β2l = σ√π2 t2l e−t dt = t2 = z, dt = 21 z − 2 dz = 2 σ√π2 z l e−z · 12 z − 2 dz =
−∞ 0
2l l
+∞ 2l l
1
σ√ 2
z l− 2 e−z dz σ√ 2
· Γ(l + 12 ).
R
= π
= π
0
Числовi характеристики:
1. Eξ = M oξ = M eξ = a.
2
2. Dξ = 2σ
√ · Γ 3 = σ 2 , σξ = σ.
π 2
3. Asξ = 0. √
4 2
4. Exξ = σβ44 − 3 = σ ·2√π·σ
·Γ(5/2)
4 −3 = 4· π·3/4
√
π
− 3 = 0. Доданок −3 у формулi ексцесу був
ξ
введений саме для того, щоб нормальний розподiл мав нульовий ексцес.
29
Роздiл 2. Випадковi величини.
Функцiя розподiлу:
Rx Rx (t−a)2
Fξ (x) = fξ (t)dt = √1
2πσ
e− 2σ 2 dt — не береться в елементарних функцiях.
−∞ −∞
Для зручного використання гауссiвського закону в задачах введемо спецiальну функцiю,
значення якої занесено до таблиць.
Функцiя Лапласа:
t 2
√1 e− 2
2π S = Φ(x)
Rx t2
Φ(x) = √1
2π
e− 2 dt
0
2.3.8 Гамма-розподiл
Означення: НВВ ξ розподiлена за гамма-законом, якщо її щiльнiсть розподiлу має вигляд
( α
β
xα−1 e−βx , x ≥ 0
fξ (x) = Γ(α) (8)
0, x<0
fξ (x)
α=2
β=1
0 x
30
Роздiл 2. Випадковi величини.
fξ (x)
α=1
β = 1/2
0 x
Функцiя розподiлу:
Fξ (x)
0, x≤0 1
Fξ (x) = Rx γ(α,βx)
fξ (t)dt = Γ(α) , x>0
0
Rx
де γ(s, x) = ts−1 e−t dt
0
0 x
Знайдемо всi початковi моменти гамма-розподiлу.
+∞ +∞ +∞
βα βα
R k α−1 −βx
Eξ k = 1
tk+α−1 e−t dt =
R k R
x fξ (x)dx = Γ(α) x x e dx = [βx = t] = Γ(α) · β k ·β α
−∞ 0 0
+∞
1
R k+α−1 −t Γ(α+k) Γ(α+1) α 2 Γ(α+2) (α+1)α
Γ(α)·β k
t e dt = Γ(α)·β k
. Зокрема, Eξ = Γ(α)·β = β, Eξ = Γ(α)·β 2 = β2 .
0
Числовi характеристики:
1. Eξ = α
β.
2
√
2. Dξ = Eξ 2 − (Eξ)2 = (α+1)α
β2 −α α α
β 2 = β 2 , σξ = β .
3. M oξ = α−1
β .
4. M eξ — немає виразу у замкненiй формi.
5. Asξ = √2α .
6. Exξ = α6 .
Застосування: гамма-розподiл застосовується для моделювання складних потокiв подiй, в
економiцi, теорiї масового обслуговування, логiстицi. У випадку натурального параметру α =
k ∈ N за законом Γ(k, λ) розподiлений час очiкування появи k-тої подiї в процесi Пуассона з
iнтенсивнiстю λ. Така версiя гамма-розподiлу називається розподiлом Ерланга.
Вправа. Нехай T — час очiкування появи k-тої подiї в процесi Пуассона з iнтенсивнiстю λ.
Довести T ∼ Γ(k, λ).
31
Роздiл 3
Випадковi вектори
Означення 3.1.2. Випадковий вектор називається дискретним, якщо всi його координати
— дискретнi випадковi величини.
Зауваження. Випадковий вектор можна трактувати як випадкову точку в Rn . При n = 2:
ξ~ = (ξ1 , ξ2 )T — випадкова точка на площинi.
Закон розподiлу двовимiрного дискретного випадкового вектора задається таблицею роз-
подiлу.
y
ξ1
x1 x2 ... xn ym
ξ2 ..
y1 p11 p21 ... pn1 .
y2 p12 p22 ... pn2 y2
... ... ... pij ... y1
ym p1m p2m ... pnm
x1 x2 ... xn x
P
pij = P {ξ1 = xi , ξ2 = yj }, pij = 1.
i,j
З таблицi розподiлу можна обчислити ряди розподiлу ξ1 та ξ2 :
ξ1 x1 x2 ... xn ξ2 y1 y2 ... ym
m
P Pm Pm n
P n
P n
P
p p1k p2k ... pnk p pk1 pk2 ... pkm
k=1 k=1 k=1 k=1 k=1 k=1
Зауваження. Обчислити таблицю розподiлу, знаючи ряди розподiлу координат, можна лише
у випадку їх незалежностi.
32
Роздiл 3. Випадковi вектори.
(x, y)
Fξ~(x, y)
x
Властивостi:
1. D(Fξ~) = R2 , E(Fξ~) = h0; 1i.
2. Монотонно неспадна по кожнiй з координат.
Доведення. A = {ξ1 < x2 , ξ2 < y}, B = {x2 ≤ ξ1 < x1 , ξ2 < y}, C = {ξ1 < x1 , ξ2 < y},
x1 > x2 . C = A ∪ B ⇒ P(C) = P(A) + P(B), P(C) = Fξ~(x1 , y), P(A) = Fξ~(x2 , y).
Fξ~(x1 , y) = Fξ~(x2 , y) + P(B) ⇒ Fξ~(x1 , y) ≥ Fξ~(x2 , y).
Для другої координати аналогiчно. N
3. lim Fξ~(x, y) = lim Fξ~(x, y) = lim Fξ~(x, y) = 0.
x→−∞ y→−∞ x,y→−∞
Доведення. lim Fξ~(x, y) = lim P (ξ1 < x, ξ2 < y) = P (ξ1 < +∞, ξ2 < y) =
x→+∞ x→+∞
= P (ξ2 < y) = Fξ2 (y). Iнша — аналогiчно. N
5. lim Fξ~(x, y) = 1.
x,y→+∞
33
Роздiл 3. Випадковi вектори.
∂ 2 Fξ~
Таким чином, якщо iснує неперервна друга похiдна ∂x∂y , то
∂ 2 Fξ~
fξ~(x, y) = (x, y) (2)
∂x∂y
Означення 3.2.3. Поверхня, що є графiком щiльностi двовимiрного випадкового вектора,
називається поверхнею розподiлу.
34
Роздiл 3. Випадковi вектори.
( 1
2, (x, y) ∈ D y =1−x
Приклад. fξ~(x, y) =
0, (x, y) ∈
/D D
0 1 x
+∞
R 0,
x ≤ 0 або x > 1
1. fξ1 (x) = fξ~(x, y)dy = 1−x
R
−∞
2dy = 2(1 − x), 0<x≤1
0
+∞
R 0,
y ≤ 0 або y > 1
fξ2 (y) = fξ~(x, y)dx = 1−y
R
−∞
2dx = 2(1 − y), 0<y≤1
0
2. Функцiї розподiлу координат:
0, x≤0
Rx Rx
2
Fξ1 (x) = fξ1 (t)dt = 2 (1 − t)dt = 2(x − x2 ) = 2x − x2 , 0 < x ≤ 1
−∞
0
1, x > 1
0, y≤0
Ry
Fξ2 (y) = fξ2 (t)dt = 2y − y 2 , 0 < y ≤ 1
−∞
1, y > 1
3. Сумiсна функцiя розподiлу будується за допомогою розбиття площини R2 на областi,
в яких функцiя розподiлу має однаковий вигляд, оскiльки для рiвномiрного розподiлу
ймовiрнiсть потрапляння в певну область пропорцiйна її площi:
35
Роздiл 3. Випадковi вектори.
Rx Ry
Fξ~(x, y) = fξ~(t, s)dtds
−∞ −∞
(x, y) ∈ D2
s D2 = {(x, y) : x ∈ [0, 1] , y ∈ [1 − x, 1]}
D4 D5 Fξ~(x, y) = 2(xy − 21 (x−1+y)(y −1+x))
D2 (x, y) ∈ D3
D3
D1 D3 = {(x, y) : x > 1, y ∈ [0, 1]}
t Fξ~(x, y) = 2 1+1−y
2 y = y(2 − y)
D0
(x, y) ∈ D0 (x, y) ∈ D4
D0 = {(x, y) : x ≤ 0 ∨ y ≤ 0} D4 = {(x, y) : y > 1, x ∈ [0, 1]}
Fξ~(x, y) = 0 Fξ~(x, y) = 2 1+1−x
2 x = x(2 − x)
(x, y) ∈ D1 (x, y) ∈ D5
D1 = {(x, y) : x ∈ [0, 1] , y ∈ [0, 1 − x]} D5 = {(x, y) : x > 1 ∧ y > 1}
Fξ~(x, y) = 2xy Fξ~(x, y) = 1
∂ n Fξ~
fξ~(~x) = (~x) (4)
∂x1 ...∂xn
Властивостi щiльностi:
1. fξ~(~x) ≥ 0.
+∞
R +∞
R
2. ... fξ~(~x)dx1 ...dxn = 1.
−∞ −∞
Rx1 x
Rn
3. Fξ~(~x) = ... fξ~(~t)dt1 ...dtn .
−∞ −∞
Rx1 x
Rk +∞ +∞
fξ~(~t)dt1 ...dtn .
R R
4. Fξ1 ξ2 ...ξk (x1 , ..., xk ) = ... ...
−∞ −∞ −∞ −∞
+∞ Rxi +∞
fξ~(~t)dt1 ...dtn .
R R
Fξi (xi ) = ... ...
−∞ −∞ −∞
+∞
Z +∞
Z
5. fξ1 ...ξk (x1 , ..., xk ) = ... fξ~(~x)dxk+1 ..dxn .
−∞ −∞
| {z }
n n−k
o RR R
6. D — замкнена обмежена область в Rn , P ξ~ ∈ D = ... D fξ~(~x)dx1 ...dxn .
7. Якщо координати ξ1 , ..., ξn незалежнi у сукупностi (тобто, подiї {ω : ξik (ω) < xik } неза-
лежнi для всiх xik та i1 , i2 , ...ir ∈ {1, ..., n}), то fξ~(x1 , ..., xn ) = fξ1 (x1 ) · ... · fξn (xn ).
Вправа. Довести властивостi щiльностi.
36
Роздiл 3. Випадковi вектори.
37
Роздiл 3. Випадковi вектори.
Rx 1
2, (x, y) ∈ S
fξ~(x, y) = πR
0, (x, y) ∈
/S
√
( √
RR2 −x2 √
1 2 R2 −x2 2 R2 −y 2
|x| ≤ R
πR2 dy = , , |y| ≤ R
√ πR2 πR2
fξ1 (x) = − R2 −x2
, fξ2 (y) =
0, |y| > R
0, |x| > R
RR √
2 R2 −t2
Eξ1 = Eξ2 = t· πR2 dt = 0, бо iнтегрується непарна функцiя по симетричному
−R
промiжку.
2π RR 2π RR
xy πr1 2 dxdy − Eξ1 Eξ2 = 1
dϕ r2 cos ϕ sin ϕrdr = 1
sin 2ϕdϕ r3 dr = 0.
RR R R
Kξ1 ξ2 = πR2 2πR2
S 0 0 0 0
Отже, fξ~(x, y) 6= fξ1 (x)fξ2 (y) i координати вектора залежнi, але Kξ1 ξ2 = 0.
38
Роздiл 3. Випадковi вектори.
Для коварiацiї маємо cov(aξ1 + bξ2 , η) = E(aξ1 + bξ2 )η − E(aξ1 + bξ2 )Eη = aEξ1 η + bEξ2 η −
aEξ1 Eη − bEξ2 Eη = a · cov(ξ1 , η) + b · cov(ξ2 , η). Також було доведено cov(ξ, η) = cov(η, ξ)
та cov(ξ, ξ) ≥ 0. Виконуються всi умови скалярного добутку, окрiм cov(ξ, ξ) = 0 ⇒ ξ = 0.
Ця умова буде виконуватися, якщо
розглядати iнший простiр випадкових величин: L20 (Ω) =
2
ξ : Ω → R | Eξ = 0, Eξ < +∞ .
Зауваження. Якщо ξ ∈ L2 (Ω), то ˚ ξ ∈ L2 (Ω). 0
Вправа. Перевiрити, що L20 (Ω) є лiнiйним простором.
2
√ на√L0 (Ω).
Висновок: cov(ξ, η) задає скалярний добуток
Таким чином, властивiсть |cov(ξ, η)| ≤ Dξ · Dη — це нерiвнiсть Кошi-Буняковського, а
кореляцiйна матриця K — це матриця Грама системи випадкових величин {ξ1 , ξ2 , ..., ξn }. З
курсу лiнiйної алгебри вiдомо, що якщо цi випадковi величини лiнiйно незалежнi, то матриця
K є додатно визначеною, i невiд’ємно визначеною в загальному випадку.
39
Роздiл 3. Випадковi вектори.
40
Роздiл 3. Випадковi вектори.
Означення 3.4.5. Функцiї ϕ(y) = E(ξ1 /ξ2 = y) та ψ(x) = E(ξ2 /ξ1 = x) називаються лiнiями
регресiї.
y
( 1
2, (x, y) ∈ D y=x
Приклад. fξ~(x, y) =
0, (x, y) ∈
/D D
0 1 x
Rx
1
2dy = 2x, x ∈ [0; 1] R 2dx = 2(1 − y), y ∈ [0; 1]
fξ1 (x) = 0 , fξ2 (y) = y .
0, x∈/ [0; 1]
0, y∈
/ [0; 1]
Запишемо умовнi щiльностi:
1 1
1−y , x ∈ [y; 1] , x , y ∈ [0; x] ,
fξ~(x,y) fξ~(x,y)
fξ1 (x/y) = fξ (y) = y ∈ [0; 1) , fξ2 (y/x) = fξ (x) = x ∈ (0; 1] .
2 1
0, iнакше 0, iнакше
Умовнi розподiли обох координат є рiвномiрними з параметрами hy, 1i та h0, xi вiдповiдно.
R1 R1
Eξ1 = 2x2 dx = 32 , Eξ2 = 2y(1 − y)dy = 13 . Знайдемо умовнi математичнi сподiвання.
0 0
+∞ R1
1 1 1−y 2 1+y
R
E(ξ1 /ξ2 = y) = xfξ1 (x/y)dx = 1−y xdx = 1−y · 2 = 2 , y ∈ [0; 1).
−∞ y
+∞ Rx
1 1 x2
= x2 , x ∈ (0; 1].
R
E(ξ2 /ξ1 = x) = yfξ2 (y/x)dy = x ydy = x · 2
−∞ 0
41
Роздiл 3. Випадковi вектори.
Формула повної дисперсiї. Нехай ξ1 , ξ2 — випадковi величини та Dξ1 < +∞. Тодi Dξ1 =
E(D(ξ1 /ξ2 )) + D(E(ξ1 /ξ2 )).
Доведення. Dξ1 = Eξ12 − (Eξ1 )2 = E(E(ξ12 /ξ2 )) − (E(E(ξ1 /ξ2 )))2 = E(D(ξ1 /ξ2 ) + (E(ξ1 /ξ2 ))2 ) −
(E(E(ξ1 /ξ2 )))2 = E(D(ξ1 /ξ2 )) + (E(E(ξ1 /ξ2 )2 ) − (E(E(ξ1 /ξ2 )))2 ) = E(D(ξ1 /ξ2 )) + D(E(ξ1 /ξ2 )). N
42
Роздiл 4
Характеристичнi функцiї.
Гауссiвськi випадковi вектори
+∞
eitx fξ (x)dx у курсi гармонiчного аналiзу називається перетворенням Фур’є
R
Iнтеграл
−∞
функцiї fξ (x). Отже, у випадку НВВ ξ χξ (t) — перетворення Фур’є щiльностi. Також з курсу
гармонiчного аналiзу вiдомо, що за допомогою оберненого перетворення Фур’є можна вiдно-
+∞
R −itx
1
вити fξ (x) за χξ (t): fξ (x) = 2π e χξ (t)dt.
−∞
43
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
RA
Iнтеграл sin( hx ) dFξ (x) можна зробити як завгодно малим за рахунок вибору h, а
2
−A
iншi два — за рахунок вибору A. N
3. η = aξ + b — афiнне перетворення ξ, a, b ∈ R.
χη (t) = Eeitη = Eeit(aξ+b) = eitb · Eeitaξ = eitb · χξ (at).
n
Q
4. Якщо ξ1 , ..., ξn — незалежнi у сукупностi, то χPnk=1 ξk (t) = χξk (t).
k=1
n
Pn
it ξk itξk
Q
Доведення. χPnk=1 ξk (t) =E e k=1 =E e =
k=1
n n
= eitξk — теж незалежнi у сукупностi = Eeitξk =
Q Q
χξk (t). N
k=1 k=1
44
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
45
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
46
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
k=1 m=1
n
( n
)
2 t2
Y
iao
k tk −
σk k 1X 2 2
χξ~(~t) = e 2 = exp −i(a~o , ~t)
σk tk
2
k=1 k=1
(xk −ao 2
n
( n
)
k)
Y 1 −
2σ 2
1 1 X (xk − aok )2
fξ~(~x) = √ e k = Qn exp −
2πσk (2π)n/2 k=1 σk 2 σk2
k=1 k=1
σ12 1/σ12
0 ··· 0 0 ··· 0
0 σ22 ··· 0
−1
0 1/σ22 ··· 0
Введемо матрицю D = . , D = . .
.. .. .. .. .. ..
.. . . . .. . . .
0 0 ··· σn2 0 0 ··· 1/σn2
Тодi отримаємо
~ ~ 1 ~~
~o
χξ~(t) = exp i(a , t) − (Dt, t) (1)
2
1 1 −1 ~ ~
fξ~(~x) = √ o o
exp − D (~x − a ), (~x − a ) (2)
(2π)n/2 det D 2
47
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
1 2
= √ e−x /2 ⇒ ξ1 ∼ N(0, 1).
2π
Аналогiчно ξ2 ∼ N(0, 1). Отже, координати вектора мають нормальний розподiл, а сам
вектор — нi.
2. Для гауссiвського випадкового вектора поняття незалежностi та некорельованостi ко-
ординат є еквiвалентними.
Доведення. Було доведено, що з незалежностi координат випливає iї некорельованiсть.
Якщо координати некорельованi, то кореляцiйна матриця K = diag(σ12 , σ22 , ..., σn2 ). Тодi
Pn n 1 2 2
n
K~t, ~t = k=1 σk2 t2k . Тодi χξ~(~t) = exp i(~a, ~t) − 21 K~t, ~t = eiak tk − 2 σk tk =
Q Q
χξk (tk )
k=1 k=1
i координати незалежнi. N
48
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
49
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
Що тепер можна сказати про розподiл такого вектора? Оскiльки першi m координат ζ~
можуть приймати довiльнi дiйснi значення, то можливi значення вектора Lζ~ — це точки з
лiнiйної оболонки векторiв {u1 , u2 , ..., um } (це власнi вектори, що вiдповiдають ненульовим
власним числам K). Оскiльки власнi вектори, що вiдповiдають нульовому власному числу,
утворюють базис KerK, то лiнiйна оболонка {u1 , u2 , ..., um } — це ImK.
Висновок: n-вимiрний гауссiвський вектор з виродженою кореляцiйною матрицею, що
має ранг m < n, можна представити у виглядi суми свого вектора математичного сподiвання
та вектора, першi m координат є незалежними у сукупностi та мають стандартний нормаль-
ний розподiл, а iншi координати нульовi, помноженого на невироджену матрицю.
Усi значення n-вимiрного гауссiвського вектора ξ~ ∼ N(~a, K) з виродженою кореляцiйною
матрицею, що має ранг m < n, зосередженi на m-вимiрному пiдпросторi Rn — ImK + ~a.
(x − a1 )2 x − a1 y − a2 (y − a2 )2
fξ~(x, y) = C ⇔ − 2ρ + = λ2
σ12 σ1 σ2 σ22
tg2α = 2ρσ 1 σ2
σ12 −σ22
y
Осi елiпсiв називаються головними осями розсi-
ювання.
Якщо ρ = 0, то головнi осi розсiювання пара-
a2 лельнi осям координат.
α
a1 x
n 2
o
(y−a2 )2
Позначимо Eλ = (x; y) ∈ R2 : (x−a
σ12
1)
− 2ρ x−a
σ1
1 y−a2
σ2 + σ22
≤ λ2 та знайдемо ймовiр-
нiсть потрапляння в цю область у випадку ρ = 0:
50
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
1 (x − a1 )2 (y − a2 )2
o ZZ ZZ
n 1
P ξ~ ∈ Eλ = fξ~(x, y)dxdy = exp − + dxdy =
2πσ1 σ2 2 σ12 σ22
Eλ Eλ
x − a1 = λσ1 r cos ϕ Z2π Z1 Z1
y − a = λσ r sin ϕ λ2
2 2
2 2
− λ 2r
2 2
− λ 2r λ r λ2
2 2 = dϕ re dr = e d = 1 − e− 2
2π 2
|J | = λ2 σ1 σ2 r 0 0 0
2
− λ
n o
Вправа. Довести, що у випадку ρ > 0 P ξ~ ∈ Eλ = 1 − e 2(1−ρ2 ) .
~ −1 1 2
Приклад. ξ ∼ N , . Знайти рiвняння елiпса розсiювання, для якого
n o 1 2 16
P ξ~ ∈ Eλ = 0.93. З кореляцiйної матрицi ρ = 0.5. Розв’яжемо вiдносно λ2 рiвняння 1 −
λ2
− 2(1−0.5 λ2 (x+1)2 x+1 y−1 (y−1)2
e 2)
= 0.93 ⇔ e− 1.5 = 0.07 ⇒ λ2 ≈ 4. Тому рiвняння елiпса 1 − 1 4 + 16 =4
2 2
(x+1) (x+1)(y−1) (y−1)
або 4 − 16 + 64 = 1.
Розглянемо гауссiвський ~
вектор
ξ = (ξ
1 , ξ2 ) з незалежними
координатами. Для нього
1 x−a1 1 y−a2
Fξ~(x, y) = Fξ1 (x)Fξ2 (y) = 2 + Φ σ1 2 +Φ σ2 . Тодi ймовiрнiсть потрапляння в
прямокутник
P i = (x; y) ∈ R2 : α ≤ x < β, γ ≤ y < δ дорiвнює
β − a1 α − a1 δ − a2 γ − a2
Φ −Φ · Φ −Φ
σ1 σ1 σ2 σ2
n o
Вправа. Довести формулу для P ξ~ ∈ P i .
Для гауссiвського вектору з незалежними координатами також має мiсце «правило 3σ»:
n o
P ξ~ ∈ (a1 − 3σ1 ; a1 + 3σ1 ) × (a2 − 3σ2 ; a2 + 3σ2 ) =
= P {ξ1 ∈ (a1 − 3σ1 ; a1 + 3σ1 )} · P {ξ2 ∈ (a2 − 3σ2 ; a2 + 3σ2 )} ≈ 0.99732 ≈ 0.9946
ZZ x = σr cos ϕ Z2π R/σ
Z
n o 1 2 +y 2
− x 2σ 1 r2
P ξ~ ∈ KR = re− 2 dr =
y = σr sin ϕ
e 2
dxdy = = dϕ
2πσ 2 2π
KR |J | = σ 2 r 0 0
R/σ
r2
Z
2 R2
− r2
= e d = 1 − e− 2σ2
2
0
51
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.
52
Роздiл 5
ξ −2 −1 0 1 2
Приклад. . Знайти закон розподiлу η = ξ 2 .
p 1/9 2/9 1/9 2/9 3/9
З ряду розподiлу ξ видно, що ξ 2 приймає значення 0, 1, 4 з ймовiрностями 1/9, 2/9 + 2/9
η 0 1 4
та 1/9 + 3/9. Отже, маємо ряд розподiлу η:
p 1/9 4/9 4/9
З алгоритму побудови ряду розподiлу функцiї вiд дискретного випадкового аргументу
n(∞)
E(ϕ(ξ))k =
P k
ϕ (xi )P{ξ = xi }.
i=1
53
Роздiл 5. Функцiї випадкових аргументiв.
ϕ−1
R (y) 0
fξ (t)dt, fη (y) = Fη0 (y) = −fξ ϕ−1 (y) · ϕ−1 (y) .
Отже, Fη (y) = 1 −
−∞
Остаточно, для монотонної неперервної функцiї ϕ має мiсце формула:
0
fη (y) = fξ ϕ−1 (y) · ϕ−1 (y) , η = ϕ(ξ)
Приклад. Нехай ξ — довiльна НВВ, Fξ (x) — її функцiя розподiлу. Знайти закон розподiлу
η = Fξ (ξ).
0, y ≤ 0
−1 −1
Fη (y) = P{η < y} = P{Fξ (ξ) < y} = P{ξ < Fξ (y)} = Fξ (Fξ (y)) = y, 0 < y ≤ 1 .
1, y > 1
Отже, Fξ (ξ) ∼ U h0; 1i. Ще раз зауважимо, що результат має мiсце для довiльної НВВ ξ.
Зауваження. Якщо ϕ не є неперервною, то η = ϕ(ξ) може не бути НВВ. Наведемо декiлька
прикладiв.
1. Нехай ξ ∼ Exp(1). Знайдемо розподiл η = [ξ], де [·] — цiла частина. Цiла частина приймає
значення 0, 1, 2, ..., знайдемо вiдповiднi ймовiрностi.
n+1
R −x
P {[ξ] = n} = P {ξ ∈ [n; n + 1)} = e dx = e−n − e−(n+1) = e−n (1 − e−1 ), n = 0, 1, 2, ...
n
Отже, η = [ξ] ∼ Geom(1 − e−1 ).
За цим прикладом можна зробити висновок: якщо ϕ — кусково стала, а ξ — НВВ, то
ϕ(ξ) — ДВВ.
2. Нехай ξ ∼ Exp(1). Знайдемо розподiл η = {ξ} = ξ − [ξ]. В цьому випадку ϕ є кусково
неперервною функцiєю та приймає значення з iнтервалу [0; 1).
Для 0 < y < 1 Fη (y) = P {η < y} = P {η ∈ [0; y)} = P {ξ ∈ [n; n + y), n = 0, 1, 2, ...}.
n+y
R −x
Для фiксованого n P {ξ ∈ [n; n + y)} = e dx = e−n (1 − e−y ). Отже, P {η ∈ [0; y)} =
n
∞ ∞
−y −n 1−e−y
P P
P {ξ ∈ [n; n + y)} = (1−e ) e = 1−e−1 . Отримали функцiю розподiлу η: Fη (y) =
n=0
n=0
0,
y≤0
1−e−y
, 0 < y ≤ 1 . Таким чином, η — НВВ.
1−e−1
1, y>1
54
Роздiл 5. Функцiї випадкових аргументiв.
55
Роздiл 5. Функцiї випадкових аргументiв.
Приклад. Нехай ξ1 , ..., ξn незалежнi та мають розподiл Exp(λ). Знайти розподiл їх мiнiмуму.
fmin (x) = n(1 − (1 − e−λx ))n−1 λe−λx = nλe−nλx при x ≥ 0 та 0 при x < 0.
Отже, min{ξ1 , ..., ξn } ∼ Exp(nλ).
Dz
56
Роздiл 5. Функцiї випадкових аргументiв.
Dz
R0 1 z
+∞
R 1 z
Отже, fξ1 ξ2 (z) = − x fξ~(x, x )dx + x fξ~(x, x )dx.
−∞ 0
Приклад. Нехай ξ~ = (ξ1 , ξ2 ) рiвномiрно розподiлений в квадратi [0; 2] × [0; 2]. Знайти закон
розподiлу η = ξ1 ξ2 .
y
2 (
1
4, (x, y) ∈ K
fξ~(x, y) =
0, (x, y) ∈
/K
K
0 2 x
RR
Fη (z) = P{ξ1 ξ2 < z} = fξ~(x, y)dxdy. При z < 0 Fη (z) = 0, а при z ≥ 4 Fη (z) = 1.
{xy<z}∩K
!
2 2
Fη (z) = 41 SDz ∩K = 14 4 − dx dy =
R R
y z
2
z
x
z
!
y= x R2
= 14 4 − 2 − xz dx
2
z
2
1 2
=1− 4 (2x − z ln x)| z2 =
1
=1− 4 (4 − z ln 2 − z + zln z2 ) =
Dz ∩ K 1
= 4 (z + z ln 2 − z ln z + z ln 2) =
0 z 2 x = 41 (z + 2z ln 2 − z ln z) при z ∈ [0; 4).
2
(
0, z∈/ (0, 4]
Отже, fη (z) = 1
.
4 (2 ln 2 − ln z), z ∈ (0, 4]
Dz
57
Роздiл 5. Функцiї випадкових аргументiв.
y = zx
Dz
R0 +∞
R
Отже, f ξ2 (z) = − xfξ~(x, zx)dx + xfξ~(x, zx)dx.
ξ1
−∞ 0
Z0 +∞
Z
fη (z) = − xfξ1 (x)fξ2 (zx)dx + xfξ1 (x)fξ2 (zx)dx =
−∞ 0
Z0 +∞
Z
1 x
− 2σ
2 2 1 x2 2
=− xe 2 (1+z )
dx + xe− 2σ2 (1+z ) dx =
2πσ 2 2πσ 2
−∞ 0
x2
Z0 +∞
−σ 2 σ2
Z
2σ 2 (1 + z2) = t
= x = e−t dt + e−t dt =
σ 2 (1 + z 2 )dx = dt 2πσ (1 + z 2 )
2 2πσ (1 + z 2 )
2
+∞ 0
+∞
Z
1 1
= e−t dt = , z ∈ R — це щiльнiсть розподiлу Кошi.
π(1 + z 2 ) π(1 + z 2 )
0
+∞
R
Зауваження. Якщо ξ1 та ξ2 незалежнi, то fη (z) = fξ1 (x)fξ2 (z − x)dx = (fξ1 ∗ fξ2 )(z). Тут
−∞
∗ позначає операцiю згортки.
58
Роздiл 5. Функцiї випадкових аргументiв.
+∞
R
Вправа. Перевiрити, що щiльнiсть розподiлу η1 = ξ1 −ξ2 має вигляд fη1 (z) = fξ~(x, x−z)dx,
−∞
+∞
R
а η2 = ξ2 − ξ1 — fη2 (z) = fξ~(x, x + z)dx.
−∞
N
Вправа. Довести твердження в бiльш загальному виглядi.
59
Роздiл 5. Функцiї випадкових аргументiв.
p q p
Доведення. Якщо E |ξ| = 0 або E |η| = 0, то нерiвнiсть, очевидно, виконується. Нехай E |ξ| >
q |ξ| |η| p q
0 та E |η| > 0. Позначимо ξ0 = 1 , η0 = 1 , причому Eξ0 = Eη0 = 1. З опуклостi
(E|ξ|p ) p (E|η|q ) q
p q p q p q
функцiї f (x) = − ln x маємо xy = exp{ln xy} = exp{ lnpx + lnqy } ≤ exp{ln xp + yq } = xp + yq ,
1 1
p q
тому E (ξ0 η0 ) ≤ p1 Eξ0p + 1q Eη0q = 1
p + 1
q = 1, звiдки E |ξη| ≤ (E |ξ| ) p · (E |η| ) q . N
Зауваження. При p p = qp= 2 отримуємо вже знайому нерiвнiсть Кошi-Буняковського:
|Eξη| ≤ E |ξη| ≤ Eξ 2 · Eη 2 .
Доведення. Для p = 1 нерiвнiсть є наслiдком нерiвностi |x + y| ≤ |x| + |y| для дiйсних чисел.
p p−1
Нехай p > 1, тодi |ξ + η| = |ξ + η| · |ξ + η| ≤ |ξ| · |ξ + η|p−1 + |η| · |ξ + η|p−1 . Покладемо
p 1 1 p−1 q
q = p−1 . Тодi p + q = 1, E |ξ + η| = E|ξ + η|p скiнченне, бо для дiйсних чисел викону-
ється нерiвнiсть |x + y|p ≤ C(p) · (|x|p + |y|p ). Тодi з нерiвностi Гельдера: E |ξ| · |ξ + η|p−1 ≤
1 1 1 1 1
(E|ξ|p ) p · E|ξ + η|(p−1)q q = (E|ξ|p ) p · (E|ξ + η|p ) q
i, аналогiчно, E |η| ·|ξ + η|p−1 ≤ (E|η|p ) p ·
1 1 1 1
p
(E|ξ + η|p ) q . Отримуємо E |ξ + η| ≤ (E|ξ + η|p ) q · (E|ξ|p ) p + (E|η|p ) p .
p p
У випадку E |ξ + η| = 0 виконання нерiвностi очевидне, а якщо E |ξ + η| > 0, то, подiливши
1
p 1− 1 1 1
на (E|ξ + η|p ) q , отримаємо (E |ξ + η| ) q ≤ (E|ξ|p ) p + (E|η|p ) p . Залишилося зауважити, що
1 − 1q = p1 . N
60
Роздiл 6
fχ2n (x)
0 x
Числовi характеристики:
1. Eχ2n = n/2
1/2 = n.
n/2
2. Dχ2n = 1/4 = 2n.
6.2 Розподiл χ
√
Означення: нехай випадкова величина ξ має розподiл χ2n . Тодi η = ξ має розподiл χ (хi) з
n ступенями вiльностi.
Коротке позначення: η ∼ χn , n ∈ N — кiлькiсть ступенiв вiльностi.
61
Роздiл 6. Основнi розподiли математичної статистики.
Числовi характеристики:
√ Γ( n+1 )
1. Eχn = 2 · Γ n2 .
(2)
2
2. Dχn = n − (Eχn ) .
Зауваження. Нескладно помiтити, що χ2 — це розподiл Релея.
χn √ 0 √
Знайдемо ще розподiл ζ = √n
. ϕ(y) = √yn , ϕ−1 (z) = z n, ϕ−1 (z) = n.
n
nz 2
−1
−1
0 √ √ n n2
−1 z n−1 e− 2 , z ≥ 0
Γ( 2 )
n
f√
χn (z) = f
n
χn ϕ (z) · ϕ (y) = fχn (z n) · n = 2 2
0, z<0
χn
Вправа. Записати числовi характеристики випадкової величини, що має розподiл √
n
.
Крива розподiлу: графiки для рiзних значень n, називаються кривими Стьюдента. Вони
схожi на криву гауссiвського розподiлу, але повiльнiше прямують до 0 на нескiнченностi.
fStn (x)
0 x
Числовi характеристики:
1. EStn = 0.
n
2. DStn = n−2 , n > 2.
Зауваження. Нескладно помiтити, що St1 — це розподiл Кошi.
62
Роздiл 6. Основнi розподiли математичної статистики.
+∞
Z
fF(n1 ,n2 ) (z) = xfχ2n /n1 (zx)fχ2n /n2 (x)dx =
1 2
0
n1 n2 +∞
Z
n2 n2 n1
−1
n1
−1 −
n1 zx n2
−1 −
n2 x
= n1 +n2 1 2 xz 2 x 2 e 2 x 2 e 2 dx =
2 2 Γ n21 Γ n2
2 0
n1 n2 +∞
Z
n2 n2 n1
−1
n1 +n2
−1 − x (n1 z+n2 ) x 2t
= n1 +n2 1 2 ·z 2 x 2 e 2 dx = (n1 z + n2 ) = t, x = =
2 2 Γ n21 Γ n2 2 n1 z + n2
2 0
n1 n2 +∞
Z
n n 2 2 n1
−1
n1 +n2 1 n1 +n2
= n1 +n2 1 2 ·z 2 ·2 2 · n1 +n2 t 2 −1 e−t dt =
2 2 Γ n21 Γ n2
2 (n1 z + n2 ) 2
0
n1
n1 +n2
Γ −1
n1 n2
z 2
= n1 n2
2 2
n1
2 n2 · n1 +n2 , z ≥ 0 та 0 iнакше.
Γ 2 Γ 2 (n1 z + n2 ) 2
0 x
Числовi характеристики:
1. EF(n1 , n2 ) = n2n−2
2
, n2 > 2.
2n22 (n1 +n2 −2)
2. DF(n1 , n2 ) = n1 (n2 −2)2 (n2 −4) , n2 > 4.
1
Зауваження. Якщо η ∼ F(n1 , n2 ), то η ∼ F(n2 , n1 ).
63
Роздiл 7
Приклад. Отримаємо «правило 3σ» для довiльної випадкової величини зi скiнченними ма-
Dξ σ2 8
тематичним сподiванням та дисперсiєю. P {|ξ − Eξ| < 3σ} ≥ 1 − 9σ 2 = 1 − 9σ 2 = 9 .
64
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
Застосуванням цiєї леми до послiдовностi подiй An = {ω : |ξn (ω) − ξ(ω)| > ε} отримаємо
зручну для використання ознаку збiжностi з ймовiрнiстю 1 : якщо для будь-якого ε > 0
∞
P P1
ряд P {|ξn − ξ| > ε} збiгається, то ξn −→ ξ, n → ∞.
n=1
65
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
∞
2. Збiжнiсть за ймовiрнiстю. {ξn }n=1 збiгається до ξ за ймовiрнiстю, якщо ∀ ε > 0 :
lim P {|ξn − ξ| ≥ ε} = 0. Це еквiвалентно умовi ∀ ε > 0 : lim P {|ξn − ξ| ≤ ε} = 1. У
n→∞ n→∞
функцiональному аналiзi така збiжнiсть називається «збiжнiстю за мiрою».
P
Позначення: ξn −→ ξ, n → ∞.
ξn 0 n7
Приклад. Нехай ξn — послiдовнiсть ДВВ: . Перевiрити збiжнiсть
p 1 − 1/n 1/n
P
ξn −→ 0, n → ∞.
Для ε > 0 P {|ξn − 0| ≥ ε} = P {ξn ≥ ε}. ∀ ε > 0 ∃ N : ∀n ≥ N : n7 > ε, тому з якогось
P
номера P {ξn ≥ ε} = P ξn = n7 = n1 → 0, n → ∞, тому ξn −→ 0, n → ∞.
∞
3. Збiжнiсть в середньому. {ξn }n=1 збiгається до ξ в середньому, якщо lim E|ξn −ξ| = 0.
n→∞
С
Позначення: ξn −→ ξ, n → ∞.
∞
4. Збiжнiсть в середньому квадратичному. {ξn }n=1 збiгається до ξ в середньому ква-
дратичному, якщо lim E(ξn − ξ)2 = 0.
n→∞
СК
Позначення: ξn −→ ξ, n → ∞.
5. Збiжнiсть за розподiлом (слабка збiжнiсть, збiжнiсть в основному).
∞ ∞
{ξn }n=1 збiгається до ξ за розподiлом, якщо функцiональна послiдовнiсть {Fξn (x)}n=1
збiгається до Fξ (x) в точках її неперервностi.
F
Позначення: ξn −→ ξ, n → ∞.
Ця збiжнiсть за характером вiдрiзняється вiд iнших тим, що не враховує залежнiсть
або незалежнiсть ξn . Є також еквiвалентне означення збiжностi за розподiлом: якщо
для будь-якої обмеженої неперервної функцiї ϕ : R → R lim Eϕ(ξn ) = Eϕ(ξ). Доведе-
n→∞
ння еквiвалентностi цих двох означень виходить за рамки курсу: його iдея полягає в
тому, що Fξ (x) = P {ξ < x} = E1(−∞,x) (ξ), де 1(−∞,x) — iндикатор множини (−∞, x), i
такi функцiї-iндикатори можна наблизити з будь-якою заданою точнiстю неперервними
функцiями та навпаки.
F
Приклад. Нехай ξn ∼ Exp( n1 ). Перевiрити ξn → 0, n → ∞. Тут пiд 0 розумiється ДВВ,
що приймає( значення 0 з ймовiрнiстю 1. (
x
−n
1−e , x>0 1, x > 0
Fξn (x) = . Видно, що при n → ∞ Fξn (x) → F0 (x) = —
0, x≤0 0, x ≤ 0
функцiя розподiлу 0.
Зауваження. Збiжностi в середньому та середньому квадратичному є частковими випадками
s 1
збiжностi порядку k, для якої lim E|ξn −ξ|k = 0. Оскiльки для 0 < s < t має мiсце (E |ξ| ) s ≤
n→∞
t 1
(E |ξ| ) t то збiжнiсть порядку k гарантує збiжнiсть порядкiв менше k.
∞
Твердження. Нехай послiдовнiсть {ξn }n=1 збiгається за ймовiрнiстю до двох випадкових
величин ξ та η. Тодi P {ξ = η} = 1.
66
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
Збiжнiсть в середньому
квадратичному (СК)
Збiжнiсть з ймовiрнiстю 1
(P1)
Збiжнiсть в середньому
(С)
1
Збiжнiсть за ймовiрнiстю
(P)
Збiжнiсть за розподiлом
(F)
∞
Штрихова лiнiя 1 означає, що у кожнiй послiдовностi {ξn }n=1 , що збiгається за ймовiр-
∞
нiстю, мiститься пiдпослiдовнiсть {ξnk }k=1 , що збiгається з iмовiрнiстю 1. Штрих-пунктирна
лiнiя 2 показує, що вiдповiдний перехiд справедливий, коли гранична випадкова величина ξ
є константою. Доведемо деякi з цих тверджень.
Твердження. Зi збiжностi в середньому квадратичному випливає збiжнiсть в середньому.
p
Доведення. E|ξn − ξ| ≤ E(ξn − ξ)2 , як було сказано вище, тому з E(ξn − ξ)2 → 0 випливає
E|ξn − ξ| → 0, n → ∞. N
Твердження. Зi збiжностi в середньому випливає збiжнiсть за ймовiрнiстю.
E|ξn −ξ|
Доведення. З нерiвностi Маркова (1) ∀ ε > 0 : P {|ξn − ξ| ≥ ε} ≤ ε , тому з E|ξn − ξ| → 0
маємо P {|ξn − ξ| ≥ ε} → 0, n → ∞. N
Твердження. Зi збiжностi за розподiлом до константи випливає збiжнiсть за ймовiрнi-
стю.
F
Доведення. Нехай ξn −→ c, c ∈ R. Вiзьмемо ε > 0. P {|ξn − c| ≤ ε} = P {c − ε ≤ ξn ≤ c + ε} ≥
P {c − ε ≤ ξn < c + ε} = Fξn (c + ε) − Fξn (c − ε), тому lim P {|ξn − c| ≤ ε} ≥ lim Fξn (c + ε) −
n→∞ n→∞
P
lim Fξn (c − ε) = Fc (c + ε) − Fc (c − ε) = 1, звiдки ξn −→ c. N
n→∞
ξn −n 1 2n
Приклад. Нехай ξn — послiдовнiсть ДВВ: .
p 1/2n 1 − 1/n 1/2n
Зi збiльшенням n ξn все з бiльшою ймовiрнiстю набувають значення 1. Водночас, iншi два
можливi значення (−n та 2n) розбiгаються до нескiнченностi. Цi два процеси спричиняють
протилежнi ефекти — перший наближає ξn до 1, а другий — вiддаляє. Тому з точки зору
одних видiв збiжностi, бiльш чутливих до «аномальних викидiв», послiдовнiсть ξn не буде
мати границi, а з точки зору iнших, менш чутливих, границя дорiвнюватиме 1. Дiйсно:
1 1 1 3
E |ξn − 1| = | − n − 1| + 1 − |1 − 1| + |2n − 1| →
2n n 2n 2
2 1 1 1
E (ξn − 1) = (−n − 1)2 + 1 − (1 − 1)2 + (2n − 1)2 → ∞
2n n 2n
Отже, збiжностi до 1 нi в середньому, нi в середньому квадратичному немає. Зауважимо, що
якби «викиди» прямували до нескiнченностi повiльнiше або вiдповiднi ймовiрностi прямували
до нуля швидше,
√ √ цi збiжностi могли б бути: наприклад, якщо замiсть −n та 2n ξn набували
то
значення n та 2 n з ймовiрностями 2n1 2 , то послiдовнiсть збiгалася б до 1 i в середньому,
i в середньому квадратичному. З iншого боку, для будь-якого ε > 0 значення −n та 2n рано
P
чи пiзно вийдуть за межi вiдрiзку [1 − ε; 1 + ε], i тому ξn −→ 1. Тепер стає зрозумiло, чому
перевiряли збiжнiсть в середньому та середньому квадратичному лише до 1: якби якась з цих
границь iснувала, то вона була б i границею за ймовiрнiстю.
67
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
СК
Зауваження. Для збiжностi ξn −→ C (C — стала) необхiдно i достатньо, щоб lim Eξn = C
n→∞
та lim Dξn = 0. lim Eξn = C ⇔ lim (Eξn − EC) = 0, E(ξn − C)2 = Dξn + (E(ξn − C))2 , звiдки
n→∞ n→∞ n→∞
отримуємо твердження при n → ∞, оскiльки Dξn ≥ 0 та (E(ξn − C))2 ≥ 0. Зауважимо, що цi
P
двi умови є достатнiми для збiжностi ξn −→ C.
P
Приклад. Нехай ξn ∼ N 5 + n1 , σ = n1 . Перевiрити ξn −→ 5.
1 1 СК P
Оскiльки Eξn = 5 + n → 5, Dξn = n2 → 0 при n → ∞, то ξn −→ 5 ⇒ ξn −→ 5.
Наведемо без доведення важливу теорему, що стосується збiжностi за розподiлом.
Теорема (теорема неперевностi Левi). Збiжнiсть за розподiлом послiдовностi випадкових
∞
величин {ξn }n=1 еквiвалентна поточковiй збiжностi їх характеристичних функцiй:
F
ξn −→ ξ ⇐⇒ χξn (t) → χξ (t) ∀ t ∈ R (3)
Це означає
n n
1X 1X P
ξk − Eξk −→ 0, n → ∞ (2)
n n
k=1 k=1
n
n n
Доведення. Позначимо ηn = n1 ξk , тодi Eηn = E n1 ξk = n1
P P P
Eξk ,
n k=1 k=1 k=1
n
Dηn = D n1 ξk = [ξk — незалежнi] = n12 Dξk ≤ C
P P
n . Тепер скористаємося нерiвнiстю
k=1 k=1
Dηn C
Чебишова (2): ∀ ε > 0 : P {|ηn − Eηn | ≥ ε} ≤ ε2 ≤ nε2 → 0, n → ∞ — що i треба було
довести. N
68
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
z, w ∈ C з |z| ≤ 1 та |w| ≤ 1 |z n − wn | = |z − w| · z n−1 + z n−2 w + ... + zwn−2 + wn−1 ≤
n · |z − w|. Оскiльки 1 — це характеристична функцiя нульової випадкової величини, а
F P
lim n χ( nt ) − 1 = t · χ0 (0) = [Eξn = 0] = 0, то за теоремою Левi ξn −→ 0, а тому й ξn −→ 0.
n→∞
Залишилося зауважити, що у випадку Eξn = a 6= 0 можемо розглядати послiдовнiсть ξn − a,
P P
i ξn − a −→ 0 ⇔ ξn −→ a.
Наведемо ще один варiант формулювання закону великих чисел.
∞
Теорема (теорема Маркова). Нехай {ξn }n=1 — послiдовнiсть випадкових величин (можли-
во, залежних),
n таких,
що iснують скiнченнi Eξk = ak та Dξk = σk2 для кожного k ∈ N,
n n
P
ξk = o(n2 ) при n → ∞. Тодi n1 ξk − n1
P P P
причому D Eξk −→ 0, n → ∞.
k=1 k=1 k=1
69
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
ξn
Зауваження. Для практичного використання цiєї теореми важливою є оцiнка збiжностi n
до p:
ξn Dηk p(1 − p) 1
P − p ≥ ε ≤
2
= 2
≤
n nε nε 4nε2
Остання нерiвнiсть пояснюється тим, що максимальне значення функцiї f (t) = t(1 − t) =
2
− t − 12 + 14 на вiдрiзку [0; 1] дорiвнює 41 .
Приклад. Оцiнити ймовiрнiсть того, що при 104 пiдкиданнях симетричної монети частiсть
випадiння герба вiдхилиться вiд 12 на 0.01 i бiльше. n o
Нехай ξn задає кiлькiсть гербiв, що випали за n пiдкидань. Тодi P ξ10000 − 21 ≥ 0.01 ≤
10000
1
4·104 ·0.012 = 14 .
Наведемо узагальнення теореми Бернуллi.
Теорема. Нехай ξn задає кiлькiсть успiхiв в схемi Бернуллi з n випробуваннями та ймо-
n
P
вiрнiстю успiху pn , ξn ∼ Bin(n, pn ). Тодi ξnn − n1
P
pk −→ 0, n → ∞.
k=1
Zb n
b−a X
g(x)dx ≈ g(ξk )
n
a k=1
Другий спосiб розв’язання цiєї задачi заснований на iнтерпретацiї iнтеграла як площi пiд
графiком функцiї. Оскiльки g є неперервною функцiєю на вiдрiзку, вона також є обмеженою:
iснує таке M > 0, що g(x) ≤ M для будь-якого x ∈ [a, b]. Тому, кидаючи випадковi точки
в прямокутник Π = [a; b] × [0; M ], ми будемо потрапляти у пiдграфiк G функцiї g якраз з
ймовiрнiстю
Rb
g(x)dx
площа G a
p= =
площа Π M (b − a)
70
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
y
M
Π
g(x)
(ξ2 , η2 )
G
(ξ1 , η1 )
(ξ3 , η3 )
a b x
або:
n
P
(ξk − ak )
k=1 F
s −→ ξ ∼ N(0, 1), n → ∞
n
σk2
P
k=1
71
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
n
P s
(ξk −ak ) n
ξk − ak = ξ˚k (Eξ˚k = 0), Bn = σk2 . Тодi ηn =
k=1
P
Доведення. Позначимо ηn = s
n
,
2 k=1
P
σk
k=1
n n h i
1
ξ˚k . Eηn = 0, Dηn = 1
Dξ˚k = Dξk = Dξ˚k = 1.
P P
Bn Bn2
k=1 k=1
Доведення ґрунтується на теоремi Левi (3): збiжнiсть за розподiлом послiдовностi випад-
∞
кових величин {ξn }n=1 еквiвалентна поточковiй збiжностi їх характеристичних функцiй.
Нехай χk (t) — характеристична функцiя ξ˚k , а Fk (x) — функцiя розподiлу ξ˚k . За власти-
n 2
χk ( Btn ). Доведемо, що χηn (t) → e−t /2 =
Q
востями характеристичних функцiй χηn (t) =
k=1
χN(0,1) (t) при n → ∞.
+∞ +∞
t2 2 t3 3
Z Z
t t t
χk = ei Bn x dFk (x) = 1+i x− x − i x + ... dFk (x) =
Bn Bn 2Bn2 6Bn3
−∞ −∞
2
it ˚ t 2 |t|3 t2 2 |t|3
= [θk ∈ (0; 1)] = 1 + Eξk − 2
Eξ˚k + θk 3 E|ξ˚k |3 = 1 − 2
σk + θk 3 mk
Bn 2Bn 6Bn 2Bn 6Bn
n X n 2 3
X t t |t|
ln χηn (t) = ln χk = ln 1 − σ 2 + θk 3 mk
Bn 2Bn2 k 6Bn
k=1 k=1
n
P
mk
k=1
З умови Ляпунова lim 3
Bn = 0, тому з вiдомої властивостi ln(1 + αn ) ∼ αn , де αn
n→∞
n
P 2
n σk
t2 σ 2 3
2
|t|
− t2
P k=1
— нескiнченно мала при n → ∞, маємо ln χηn (t) ∼ − 2B 2k + θk 6B 3 mk = Bn2 +
n n
k=1
n 3 2
n 3 2
P |t| t
P |t| t
θk 6B 3 mk = − 2 + θk 6B 3 mk → − 2 при n → ∞.
n n
k=1 k=1
t2 F
Таким чином, χηn (t) → e− 2 при n → ∞ i з теореми Левi маємо, що ηn −→ ξ ∼ N(0, 1). N
Зауваження. Можна довести, що для послiдовностi неперервних випадкових величин також
x2
має мiсце збiжнiсть щiльностей розподiлу ηn до √12π e− 2 — щiльностi розподiлу N(0, 1).
3
Наслiдок. Нехай всi ξn однаково розподiленi, Eξk = a, Dξk = σ 2 , mk = E |ξk − a| = m. Тодi
умова Ляпунова виконується автоматично:
n
P
mk
k=1 n·m
lim 3/2 = n→∞
lim =0
n→∞ n (n · σ 2 )3/2
σk2
P
k=1
В цьому випадку
n
P
(ξk − ak ) n
k=1 1 X ξk − a F
s =√ −→ ξ ∼ N(0, 1), n → ∞
n n σ
k=1
σk2
P
k=1
72
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
−4 −2 0 2 4 x
Розглянемо тепер щiльностi розподiлу сум двох (злiва) та трьох (справа) незалежних ВВ,
кожна з яких має розподiл U[−1; 1], i щiльностi нормальних розподiлiв N 0, 32 та N (0, 1)
вiдповiдно.
−4 −2 0 2 4 x −4 −2 0 2 4 x
Видно, що графiк щiльностi суми трьох ВВ дуже схожий на графiк щiльностi нормального
розподiлу N (0, 1).
Вправа. Записати в явному виглядi щiльностi розподiлу ζ2 = ξ1 + ξ2 та ζ3 = ξ1 + ξ2 + ξ3 , де
ξk ∼ U[−1; 1], k = 1, 2, 3.
n
E|ξk −Eξk |3
P
k=1
Варто пояснити практичне значення умови Ляпунова lim n 3/2 = 0 в доведеннi
n→∞ P
Dξk
k=1
теореми. Вона означає, що дисперсiї величин у послiдовностi мають бути приблизно однако-
вого порядку. Можна навести приклад з життя: якщо в багатоквартирному будинку не буде
квартири, що використовує значно бiльше електроенергiї, нiж iншi, то сумарний розподiл
кiлькостi використаної електроенергiї буде приблизно нормальним.
73
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
n
P
Доведення. ξn = ηk , де ηk — iндикатор появи успiху в k-тому випробуваннi, ηk ∼ Bin(1, p).
k=1
ηk — незалежнi та однаково розподiленi, Eηk = p, Dηk = pq, тому до них можна застосувати
ЦГТ:
n
X n
X
(ηk − Eηk ) = ξn − np, Dηk = npq
k=1 k=1
n
P
(ηk − Eηk )
k=1 ξn − np F
s = √ −→ ξ ∼ N(0, 1), n → ∞
Pn npq
Dηk
k=1
N
Робочinформули.oПри великих n:
n −np
1. P ξ√ npq < x ≈ Φ(x) + 2 .
1
n o
n −np
2. ∀ a, b ∈ R, a < b : P a < ξ√ npq < b ≈ Φ(b) − Φ(a).
n o
−np n −np m2 −np
3. ∀ m1 , m2 ∈ R, m1 < m2 : P {m1 < ξn < m2 } = P m√1npq < ξ√ npq < √
npq ≈
m2 −np m1 −np
≈ Φ √npq − Φ √npq .
n o n o n q q o
4. ∀ ε > 0 : P ξnn − p < ε = P −ε < ξn −np < ε = P −ε pq n n −np
< ξ√ npq < ε
n
≈
n pq
q q q
n n n
≈ Φ ε pq − Φ −ε pq = 2Φ ε pq .
Зауваження. В усiх наведених наближених рiвностях будь-яку строгу нерiвнiсть можна замi-
нити на нестрогу. На практицi у формулi 3 iнодi застосовують «поправку на неперервнiсть»,
використовуючи m2 + 21 та m1 − 12 замiсть m2 та m1 вiдповiдно. Емпiрично з’ясовано, що
це дозволяє пiдвищити точнiсть наближення. Також важливо зауважити, що на практицi цi
формули застосовують при n ≥ 50 та npq ≥ 10 (як i для наступних формул, рiзнi джерела
можуть давати iншi межi, наприклад npq ≥ 20).
Приклад. Стрiлець робить 100 пострiлiв по мiшенi з ймовiрнiстю влучення 0.7, ξ — кiлькiсть
влучень. Знайти наближено P {67 ≤ ξ ≤ 72} та порiвняти з точним
значенням.
Маємо np = 70, npq = 100 · 0.7 · 0.3 = 21 ≥ 10, P {67 ≤ ξ ≤ 72} ≈ Φ √221 − Φ − √321 ≈ 0.4124.
З поправкою на неперервнiсть отримаємо P {67 ≤ ξ ≤ 72} ≈ Φ √2.5 21
− Φ − 3.5
√
21
≈ 0.4848.
72
k
0.7k 0.3100−k дає значення 0.4829.
P
Пiдрахунок за точною формулою C100
k=67
(m − np)2
1
Pn (m) ≈ √ exp − (2)
2πnpq 2npq
74
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
Приклад. Стрiлець робить 100 пострiлiв по мiшенi з ймовiрнiстю влучення 0.7, ξ — кiлькiсть
влучень. Знайти наближено P {ξ = 69} тапорiвняти з точним значенням.
1 1
Маємо npq = 21, P {ξ = 69} ≈ √42π exp − 42 ≈ 0.085. Пiдрахунок за точною формулою
69
C100 0.769 0.331 дає значення 0.084.
am −a
P {ξn = m} → e , n→∞ (3)
m!
F
Доведення. Нехай ξ ∼ Poiss(a). Покажемо ξn −→ ξ, n → ∞, скориставшись твердженням n
теореми Левi (3). Характеристичнi функцiї ξn та ξ рiвнi, вiдповiдно, χξn (t) = pn eit + 1 − pn
it
та χ (t) = ea(e −1) . З умови lim np = a та нерiвностi |z n − wn | ≤ n · |z − w| для z, w ∈ C,
ξ n
n→∞
|z| ≤ 1, |w| ≤ 1:
n a it a n a
pn eit + 1 − pn − ≤ n · pn − eit − 1 → 0, n → ∞
e +1−
n n n
Тому маємо
a a n a it n it
lim χξn (t) = lim eit + 1 − = lim 1 + e −1 = ea(e −1) = χξ (t)
n→∞ n→∞ n n n→∞ n
F
Отже, ξn −→ ξ, n → ∞. Функцiя розподiлу ξ неперервна в будь-якiй нецiлiй точцi, тому для
цiлих m ≥ 0:
1 1 1 1
P m − ≤ ξn < m + = Fξn m + − F ξn m − →
2 2 2 2
am −a
1 1 1 1
→ Fξ m + − Fξ m − =P m− ≤ξ <m+ = P {ξ = m} = e , n→∞
2 2 2 2 m!
75
Роздiл 7. Граничнi теореми теорiї ймовiрностей.
Приклад. Стрiлець робить 100 пострiлiв по мiшенi. Ймовiрнiсть влучення при одному по-
стрiлi становить 0.98. Знайти наближено ймовiрнiсть того, що вдалих пострiлiв буде не бiльше
97, та порiвняти з точним значенням.
Щоб звести задачу до використання теореми Пуассона, шукатимемо ймовiрнiсть, що промахiв
буде щонайменше 3 (ймовiрнiсть промаху — 0.02). ξ — кiлькiсть промахiв, P {ξ ≥ 3} = 1 −
20 21 22
P {ξ ≤ 2} = 1 − p100 (0) − p100 (1) − p100 (2) ≈ 1 − 0! + 1! + 2! e−2 = 1 − 5e−2 ≈ 0.32332.
2
k
0.02k 0.98100−k дасть значення 0.32331. Нескладно
P
Пiдрахунок за точною формулою 1− C100
k=0
перевiрити, що застосування локальної теореми Муавра-Лапласа дало б менш точну вiдповiдь
0.36049.
76
Частина II
Математична статистика
77
Роздiл 8
78
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
k=1 k=1
n n n
!
X xk
X X
ln LBin (~x, N, p) = ln CN + ln p · xk + ln (1 − p) · N ·n− xk
k=1 k=1 k=1
k=1
n
!
X
ln LGeom (~x, p) = n ln p + ln (1 − p) · xk − n
k=1
k=1
n
!
X
ln LExp (~x, λ, b) = n ln λ − λ xk − nb
k=1
79
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Тут x∗1 < x∗2 < ... < x∗r , частоти — кiлькiсть входжень вiдповiдної варiанти до реалiзацiї
r
P Pr
вибiрки, ni = n, ωi = 1. Частостi ще називають вiдносними частотами. Iнодi до ДВР
i=1 i=1
n1 n1 +n2
вносять накопиченi частостi ωiнак : ω1нак = n = ω1 , ω2нак = n i т.д., wrнак = 1.
Геометричною iнтерпретацiю ДВР є полiгон вiдносних частот з вершинами (x∗i , ωi ):
ω
1
ωr
...
ω2
ω3
ω1
... x
x∗1 x∗2 x∗3 x∗r
Якщо в конкретнiй реалiзацiї вибiрки унiкальних значень досить мало, то можна висунути
припущення, що ГС має дискретний розподiл. В такому випадку вигляд полiгону частостей
може допомогти висунути припущення про закон розподiлу. Перевiрку таких припущень буде
розглянуто пiзнiше.
Тут xmin та xmax — мiнiмальне та максимальне значення цiєї реалiзацiї вибiрки (R = xmax −
xmin називається розмахом вибiрки), а ti — деякi точки всерединi вiдрiзка [xmin ; xmax ]. Немає
унiверсальної рекомендацiї для вибору значень та кiлькостi ti . На практицi часто користу-
ються правилом Стерджеса: вiдрiзок [xmin ; xmax ] дiлиться на k = 1 + [3.322 lg n] iнтервалiв
рiвної довжини. Iнодi можна зустрiти формулу k = 1 + [log2 n], яка еквiвалентна попереднiй,
оскiльки log2 n = log2 10 · lg n ≈ 3.322 lg n.
Геометричною iнтерпретацiю IВР є гiстограма, що складається з прямокутникiв, що по-
будованi на ∆i та мають висоти hi = ωdii , де di — довжина ∆i :
80
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
...
xmin t1 t2 t3 tr xmax
Якщо в конкретнiй реалiзацiї вибiрки багато унiкальних значень, то можна висунути при-
пущення, що ГС має неперервний розподiл. В такому випадку вигляд гiстограми може до-
помогти висунути припущення про закон розподiлу. Нескладно помiтити, що сумарна площа
r+1
di · ωdii = 1, тому в деякому сенсi гiстограма є аналогом графiка
P
прямокутникiв у гiстограмi
i=1
щiльностi розподiлу. Зауважимо, що в разi невдало вибраної кiлькостi iнтервалiв (забагато
чи замало) гiстограма буде погано вiдображати характер отриманої реалiзацiї вибiрки.
Тут 1{ξk < x} — iндикатор подiї {ξk < x}, що дорiвнює 1 з ймовiрнiстю p = P {ξk < x} = Fξ (x)
та 0 з ймовiрнiстю 1 − p.
81
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Для спрощення опису в межах цього пункту називатимемо конкретну реалiзацiю вибiрки
просто вибiркою. Горизонтальна вiсь такої дiаграми вiдповiдає дiапазону значень вибiрки.
Межами прямокутника (через який цю дiаграму ще називають коробковою) є 1 та 3 квар-
тилi вибiрки, що позначаються Q1 та Q3 — це медiани першої та другої половини вiдсор-
тованої вибiрки (якi у випадку непарного обсягу роздiляються медiаною вибiрки). Рiзниця
IQR = Q3 − Q1 (довжина прямокутника) називається мiжквартильним розмахом. Вiдрiзок
82
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
83
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
n
1
P
1. Вибiркове середнє — незмiщена оцiнка математичного сподiвання: ξ = n ξk , Eξ =
k=1
n
1 1
P
n Eξk = n · n · Eξ = Eξ, оскiльки всi ξk однаково розподiленi.
k=1
2. Вибiркова дисперсiя — незмiщена оцiнка дисперсiї у випадку вiдомого математичного
n n
2 2
сподiвання Eξ: D∗ ξ = n1 (ξk − Eξ) , E (D∗ ξ) = n1
P P
E (ξk − Eξ) = Dξ знову через
k=1 k=1
однаковий розподiл ξk .
3. Дослiдимо вибiркову дисперсiю, але у випадку невiдомого математичного сподiвання.
n n
1X 2 1X 2
D∗ ξ = ξk − ξ = (ξk − Eξ) − (ξ − Eξ) =
n n
k=1 k=1
n n
1X 2 1X 2
= (ξk − Eξ) − 2 ξ − Eξ · (ξk − Eξ) + ξ − Eξ =
n n
k=1 k=1
| {z }
ξ−Eξ
n
1X 2 2
= (ξk − Eξ) − ξ − Eξ
n
k=1
Двi останнi рiвностi одержанi через незалежнiсть та однаковий розподiл ξk . Отже, ма-
ємо E (D∗ ξ) = 1 − n1 Dξ, тому ця оцiнка є лише асимптотично незмiщеною. Проте,
84
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
85
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
∂fξ~(~
x,θ) ∂ ln fξ~(~
x,θ) n
Оскiльки 1
= , ~ θ) =
а у випадку неперервної ГС L(ξ,
Q
fξ (ξk , θ) =
∂θ fξ~(~
x,θ) ∂θ
k=1
~
∂ ln L(ξ,θ)
~ θ), останню рiвнiсть можна записати у виглядi 1 = Eη1 η2 , де η1 = θ∗ (ξ)−θ,
fξ~(ξ, ~ η2 = .
∂θ
2
Оскiльки (Eη1 η2 ) ≤ Eη12 · Eη22 , маємо 1 ≤ Dθ∗ · I(θ), що i треба було довести. N
2
Наслiдок. В нерiвностi (Eη1 η2 ) ≤ Eη12 · Eη22 рiвнiсть досягається тодi i тiльки тодi, коли η1
та η2 лiнiйно залежнi. Оскiльки для ефективної оцiнки досягається рiвнiсть, то маємо такий
критерiй ефективностi незмiщеної оцiнки: незмiщена оцiнка θ∗ є оптимальною тодi й тiльки
тодi, коли
~ θ)
∂ ln L(ξ,
~ −θ
= C(n, θ) · θ∗ (ξ) (4)
∂θ
Тут C(n, θ) — деяке значення, що залежить лише вiд n та θ.
Зауваження. В умовi теореми необхiдно накладати деякi умови, виконання яких припуска-
лися при доведеннi: додатнiсть та диференцiйовнiсть функцiї правдоподiбностi на областi
визначення, iснування (скiнченнiсть) I(θ) та можливiсть диференцiювання вiдповiдного iн-
тегралу по параметру.
n
1
P
Приклад. Нехай ГС ξ ∼ Poiss(a). Eξ = a, тому ξ = n ξk — незмiщена оцiнка a. Перевiримо
k=1
її ефективнiсть.
n
X n
X
ln L(~x, a) = −na + ln a · xk − ln xk !
k=1 k=1
n
∂ ln L(~x, a) 1 X n n
= −n + · xk = −n + · x = · (x − a)
∂a a a a
k=1
~
∂ ln L(ξ,a)
Перейдемо до випадкової вибiрки: ∂a = C(n, a)·(a∗ −a). Отже, ця оцiнка є ефективною.
Розглянемо ще одну важливу теорему, що стосується ефективних оцiнок.
~ — ефективна
Теорема (єдинiсть ефективної незмiщеної точкової оцiнки). Якщо θ∗ = θ∗ (ξ)
незмiщена оцiнка, то вона єдина.
86
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Доведення. Нехай θ1∗ — iнша ефективна незмiщена оцiнка, Eθ∗ = Eθ1∗ = θ, Dθ∗ = Dθ1∗ = σ 2 .
θ ∗ +θ ∗
Розглянемо оцiнку θ2∗ = 2 1 , яка теж є незмiщеною. Dθ2∗ = 14 (Dθ∗ + Dθ1∗ + 2cov(θ∗ , θ1∗ )) =
∗ ∗ ∗ ∗
1
Dθ∗ · Dθ1∗ = σ 2 . Отже, Dθ2∗ ≤ σ 2 . Але за умовою дисперсiя
2
p
2 σ + cov(θ , θ1 ) . |cov(θ , θ1 )| ≤
ефективної оцiнки θ рiвна σ , тому Dθ2∗ = σ 2 . Це означає, що в cov(θ∗ , θ1∗ ) ≤ σ 2 досягається
2
рiвнiсть, тому θ∗ та θ1∗ є лiнiйно залежними, тобто θ1∗ = k · θ∗ + b. Тепер θ = Eθ1∗ = k · Eθ∗ + b =
k · θ + b, звiдки b = (1 − k)θ. θ1∗ = k · θ∗ + (1 − k)θ ⇔ θ1∗ − θ = k · (θ∗ − θ). Скориставшись
2
cov(θ∗ , θ1∗ ) = σ 2 , отримаємо σ 2 = E (θ∗ − θ) (θ1∗ − θ) = k · E (θ∗ − θ) = k · σ 2 , звiдки k = 1, тому
b = 0 i θ1∗ = θ∗ . N
Також вводитися поняття асимптотично ефективної оцiнки. Це означає, що Dθ∗ ·I(θ) → 1
при n → ∞. Оскiльки за нерiвнiстю Рао-Крамера для незмiщених оцiнок виконується Dθ∗ ·
I(θ) ≥ 1, то, якщо треба порiвняти декiлька незмiщених оцiнок, якi не є ефективними, кращою
обирається та, у якої добуток Dθ∗ · I(θ) менше.
87
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
− ns − sn2 (x − a)
!
∂ 2 ln L ∂ 2 ln L
∂a2 ∂a∂s n
= n n
∂ 2 ln L ∂ 2 ln L − s13 (xk − a)2
P
− s2 (x − a) 2s2
∂a∂s ∂s2 k=1
88
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Означення 8.4.1. (θ1∗ , θ2∗ ) називається довiрчим iнтервалом з рiвнем надiйностi γ. Бiльш
точно — маємо справу з послiдовнiстю таких iнтервалiв, що залежать вiд обсягу вибiрки.
Зауваження. Оскiльки межi iнтервалу є випадковими, то запис θ ∈ (θ1∗ , θ2∗ ) правильно читати
не як «θ потрапляє в iнтервал (θ1∗ , θ2∗ )», а як «iнтервал (θ1∗ , θ2∗ ) накриває θ».
Зручно шукати довiрчi iнтервали конкретного вигляду, наприклад, симетричнi вiдносно θ
з умови P {|θ − θ∗ | < ε} = γ, де ε — точнiсть довiрчого iнтервалу, або однобiчнi з умов P{θ >
θ∗ } = γ чи P{θ < θ∗ } = γ. У випадку симетричного довiрчого iнтервалу зазвичай одразу
обирається сама статистика θ∗ (наприклад, якась «хороша» точкова оцiнка). В такому разi
пошук ε — це пошук ширини довiрчого iнтервалу, що забезпечує заданий рiвень надiйностi.
Якщо розглядається конкретна реалiзацiя вибiрки, то можна обчислити межi знайденого
iнтервалу як значення вiдповiдних статистик.
89
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
90
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
91
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Цей результат має геометричну iнтерпретацiю. Розглянемо систему координат, по осi аб-
сцис якої вiдкладаємо частiсть p∗ , а по осi ординат — ймовiрнiсть p. Повернемося до нерiв-
ностi, яку вже розв’язали:
!
t2γ t2γ
1+ p2 − 2p∗ p + (p∗ )2 − p < 0
n n
0 p∗зн 1 p ∗
t2
Якщо обсяг вибiрки n доволi великий, то величиною nγ можна знехтувати. Тодi межi довiр-
чого iнтервалу набувають наближених значень
r
∗ p∗ (1 − p∗ )
p1,2 ≈ p ± tγ
n
Приклад. Деяка подiя в серiї з n = 100 незалежних випробувань вiдбулась m = 78 разiв.
Побудувати довiрчий iнтервал для ймовiрностi p появи цiєї подiї з надiйнiстю γ = 0.9.
За умовою p∗зн = 0.78, а вiдповiдне значення tγ з таблицi функцiї Лапласа дорiвнює 1.65.
Отже,
2
q
1.652
0.78 + 1.65
200 ± 1.65 0.78·0.22
100 + 4·100 2
p1,2 = 1.652
⇒ p1 ≈ 0.7047, p2 ≈ 0.8404
1 + 100
Якщо обчислити межi довiрчого iнтервалу за наближеними формулами для великих n, отри-
маємо
r
0.78 · 0.22
p1,2 ≈ 0.78 ± 1.65 ⇒ p1 ≈ 0.7116, p2 ≈ 0.8483
100
Кiлькiсть випробувань мала. В цьому випадку граничними теоремами скористатися не
вийде. Згадаємо формулу для ймовiрностi появи подiї A в схемi Бернуллi з n iспитами k
разiв: P {ξ = k} = Cnk pk (1 − p)n−k , де ξ ∼ Bin(n, p). Задамо рiвень надiйностi γ та знайдемо
такi p1 та p2 , що P {p1 < p < p2 } = γ. Приймемо без доведення, що p1 — розв’язок рiвняння
m−1 m
Cn p1 (1 − p1 )n−k = 1+γ Cnk pk2 (1 − p2 )n−k = 1−γ
P k k P
2 , а p2 — розв’язок рiвняння 2 . В цих
k=0 k=0
формулах m є конкретним числом (а не випадковою величиною), кiлькiстю випробувань,
в яких сталася подiя A. Iснують спецiальнi таблицi для знаходження значень p1 та p2 , що
задовольняють цим рiвнянням.
92
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.
Для рiзницi b−a з умов a∗ ≤ a+ε1 та b∗ ≥ b−ε2 маємо оцiнку b−a ≤ max ξk +ε2 − min ξk +ε1 .
1≤k≤n 1≤k≤n
Далi для зручностi позначатимемо max ξk = M , min ξk = m. Отримуємо систему:
1≤k≤n 1≤k≤n
n n
1 − 1 − ε1 ε1
b−a ≥1− 1− M −m+ε2 +ε1 =γ
n n
1 − 1 − ε2 ε2
b−a ≥1− 1− M −m+ε2 +ε1 =γ
Розв’яжемо її вiдносно ε1 та ε2 .
n
√
ε1
(
1− =1−γ ε1
1 − M −m+ε
n
= 1−γ
M −m+ε2 +ε1 +ε
n ⇔ ε2
2 1
√
n ⇔
1− ε2
=1−γ 1 − M −m+ε 2 +ε1
= 1−γ
M −m+ε2 +ε1
( √n
ε1 = (M − m + ε2 + ε1 ) 1 − 1 − γ
⇔ √n
ε2 = (M − m + ε2 + ε1 ) 1 − 1 − γ
93
Роздiл 9
94
Роздiл 9. Перевiрка статистичних гiпотез.
Цi помилки iстотно рiзнi за своєю суттю. Проiлюструємо вiдмiннiсть мiж названими по-
милками на прикладi перевiрки медичного препарату на дiєвiсть. В ролi ГС тут ξ — кiлькiсть
випадкiв, коли препарат не подiяв. Висунемо двi гiпотези: H0 — «препарат недiєвий» та H1
— «препарат дiєвий». Помилка першого роду тут полягає в тому, що препарат дiйсно не є
дiєвим, але ця гiпотеза вiдхиляється (i це є тим самим хибно позитивним висновком, що пре-
парат дiєвий), а помилка другого роду — в тому, що насправдi дiєвий препарат таким не
вважають (це хибно негативний висновок про те, що препарат недiєвий). Наслiдком помилки
першого роду є випуск у виробництво недiєвого (а може, й шкiдливого) препарату, а помилки
другого роду — «непомiчання» його дiєвостi та проведення наступних спроб вдосконалити
препарат. Отже, помилка першого роду —- це помилка, якої важливiше уникнути.
Слiд зазначити, що статистичний критерiй, за яким перевiряється певна гiпотеза, не вiдпо-
вiдає на питання, правильна гiпотеза чи нi. За критерiєм ми лише вирiшуємо, чи суперечать
вибiрковi данi висунутiй гiпотезi, чи нi. Висновок «данi суперечать гiпотезi» вважаються
бiльш вагомим, нiж «данi не суперечать гiпотезi».
95
Роздiл 9. Перевiрка статистичних гiпотез.
96
Роздiл 9. Перевiрка статистичних гiпотез.
Тепер можемо обчислити ηзн ≈ 1.904. За таблицею розподiлу χ2 знаходимо tкр для
4 − 2 − 1 = 1 степенi свободи, воно рiвне 3.84. Отже, ηзн < tкр , тому на рiвнi значущостi
0.05 данi не суперечать гiпотезi про розподiл ГС N(1.4, 4.48).
2. Серед 2020 дводiтних сiмей 527 мають двох хлопчикiв, 476 — двох дiвчаток, а у ре-
шти 1017 сiмей дiти рiзної статi. Чи можна на рiвнi значущостi 0.05 вважати кiлькiсть
хлопчикiв у сiм’ї, яка має двох дiтей, бiномiально розподiленою випадковою величиною?
Розглянемо випадкову величину ξ, яка для кожної дводiтної сiм’ї набуває значення
i = 0, 1, 2, якщо в сiм’ї i хлопчикiв, та висунемо гiпотезу H0 : ξ ∼ Bin(2, p). Параметр
p розподiлу невiдомий, але його точковою оцiнкою є p∗ = 12 ξ, p∗зн = 0·476+1·1017+2·527
2·2020 ≈
0.513. Вибiрковий простiр складається з трьох елементiв, X = {0, 1, 2}, тому роздiлимо
його на три множини:
Xi {0} {1} {2}
pi 0.2371 0.4997 0.2632
npi 478.942 1009.394 531.664
ni 476 1017 527
ni − npi −2.942 7.606 −4.664
2 2 2
Обчислимо ηзн = (−2.942) 7.606 (−4.664)
478.942 + 1009.394 + 531.664 ≈ 0.116. r = 3, s = 1, за таблицею
знаходимо tкр = 3.84. Отже, ηзн < tкр , тому на рiвнi значущостi 0.05 данi не суперечать
гiпотезi про розподiл ξ ∼ Bin(2, 0.513).
Окремим, бiльш простiшим, випадком застосування критерiю χ2 є його застосування до
схеми Бернуллi, тобто при перевiрцi гiпотези про ймовiрнiсть появи деякої подiї в послiдов-
ностi незалежних випробувань. Нехай у послiдовностi n незалежних випробувань подiя A
вiдбулася m разiв. Потрiбно на рiвнi значущостi α перевiрити гiпотезу, що P(A) = p. Данi
можна розглядати як вибiрку з n значень випадкової величини ξ, що є iндикатором подiї
2 2
A у випробуваннi. В цьому випадку статистика η запишеться як η = (m−np) np + (n−m−nq)
nq ,
де q = 1 − p, m — кiлькiсть появ подiї A у n випробуваннях. Можна дещо перетворити цю
статистику:
2
(m − np)2 (n(1 − q) − m)2 (m − np)2 1 1 (m − np)2
m − np
η= + = + = = √
np nq n p q npq npq
r r 2
X n ni 2 X (ni − npi )
η= − pi =
p
i=1 i
n i=1
npi
97
Роздiл 9. Перевiрка статистичних гiпотез.
n o∞
Перед доведенням цiєї теореми нагадаємо ЦГТ для випадкових векторiв: нехай ξ~n
n=1
— послiдовнiсть незалежних однаково розподiлених випадкових векторiв, що мають скiнченнi
математичне сподiвання ~a та кореляцiйну матрицю K. Тодi
n
! n
√ 1 X~ 1 X~
F
n ξk − ~a = √ ξk − ~a −→ ~η ∼ N ~0, K , n → ∞ (2)
n n
k=1 k=1
n
2 F 2
√1 ξ~k − ~a , ~η ∼ N ~0, K .
P
Наслiдком ЦГТ є k~ηn k −→ k~η k , n → ∞, де ~ηn = n
k=1
Також зауважимо, що у випадку r = 2 теорему вже фактично було доведено, коли роз-
глядалося застосування критерiю Пiрсона до схеми Бернуллi.
Доведення. З огляду на технiчну складнiсть, проведемо доведення лише для випадку простої
гiпотези. План доведення: покажемо, що статистика η є квадратом норми деякого вектора,
що за ЦГТ збiгається за розподiлом до r − 1-вимiрного стандартного гауссiвського вектора,
квадрат норми якого, в свою чергу, має розподiл χ2r−1 , звiдки отримаємо твердження теореми
за наслiдком ЦГТ.
Нехай H0 справджується, гiпотетичну область значень ξ розбиваємо на r > 2 пiдмножин,
r
Xi , pi = P {ξ ∈ Xi /H0 } , i = 1, ..., r. ξ~ = (ξ1 , ξ2 , ..., ξn )
S
що попарно не перетинаються: X =
i=1 (
1, ξj ∈ Xi
— випадкова вибiрка, введемо iндикатори IXi (ξj ) = . Оскiльки розподiл усiх ξj
0, ξj ∈ / Xi
такий самий, як у ξ, то E (IXi (ξj )) = pi , D (IXi (ξj )) = pi (1 − pi ) = pi qi .
Введемо r-вимiрнi вектори:
I (ξ )−p I (ξ )−p I (ξ )−p
X1 1 1 X1 2 1 X1 n 1
√ √ √
(ξp1 )−p
1
(ξp2 )−p
1 p1
−−→ IX2 √ −−→ IX2 √ −−→ IX2 (ξ n )−p2
2
2
(1) (2) (n) √
µ = p p p
2
, µ = 2
, ..., µ = 2
··· ··· ···
IXr (ξ1 )−pr IXr (ξ2 )−pr IXr (ξn )−pr
√ √ √
pr pr pr
−−→
Внаслiдок однакового розподiлу та незалежностi усiх ξj всi µ(j) теж мають однаковий роз-
−−→ −−→ −−→
подiл та незалежнi. Оскiльки E (IXi (ξj )) = pi , то Eµ(1) = Eµ(2) = ... = Eµ(n) = ~0. Знайдемо
−−→
кореляцiйну матрицю K вектора µ(1) :
IXi (ξ1 ) − pi IXj (ξ1 ) − pj
1
cov √ , √ =√ E (IXi (ξ1 ) − pi ) IXj (ξ1 ) − pj =
pi pj pi pj
(
1
1 D (IXi (ξ1 )) = 1 − pi , i = j
=√ E IXi (ξ1 )IXj (ξ1 ) − pi pj = pi√
pi pj − pi pj , i 6= j
Це означає, що матриця K вироджена i має ранг n−1: одночасно бiльше нiж одну координату
виразити через iншi неможливо, оскiльки X1 , X2 , ..., Xr попарно не перетинаються.
−−→
Отже, можна знайти таку ортогональну матрицю U , що вектор µd (1) = U µ(1) матиме нульо-
ву останню координату. З мiркувань про лiнiйну залежнiсть координат вихiдного вектора ба-
√ √ √
чимо, що такою матрицею може бути та, останнiй рядок якої дорiвнює p1 p2 · · · pr
98
Роздiл 9. Перевiрка статистичних гiпотез.
(його норма, очевидно, рiвна 1), а iншi складаються з ортонормованого базису ортогонально-
го доповнення до лiнiйної оболонки цього рядка. Покажемо, що якими б не булипершi r − 1
T (1) Ir−1 0
рядкiв матрицi U , кореляцiйна матриця K = U KU вектора µ матиме вигляд
b d .
0 0
U = (uij )i,j=1,...n , її ортогональнiсть означає, що для всiх m 6= r, l 6= m
r r r r
X X √ X X
umj urj = umj pj = 0, u2mj = 1, umj ulj = 0
j=1 j=1 j=1 j=1
−−→ n −
−→
Розглянемо r-вимiрний випадковий вектор η (n) = √1 µ(i) . Його перша координата дорiв-
P
n
i=1
нює
(n) 1 IX1 (ξ1 ) − p1 IX (ξ2 ) − p1 IX (ξn ) − p1 n1 − np1
η1 =√ √ + 1√ + ... + 1 √ = √
n p1 p1 p1 np1
Аналогiчно
(n) n2 − np2 (n) n3 − np3 nr − npr
η2 = √ , η3 = √ , ..., ηr(n) = √
np2 np3 npr
−−→
Оскiльки усi µ(i) незалежнi та однаково розподiленi, то усi µ (i) — теж, причому математичнi
d
−−→
(i) (i) ~ Ir−1 0
сподiвання Eµ = U Eµ = 0, а кореляцiйнi матрицi дорiвнюють K =
d b .
0 0
F
Отже, за ЦГТ для випадкових векторiв (2) ηd (n) −→ ~η ∼ N ~0, K
b , n → ∞, а за наслiдком з
2
(n)
F 2
неї
ηd
−→ k~η k ∼ χ2r−1 . Залишилося зауважити, що ортогональне перетворення зберiгає
−−→
2 r
(n)
2
(ni −npi )2
=
η (n)
= збiгається за розподiлом до χ2r−1 , що i треба
P
норму, тому
ηd
npi
i=1
було довести. N
Зауваження. Можна навести нестроге пояснення того, що у випадку складної гiпотези гра-
ничним розподiлом статистики η є χ2r−s−1 , а не χ2r−1 . Кiлькiсть ступенiв свободи у випадку
−−→
простої гiпотези дорiвнює r − 1 через те, що одну з координат кожного вектора µ(j) можна
було лiнiйно виразити через iншi, але двi чи бiльше координат одночасно так виразити вже
неможливо — це, власне, пояснює термiн «степенi свободи» в цьому випадку: значення однiєї
фiксованої координати цих векторiв «автоматично» визначається, коли вiдомi значення iнших
r −1. У випадку складної гiпотези, коли s невiдомих параметрiв розподiлу оцiнюються, додає-
ться ще s подiбних обмежень, що зменшує кiлькiсть ступенiв свободи у граничного розподiлу.
Дещо подiбне вiдбувалося при побудовi довiрчих iнтервалiв для дисперсiї гауссiвської ГС (ст.
90): там використання вибiркового середнього замiсть точного значення математичного спо-
дiвання теж зменшувало на 1 кiлькiсть ступенiв свободи у розподiлi вибiркової дисперсiї.
99
Роздiл 9. Перевiрка статистичних гiпотез.
100
Роздiл 9. Перевiрка статистичних гiпотез.
n
P
ηk незалежнi, тому 1{ηk < y} ∼ Bin(n, y). Подальшi перетворення цiєї випадкової вели-
k=1
чини мають невипадковий характер, тому, дiйсно, розподiл Dn не залежить вiд розподiлу ξ.
Таким чином, якщо H0 справджується, то значення Dn буде досить малим. Значення K(λ)
знаходять з вiдповiдної таблицi.
Алгоритм використання критерiю Колмогорова.
1. Висуваємо просту гiпотезу H0 про неперервний закон розподiлу ГС ξ.
2. За реалiзацiєю вибiрки будуємо емпiричну функцiю
√ розподiлу Fn∗ (x).
3. Знаходимо значення статистики Dn та λ = n · Dn . √
4. За заданим рiвнем значущостi α знаходимо таке λα , що P { n · Dn ≤ λα /H0 } = 1 −
K(λα ) = α.
5. Якщо λзн буде бiльшим за критичне значення λα , то на рiвнi значущостi α дослiднi данi
суперечать гiпотезi H0 . Iнакше вважають, що гiпотезу H0 можна прийняти.
Наведемо таблицю значень λα для деяких α:
α 0.1 0.05 0.025 0.01
λα 1.224 1.358 1.480 1.628
Приклад. Нехай реалiзацiю вибiрки подано у виглядi iнтервального варiацiйного ряду:
iнтервал [0, 1) [1, 2) [2, 3) [3, 4) [4, 5) [5, 6) [6, 7) [7, 8) [8, 9) [9, 10]
ni 35 16 15 17 17 19 11 16 30 24
101
Роздiл 9. Перевiрка статистичних гiпотез.
випадку. Тобто критична область повинна бути такою, щоб при заданому рiвнi значущостi
α потужнiсть критерiю 1 − β була максимальною. Назвемо найкращою критичною областю
(НКО) таку множину, що забезпечує максимальну потужнiсть критерiю. Побудова такої обла-
стi ґрунтується на лемi Неймана-Пiрсона.
Теорема (лема Неймана-Пiрсона). Серед усiх критерiїв заданого рiвня значущостi α, якi
перевiряють просту параметричну гiпотезу H0 : θ = θ0 проти простої альтернативної
гiпотези H1 : θ = θ1 критерiй вiдношення правдоподiбностi є найбiльш потужним,
тобто, найкраща критична область має вигляд
LH1 (~x)
WCα = ~x ∈ Rn : ≥ Cα (1)
LH0 (~x)
H1 L (~
x) H1 L (~
x)
Зауваження. Функцiя LH x) називається вiдношенням правдоподiбностi, а ln LH0 (~
(~ x) — лога-
0
рифмiчним вiдношенням правдоподiбностi.
Доведення. Як було зазначено на початку роздiлу, ймовiрнiсть
n помилкиo першого роду при
заданiй критичнiй множинi WCα можна знайти як α = P ξ~ ∈ WCα /H0 = WC LH0 (~x)d~x.
R
n o α
Якщо ~x ∈ WCα , то IWCα (~x) − IW (~x) = 1 i LH1 (~x) − Cα · LH0 (~x) ≥ 0 за побудовою. Якщо
~x ∈ W , то IWCα (~x) − IW (~x) = −1 i LH1 (~x) − Cα · LH0 (~x) ≤ 0 за побудовою. В iнших випадках
(~x належить обом множинам одночасно або не належить жоднiй) перший множник дорiвнює
0. Отже, f (~x) ≥ 0 для всiх ~x ∈ Rn .
Z Z
0≤ f (~x)d~x = IWCα (~x) − IW (~x) · (LH1 (~x) − Cα · LH0 (~x)) d~x =
Rn n
Z Z R Z Z
= LH1 (~x)d~x − LH1 (~x)d~x − Cα · LH0 (~x)d~x + Cα · LH0 (~x)d~x =
WC W WC W
n α o n o αn o n o
= P ξ ∈ WCα /H1 − P ξ ∈ W/H1 − Cα · P ξ~ ∈ WCα /H0 − P ξ~ ∈ W/H0
~ ~
n o n o n o n o
P ξ~ ∈ WCα /H0 − P ξ~ ∈ W/H0 ≥ 0, тому P ξ~ ∈ WCα /H1 − P ξ~ ∈ W/H1 ≥ 0. Це й
означає, що вибiр критичної множини WCα дає бiльшу потужнiсть критерiю, нiж W . N
Твердження леми Неймана-Пiрсона можна застосовувати для знаходження потужностi
критерiю та обсягу вибiрки, що забезпечує заданий рiвень значущостi та ймовiрнiсть помилки
другого роду. Знаючи Cα , можна знайти ймовiрнiсть помилки другого роду β як
LH1 (~x)
P ln < ln Cα H1 = β
LH0 (~x)
Для визначення мiнiмального обсягу вибiрки, при якому досягаються наперед заданi ймовiр-
ностi помилок першого α та другого роду β, треба розв’язати систему
n . o
P ln LH1 (~x) ≥ ln Cα H0 = α
n LH0 (~x) . o
P ln LH1 (~x) < ln Cα H1 = β
LH (~
x) 0
102
Роздiл 9. Перевiрка статистичних гiпотез.
n n
LH1 (~x) a1 − a0 X n(a21 − a20 ) n(a1 − a0 ) 1 X a0 + a1
ln = x − = · xk −
k
LH0 (~x) σ2 2σ 2 σ2 n 2
k=1 k=1
| {z }
x
L (~
x)
Розв’яжемо вiдносно x нерiвнiсть ln LH1
x) ≥ ln Cα :
H (~ 0
σ 2 ln Cα
n(a1 − a0 ) a0 + a1 a0 + a1
2
· x − ≥ ln Cα ⇔ x ≥ + = tкр
σ 2 n(a1 − a0 ) 2
Знайдене значення t буде межею критичної областi, яка в цьому випадку буде правосторон-
ньою. Якщо значення вибiркового середнього, обчисленого за конкретною реалiзацiєю, буде
бiльше за t, то гiпотезу H0 : a = a0 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi
на рiвнi значущостi α. В iншому випадку гiпотезу H0 приймаємо.
У випадку a1 < a0 при розв’язаннi нерiвностi вiдносно x змiниться її знак, тому критична
область буде лiвосторонньою.
Зауваження.
√
Якщо дисперсiя ГС є невiдомою, то треба користуватися статистикою η =
(ξ−a0) n
√ ∗∗
D ξ
, що має розподiл Stn−1 , якщо гiпотеза H0 справджується. В цьому випадку критична
область також буде правосторонньою при a1 > a0 , а при a1 < a0 — лiвосторонньою.
Продемонструємо застосування знайденої НКО на конкретнiй задачi.
Задача 1. Стверджується, що кульки, виробленi верстатом, мають середнiй дiаметр 10 мм.
Перевiрити цю гiпотезу на рiвнi значущостi α = 0.05, якщо пiсля перевiрки 16 кульок середнє
значення дiаметра дорiвнювало 10.3 мм. Вважати, що результати вимiрювання ξ нормально
розподiленi з σ = 1. Що змiниться, якщо дисперсiя є невiдомою, але (D∗∗ ξ)зн = 1?
З умови задачi висуваємо гiпотези H0 : Eξ = 10
та H√1 : Eξ
= a > 10, бо x > 10. Обчислимо
межу критичної областi з рiвностi 0.05 = 0.5 − Φ (t−10)
1
16
⇔ Φ (4(t − 10)) = 0.45. З таблицi
значень функцiї Лапласа 4(t−10) = 1.65 ⇔ t = 10.4125. Отже, x = 10.3 < t i на рiвнi значущо-
стi 0.05 основна гiпотеза приймається. Якщо дисперсiя є невiдомою, то межу критичної обла-
стi знайдемо з P {η > tкр } = α для η ∼ St15 , вона дорiвнює 1.753. ηзн = (10.3−10)·4
1 = 1.2 < tкр .
Отже, i в цьому випадку данi не суперечать основнiй гiпотезi на рiвнi значущостi 0.05.
103
Роздiл 9. Перевiрка статистичних гiпотез.
Отже, обсяг вибiрки n ≥ 95 забезпечить ймовiрнiсть помилки другого роду, рiвну 0.1.
L (~
x)
Розв’яжемо вiдносно (D∗ ξ)зн нерiвнiсть ln LH
H1
x) ≥ ln Cα :
(~ 0
n σ2 − σ2 σ0 ln Cα − n · ln σσ10
· (D∗ ξ)зн · 12 20 ≥ ln Cα − n · ln ⇔ (D∗ ξ)зн ≤ 2 2
2 σ1 · σ0 σ1 n σ1 −σ0
· 2 2 2 σ1 ·σ0
Зауважимо,
n ∗ щоo знак нерiвностi тут змiнюється, оскiльки σ12 < σ02 . Знайдемо t з рiвностi
∗
P nDσ02
ξ
≤ t/H0 = α, користуючись тим, що η = nD σ02
ξ
∼ χ2n , якщо H0 справджується. Зна-
йдене значення t буде межею критичної областi, яка в цьому випадку буде лiвосторонньою.
Якщо значення статистики η, обчисленої за конкретною реалiзацiєю, буде менше за t, то гiпо-
тезу H0 : Dξ = σ02 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi на рiвнi значущостi
α. В iншому випадку гiпотезу H0 приймаємо.
У випадку σ12 > σ02 при розв’язаннi нерiвностi вiдносно (D∗ ξ)зн її знак не змiниться, тому
критична область буде правосторонньою.
Зауваження. Якщо математичне сподiвання ГС є невiдомим, то треба користуватися ста-
∗∗
тистикою η = (n−1)D
σ2
ξ
, що має розподiл χ2n−1 , якщо гiпотеза H0 справджується. В цьому
0
випадку критична область також буде правосторонньою при σ12 > σ02 , а при σ12 < σ02 — лiво-
сторонньою.
Продемонструємо застосування знайденої НКО на конкретнiй задачi.
Задача 2. Точнiсть деякого верстата характеризується дисперсiєю довжини виготовлених
деталей: якщо вона бiльша за 400 мкм2 , то верстат треба переналаштувати. Пiсля перевiрки
n = 15 деталей виявилося, що (D∗∗ ξ)зн = 680 мкм2 . Чи потрiбно переналаштувати верстат?
З умови задачi висуваємо основну гiпотезу H0 : σ 2 = σ02 = 400 i альтернативну H1 :
σ = σ12 , де σ12 > 400. Оберемо рiвень значущостi α = 0.01. Оскiльки математичне сподiвання
2
∗∗
невiдоме, скористаємося статистикою η = (n−1)D σ02
ξ
, що має розподiл χ2n−1 , якщо гiпотеза
H0 справджується. Критична область буде правосторонньою, за таблицею знайдемо її межу
tкр = 29.14. Оскiльки ηзн = 14·680
400 = 23.8 < tкр , гiпотеза H0 приймається — верстат не треба
переналаштувати.
104
Роздiл 9. Перевiрка статистичних гiпотез.
Приклад 3. Побудувати найкращу критичну область для перевiрки простої гiпотези про
значення параметра a пуассонiвської ГС при великому обсягу вибiрки. Маємо основну гi-
потезу H0 : a = a0 та альтернативну H1 : a = a1 , нехай a1 > a0 . Логарифмiчна функцiя
правдоподiбностi має вигляд
n
X n
X
ln L(x1 , ..., xn , a) = −na + ln a · xk − ln xk !
k=1 k=1
L (~
x)
Розв’яжемо вiдносно x нерiвнiсть ln LH1
x) ≥ ln Cα :
H (~ 0
a1 ln Cα + n · (a1 − a0 )
−n · (a1 − a0 ) + n ln · x ≥ ln Cα ⇔ x ≥
a0 n ln aa10
Зауважимо, що знак нерiвностi тут не змiнюється, оскiльки a1 > a0 i тому ln aa01 > 0. Якщо
обсяг вибiрки великий, то ξ наближено має розподiл N a0 , an0 , якщо H0 справджується:
√
(t − a0 ) n
P ξ ≥ t/H0 = α ⇒ α ≈ 0.5 − Φ √
a0
Знайдене значення t буде межею критичної областi, яка в цьому випадку буде правосторон-
ньою. Якщо значення вибiркового середнього, обчисленого за конкретною реалiзацiєю, буде
бiльше за t, то гiпотезу H0 : a = a0 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi
на рiвнi значущостi α. В iншому випадку гiпотезу H0 приймаємо.
У випадку a1 < a0 при розв’язаннi нерiвностi вiдносно x змiниться її знак, тому критична
область буде лiвосторонньою.
Зрозумiло, що аналогiчнi мiркування можна застосовувати i для iнших розподiлiв ГС,
якщо у логарифмiчному вiдношеннi правдоподiбностi вдається видiлити вибiркове середнє
чи iншу статистику, для якої справджується ЦГТ.
Вправа. Побудувати за лемою Неймана-Пiрсона найкращу критичну область для параметра
p ГС ξ ∼ Bin(N, p), вважаючи N вiдомим, а обсяг вибiрки великим. Розглянути випадки,
коли альтернативне значення p1 бiльше та менше основного p0 .
105
Роздiл 9. Перевiрка статистичних гiпотез.
показано в прикладах, межа критичної областi вiд θ1 не залежить, тому логiчно припустити,
що знайдена критична область буде найкращою i для iнших значень θ1 — це i є твердженням
теореми.
Зауваження. На практицi iнодi користуються альтернативною гiпотезою у виглядi H1 : θ 6= θ0
— так звану двосторонню альтернативу. Оптимального критерiю в такому випадку не iснує,
а для пошуку лiвої та правої межi критичної областi за заданим рiвнем значущостi α беруть
рiвнi α1 = α2 = α2 .
Оскiльки tкр = −1.64 > ηзн , то на рiвнi значущостi 0.05 данi суперечать гiпотезi про рiв-
нiсть математичних сподiвань двох ГС: тобто, рiзницю мiж вибiрковими середнiми не можна
вважати випадковою.
Перевiрка гiпотези про рiвнiсть дисперсiй двох гауссiвських ГС при вiдомих або
невiдомих математичних сподiваннях
Дано двi реалiзацiї обсягами n1 та n2 вiдповiдно двох гауссiвських ГС ξ ∼ N Eξ, σ12 та
η ∼ N Eη, σ22 . Дисперсiї цих ГС невiдомi, а самi ГС — незалежнi. На рiвнi значущостi α треба
перевiрити просту основну гiпотезу H0 : Dξ = Dη проти однiєї з альтернативних: H1 : Dξ > Dη
або H2 : Dξ < Dη.
Припустимо, що математичнi сподiвання Eξ та Eη вiдомi. Розглянемо двi статистики:
n 1 D∗ ξ n2 D ∗ η
h1 = 2 ∼ χ2n1 , h2 = ∼ χ2n2
σ1 σ22
h1 /n1
Оскiльки ξ та η незалежнi, то h1 та h2 — також. Якщо H0 справджується, то γ = h2 /n2 =
D∗ ξ
D∗ η ∼ F(n1 , n2 ).
Якщо ж математичнi сподiвання Eξ та Eη невiдомi, то
(n1 − 1)D∗∗ ξ 2 (n2 − 1)D∗∗ η
h1 = ∼ χ n −1 , h 2 = ∼ χ2n2 −1
σ12 1
σ22
106
Роздiл 9. Перевiрка статистичних гiпотез.
∗∗
1 −1)
Якщо H0 справджується, то γ = hh12 /(n D ξ
/(n2 −1) = D∗∗ η ∼ F(n1 − 1, n2 − 1).
В обох випадках критична область є правосторонньою чи лiвосторонньою в залежностi вiд
альтернативної гiпотези, як i у попереднiх прикладах. Межа критичної областi береться з та-
блицi квантилiв розподiлу Фiшера-Снедекора. Нагадаємо, що за властивiстю цього розподiлу
1
γ ∼ F(n2 , n1 ) (або, вiдповiдно, F(n2 − 1, n1 − 1)).
Приклад. На двох токарних верстатах обробляються деталi. Вiдiбранi двi проби: з деталей,
що зробленi на першому верстатi, n1 = 15, на другому верстатi — n2 = 18. За обома вибiрками
обчисленi значення виправлених вибiркових дисперсiй розмiру деталей: (D∗∗ ξ)зн = 8.5 мм2
для першого верстата та (D∗∗ η)зн = 6.3 мм2 для другого. Розмiр деталi, що виготовляється
верстатами, має гауссiвський розподiл. На рiвнi значущостi 0.05 з’ясувати, чи можна вважати,
що верстати мають рiзну точнiсть.
Маємо нульову гiпотезу H0 : Dξ = Dη — дисперсiї розмiру деталi на рiзних верстатах є
рiвними. В якостi альтернативної гiпотези варто брати H1 : Dξ > Dη, бо значення виправленої
вибiркової дисперсiї для першого верстата бiльше. Статистика критерiю γ, якщо H0 справ-
(D∗∗ ξ)зн
джується, має розподiл F(n1 −1, n2 −1) = F(14, 17). Значення статистики γзн = (D ∗∗ η)
зн
≈ 1.37.
За таблицею квантилiв розподiлу Фiшера-Снедекора на рiвнi значущостi 0.05 при кiлькостi
ступенiв вiльностi n1 − 1 = 14 та n2 − 1 = 17 знаходимо tкр = 2.33. Згiдно з альтернатив-
ною гiпотезою, критична область знаходиться справа вiд tкр (тобто, є правосторонньою),тому
робимо висновок, що дослiднi данi на рiвнi значущостi 0.05 не суперечать основнiй гiпотезi,
оскiльки γзн < tкр . Це означає, що дослiднi данi не дозволяють вважати, що верстати мають
рiзну точнiсть.
ζ ξ−η
γ=p =q q ∼ Stn1 +n2 −2
h/(n1 + n2 − 2) n1 +n2 (n1 −1)D∗∗ ξ+(n2 −1)D∗∗ η
n1 n2 n1 +n2 −2
107
Роздiл 9. Перевiрка статистичних гiпотез.
Потрiбно перевiрити гiпотезу про рiвнiсть математичних сподiвань. Оскiльки дисперсiї не-
вiдомi, перевiрити також треба гiпотезу про їх рiвнiсть. Знайдемо значення вибiркових сере-
днiх та виправлених вибiркових дисперсiй, позначивши ξ ГС, що вiдповiдає старiй технологiї,
а η — новiй:
1
ξ зн
=x= (304 · 1 + 307 · 4 + 308 · 4) ≈ 307.11
9
1
(D∗∗ ξ)зн = (304 − 307.11)2 · 1 + (307 − 307.11)2 · 4 + (308 − 307.11)2 · 4 ≈ 1.611
9−1
(η)зн = y ≈ 304.5, (D∗∗ η)зн ≈ 1.364
ξ−η ξ−η
γ=q q =q q ∼ Stn1 +n2 −2 = St19
n1 +n2 (n1 −1)D∗∗ ξ+(n2 −1)D∗∗ η 9+12 (9−1)D∗∗ ξ+(12−1)D∗∗ η
n1 n2 n1 +n2 −2 9·12 9+12−2
γзн ≈ 4.885. За таблицею квантилiв розподiлу Стьюдента знайдемо tкр = 1.729, причому
критична область є правосторонньою. Отже, на рiвнi значущостi 0.05 гiпотеза про рiвнiсть
математичних сподiвань вiдхиляється, тому можна вважати, що нова технологiя дiйсно дає
економiю середньої кiлькостi сировини для виготовлення одного виробу.
Зауваження. Якщо дисперсiї двох ГС невiдомi i немає пiдстав вважати їх рiвними, має мiсце
проблема Беренса-Фiшера. В такому випадку також застосовується статистика, що має роз-
подiл Стьюдента, але з кiлькiстю ступенiв вiльностi (з округленням до найближчого цiлого)
108
Роздiл 9. Перевiрка статистичних гiпотез.
1 1
як pq n1 + n2 , тому в якостi статистики для перевiрки основної гiпотези беруть
p∗1 − p∗2 ∗ m1 + m2
γ=r , де p = n + n
1 2
p∗ (1 − p∗ ) n11 + 1
n2
Оскiльки вона має наближено розподiл N(0, 1), то критичне значення знаходять за таблицею
значень функцiї Лапласа як квантиль рiвня α для лiвосторонньої критичної областi та рiвня
1 − α для правосторонньої. Критична область береться правосторонньою чи лiвосторонньою
в залежностi вiд альтернативної гiпотези.
Приклад. 1. Порiвняти частку браку на рiвнi значущостi 0.1 для двох партiй виробiв:
номер партiї обсяг вибiрки к-сть бракованих частка бракованих
1 n1 = 200 m1 = 5 (p∗1 )зн = m 1
n1 = 40
1
109
Роздiл 10
Означення 10.1.1. Функцiя f (x) = E(η/ξ = x) (або f (~x) = E(η/ξ~ = ~x)) називається лiнiєю
~
регресiї η на ξ (або ξ).
Термiн «регресiя» вперше з’явився в роботi Френсiса Гальтона (англiйського антрополога
та статистика), який у 1885 роцi дослiджував зв’язок мiж зростом дiтей та їх батькiв. Ви-
явилося, що в середньому дiти високих батькiв не були такими вже й високими, i навпаки.
Вiн назвав це «регресiєю (поверненням) до посереднього». Зокрема, Гальтон побудував таку
лiнiю регресiї (для зросту в дюймах):
110
Роздiл 10. Елементи регресiйного аналiзу.
Спочатку треба визначити вигляд цiєї функцiї. Часто це випливає з постановки задачi або
з’ясовується пiсля вiзуалiзацiї отриманих даних. Якщо мова йде про лiнiйну регресiю, то вва-
Pm
жають, що f (x) = βk ψk (x), де ψk (x) — деякi функцiї, що називають базисними. Окремим
k=1
m
βk xk . Задача регресiйного
P
часто застосованим випадком є полiномiальна регресiя з f (x) =
k=0
аналiзу полягає в оцiнцi невiдомих параметрiв моделей наведеного виду.
Зауваження. Назва «лiнiйна регресiя» походить вiд того, що невiдомi параметри β1 , β2 , ..., βn
входять до f (x) лiнiйно. Iнодi (не зовсiм коректно) вважається, що лiнiйною називають тiльки
ту модель, яка також є лiнiйною за x.
n
! n n
d X X 1X
(ηi − β)2 = −2 (ηi − β) = 0 ⇒ β = ηi
dβ i=1 i=1
n i=1
n
!
2
d X
(ηi − β)2 = 2n > 0
dβ 2 i=1
n
Отже, β ∗ = 1
P
n ηi = η. Такий само результат було отримано i при розв’язаннi цiєї задачi як
i=1
задачi оцiнки математичного сподiвання.
Вправа. Показати, що якщо координати вектора похибок εi мають розподiл Лапласа, то ма-
n
P
ксимiзацiя такої функцiї правдоподiбностi буде еквiвалентна мiнiмiзацiї суми |ηi − β|, а
i=1
розв’язком цiєї задачi буде вибiркова медiана.
111
Роздiл 10. Елементи регресiйного аналiзу.
Ця матриця називається матрицею плану. Щоб знайти оцiнку β~ за допомогою МНК, зро-
бимо припущення: rangF = m та ~ε ∼ N(~0, σ 2 I). Перше припущення фактично означає, що
фактори є лiнiйно незалежними, а друге — що можна вимагати як незалежностi похибок, так
i їх некорельованостi. ОМНК для β~ буде розв’язком задачi мiнiмiзацiї
n
X
S(β) = ~ 2 → min
ε2i = k~εk2 = k~η − F βk
i=1
S(β) — це квадрат вiдстанi вiд точки ~η ∈ Rn (коректнiше було б писати ~ηзн , але це ускладнить
позначення) до точки F β,~ що належить пiдпростору L = {F ~x : ~x ∈ Rm }. Мiнiмальною ця
вiдстань буде тодi, коли вектор ~η − F β~ буде ортогональним до усiх векторiв з L.
~η
~η − F β~
L F β~
Отже, ∀ ~x ∈ Rm : F ~x, ~η − F β~ = 0. Оскiльки F ~x, ~η − F β~ = ~x, F T (~η − F β)
~ , то, з умови
довiльностi ~x можна взяти, наприклад, вектори стандартного базису Rm та отримати, що
~ = 0 ⇔ F T ~η = F T F β.
F T (~η − F β) ~ Умова rangF = m забезпечує iснування (F T F )−1 : нехай
~x ∈ R та F F ~x = 0, тодi ~x F F ~x = (F ~x)T F ~x = ~0, звiдки F ~x = ~0, а з умови rangF = m
m T ~ T T
маємо наслiдок ~x = ~0, тому KerF T F = {~0}. Таким чином, отримуємо ОМНК для β: ~
~ ∗ = (F T F )−1 F T ~η
β (2)
112
Роздiл 10. Елементи регресiйного аналiзу.
n n n n
x2k = n · x2 , то
P P P P
Якщо позначити xk = n · x, yk = n · y, xk yk = n · xy,
k=1 k=1 k=1 k=1
~∗ = 1 n2 · y · x2 − n2 · x · xy 1 x2 · y − x · xy
β зн =
n · (D∗ ξ)зн
2 −n2 y · x + n2 · xy x2 − (x)2 xy − x · y
113
Роздiл 10. Елементи регресiйного аналiзу.
~ ∗ ∼ N(β,
Отже, β ~ σ 2 A−1 ), де A = F T F . Це, зокрема, пояснює назву матрицi (F T F )−1 —
«дисперсiйна». Зауважимо, що значення σ 2 невiдоме. Пiзнiше буде дослiджено його оцiнку.
N
Твердження 2 (теорема Гаусса-Маркова). Незмiщена оцiнка β~ ∗ , що знайдена за формулою
(2), є ефективною в класi незмiщених лiнiйних оцiнок.
Доведення. Нехай iснує iнша незмiщена оцiнка β~ ∗∗ . Оскiльки розглядається клас лiнiйних
оцiнок, то β~ ∗∗ = C~η для деякої матрицi C. Розпишемо параметри розподiлу цiєї оцiнки.
Звiдси Kβ~ ∗∗ − Kβ~ ∗ = σ 2 DDT . Оскiльки ∀ ~x : DDT ~x, ~x = DT ~x, DT ~x = kDT ~xk2 ≥ 0, то
114
Роздiл 10. Елементи регресiйного аналiзу.
T
(1) (2) (n)
Позначимо ~xi = xi , xi , ..., xi — спостереження i-того фактору за n проведень експе-
рименту. Тодi можна сказати, що A — це матриця Грама для цих векторiв:
(~x1 , ~x1 ) (~x1 , ~x2 ) · · · (~x1 , ~xm )
(~x2 , ~x1 ) (~x2 , ~x2 ) · · · (~x2 , ~xm )
A=
.. .. .. ..
. . . .
(~xm , ~x1 ) (~xm , ~x2 ) · · · (~xm , ~xm )
Знову ж з лiнiйної алгебри вiдомо, що в такому випадку det A дорiвнює квадрату об’єму m-
вимiрного паралелепiпеда Πm , побудованого на векторах ~x1 , ..., ~xm . Аналогiчно, якщо викре-
слити j-тий стовпець та рядок, то визначник такої матрицi буде дорiвнювати квадрату об’єму
вже m − 1-вимiрного паралелепiпеда Πm\j , побудованого на векторах ~x1 , ..., ~xj−1 , ~xj+1 , ..., ~xm .
Позначимо ∆ = max λ1 λ2λ...λj
m
, а j — той iндекс з 1, ..., m, на якому цей максимум до-
j=1,...,m
сягається. З геометричних мiркувань det A = ∆ · k~xj k2 sin2 α, де α — кут мiж ~xj та Πm\j .
Покажемо це на прикладi, коли Πm\j побудований на ~x1 та ~x2 , а Πm — на них та ~x3 :
~x3
α ~x2
~x1
За вiдомими формулами, об’єм Πm в цьому випадку дорiвнює добутку площi основи на висоту
паралелепiпеда. Основа — це паралелепiпед Πm\j , а висота дорiвнює k~x3 k sin α.
Повернемося до trA−1 ≤ det m·∆
= m·∆
2 = k~xj k2msin2 α . Без втрати загальностi можна
A ∆·k~xj k2 sin α
(j)
вважати, що ∃ δ > 0 таке, що xi ≥ δ для всiх i та j. Якби такого δ не iснувало, можна було
б «зсунути» всi значення факторiв так, щоб воно iснувало. Це не надто вплине на модель,
оскiльки усi зсуви врахуються у вiльному коефiцiєнтi. З цього випливає, що дiагональнi еле-
менти A необмежено зростають, а отже — зростає їх сума, що дорiвнює сумi власних чисел.
Оскiльки власнi числа завжди додатнi, то зростає i їх добуток, тому det A → ∞, n → ∞. З
цього, зокрема, випливає, що sin α теж завжди залишається обмеженим знизу.
m
Отже, k~xj k2msin2 α → 0, n → ∞, а тому й Dβk∗ = trA−1 → 0, n → ∞. Це, нарештi, доводить
P
k=1
конзистентнiсть оцiнок β1∗ , ..., βm
∗
. N
115
Роздiл 10. Елементи регресiйного аналiзу.
√
Отже, σ1 A(β ~ ∗ − β)
~ ∼ N(~0, Im ). Повернемося до пошуку розподiлу (σ 2 )∗ . За побудовою вектор
~η − F β~ ∗ є ортогональним до векторiв виду F ~x, ~x ∈ Rm , а тому й буде ортогональним до
F (β~ ∗ − β).
~ Тодi за теоремою Пiфагора
2
2
2
2
2
~η − F β~ ∗
+
F (β~ ∗ − β)
~
=
~η − F β~ ∗ + F (β~ ∗ − β)
~
=
~η − F β~
= k~εk
~ ∗ ~
2
T
F (β − β)
= F (β ~ ∗ − β)
~ F (β~ ∗ − β)
~ = (β~ ∗ − β)
~ T F T F (β
~ ∗ − β)
~ =
√ √ √ T √
√
2
= (β~ ∗ − β)
~ T A · A(β~ ∗ − β)
~ = ~ ∗ − β)
A(β ~ A(β~ ∗ − β)
~ =
A(β~ ∗ − β)
~
=
h i
√
2
= β~ ∗ − β ~ = A−1 F T ~ε =
( A)−1 F T ~ε
√ √
√
2
Оскiльки 1
A(β~ ∗ − β)
~ ∼ N(~0, Im ), то й 1 ( A)−1 F T ~ε ∼ N(~0, Im ), тому
σ1 ( A)−1 F T ~ε
∼ χ2m .
σ σ
2 2 ∗
1
2
√ −1 T
2
Аналогiчно, σ1 ~ε ∼ N(~0, In ) та
σ1 ~ε
∼ χ2n . Отже, n(σ
σ 2
)
=
~ε
−
σ
1
σ ( A) F ~ε
∼ χ2n−m .
2 ∗
За властивостями розподiлу хi-квадрат, E n(σ σ2
)
= n − m, тому E(σ 2 )∗ = n−m 2
n σ i треба
вводити виправлену незмiщену оцiнку (σ 2 )∗∗ = n 2 ∗
n−m (σ ) . Таким чином, маємо незмiщену
оцiнку дисперсiї σ 2 :
1
2
(σ 2 )∗∗ = ~∗
~η − F β
(1)
n−m
√
Оскiльки координати σ1 A(β~ ∗ − β)
~ є стандартними гауссiвськими величинами, то за аналогiєю
з теоремою Фiшера (ст. 90), γi ∼ Stn−m , i = 1, ..., m.
116
Роздiл 10. Елементи регресiйного аналiзу.
У прикладi на ст. 111 було показано, що якщо не включати в регресiйну модель жодних факто-
рiв, окрiм константи, то оцiнкою цього єдиного коефiцiєнта буде η. Таким чином, F-критерiй
перевiряє, чи є побудована регресiйна модель кращою за найпростiшу — константну. Основ-
ною гiпотезою є те, що константа та побудована моделi не вiдрiзняються (в тому сенсi, що
дисперсiї їх похибок однаковi), а альтернативною — що побудована модель є кращою за кон-
стантну. За заданим рiвнем значущостi треба знайти межу критичної областi tкр . Критична
область є правосторонню: при ζзн > tкр основна гiпотеза вiдхиляється i модель вважається
адекватною: це означає, що її дисперсiя значно менше, нiж дисперсiя моделi-константи. Якщо
основна гiпотеза не вiдхиляється, то треба спробувати додати в модель iншi фактори.
Пiсля перевiрки на адекватнiсть корегувати побудовану модель можна за допомогою пе-
ревiрки гiпотези про значущiсть параметрiв. Якщо значення якоїсь з оцiнок βj∗ виявилася
близькою до нуля, це може означати, що вiдповiдний фактор не вносить внеску до моделi.
Висувається основна гiпотеза H0 : βj = 0 та альтернативна H1 : βj < 0 чи H2 : βj > 0 в
залежностi вiд знаку отриманої оцiнки βj∗ . Оскiльки β~ ∗ ∼ N(β,
~ σ 2 A−1 ), то β ∗ ∼ N(βj , σ 2 ajj ),
j
де ajj — елемент A−1 . Вiдповiдно, статистикою для перевiрки гiпотези є
βj∗
γ=p ∼ Stn−m (3)
(σ 2 )∗∗ · ajj
За заданим рiвнем значущостi треба знайти межу критичної областi, яка буле правосторон-
ньою чи лiвосторонньою в залежностi вiд альтернативної гiпотези. Якщо основна гiпотеза
H0 : βj = 0 приймається, то вiдповiдний фактор прибирається з моделi, але нову модель
потрiбно знову перевiряти на адекватнiсть.
Таким чином, перевiрка адекватностi моделi за F-критерiєм показує, чи не треба додати
бiльше факторiв, а перевiрка значущостi близьких до нуля параметрiв — чи не треба змен-
шити кiлькiсть факторiв.
~ ∗ − β)(
= ~x T E(β ~ β~ ∗ − β)
~ T ~x = ~x T Kβ~ ∗ ~x = σ 2 ~x T A−1 ~x
117
Роздiл 10. Елементи регресiйного аналiзу.
f ∗ (~
x)−f (~
x) n−m 2 ∗∗
Оже, маємо статистику √ ∼ N(0, 1). Оскiльки σ 2 (σ ) ∼ χ2n−m , то
σ ~ x T A−1 ~
x
f ∗ (~
x)−f (~
x)
√
σ ~ x T A−1 ~
x f ∗ (~x) − f (~x)
ζ=q =p ∼ Stn−m
1
· n−m 2 ∗∗ (σ 2 )∗∗ ~x T A−1 ~x
n−m σ 2 (σ )
Для побудови довiрчого iнтервалу для самого значення вiдклику скористаємося тим, що
E (η − f ∗ (~x)) = 0, а D (η − f ∗ (~x)) = Dη + Df ∗ (x) = σ 2 1 + ~x T A−1 ~x . Аналогiчними мiркуван-
нями отримаємо
η − f ∗ (~x)
p ∼ Stn−m
(σ 2 )∗∗ (1 + ~x T A−1 ~x)
тому довiрчий iнтервал для значення вiдклику матиме вигляд
q q
∗ 2 ∗∗ T −1 ∗ 2 ∗∗ T −1
η ∈ f (~x) − t (σ ) (1 + ~x A ~x), f (~x) + t (σ ) (1 + ~x A ~x) (5)
18
16
14
y 12
10
6
2 4 6 8 10 12 14
x
T
1
1 1 ···
Складемо матрицю плану F = . Iнформацiйна та дисперсiйна матрицi
2.7
14.7 4.6 ···
9 81.3 0.73298 −0.06884
дорiвнюють, вiдповiдно, A = F T F = , A−1 = . Вектор
81.3 865.63 −0.06884 0.00762
T
значень вiдкликiв ~ηзн = 17.0 16.2 · · · 5.7 , тому можемо знайти значення оцiнок пара-
метрiв моделi:
~ ∗ −1 T 20.30566
βзн = A F ~ηзн ≈
−1.05721
Отже, маємо модель y = f ∗ (x) = 20.30566 − 1.05721x, графiк якої зображено нижче.
118
Роздiл 10. Елементи регресiйного аналiзу.
18
16
14
y 12
10
6
2 4 6 8 10 12 14
x
119
Роздiл 10. Елементи регресiйного аналiзу.
буде близьким за модулем до 1, то, скорiш за все, вони є лiнiйно залежними, тому один iз них
не варто включати до моделi.
Iншим припущенням при побудовi лiнiйної регресiйної моделi є лiнiйна за параметрами
залежнiсть середнього значення вiдклику вiд значень факторiв. Якщо все ж таки нелiнiйнiсть
очевидна (наприклад, з погляду на дiаграму розсiювання), то треба застосовувати якесь пе-
ретворення змiнних. Наприклад, розглянемо двi дiаграми розсiювання:
0
1.5
−1.5
y 1 ln y
−3
0.5
−4.5
0
1 2 3 4 5 1 2 3 4 5
x x
120
Таблицi значень деяких функцiй
В таблицi наведено лише дробову частину усiх значень, оскiльки усi цiлi частини рiвнi 0:
наприклад, .48745 треба читати як 0.48745.
x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.00 .00000 .00399 .00798 .01197 .01595 .01994 .02392 .02790 .03188 .03586
0.10 .03983 .04380 .04776 .05172 .05567 .05962 .06356 .06749 .07142 .07535
0.20 .07926 .08317 .08706 .09095 .09483 .09871 .10257 .10642 .11026 .11409
0.30 .11791 .12172 .12552 .12930 .13307 .13683 .14058 .14431 .14803 .15173
0.40 .15542 .15910 .16276 .16640 .17003 .17364 .17724 .18082 .18439 .18793
0.50 .19146 .19497 .19847 .20194 .20540 .20884 .21226 .21566 .21904 .22240
0.60 .22575 .22907 .23237 .23565 .23891 .24215 .24537 .24857 .25175 .25490
0.70 .25804 .26115 .26424 .26730 .27035 .27337 .27637 .27935 .28230 .28524
0.80 .28814 .29103 .29389 .29673 .29955 .30234 .30511 .30785 .31057 .31327
0.90 .31594 .31859 .32121 .32381 .32639 .32894 .33147 .33398 .33646 .33891
1.00 .34134 .34375 .34614 .34849 .35083 .35314 .35543 .35769 .35993 .36214
1.10 .36433 .36650 .36864 .37076 .37286 .37493 .37698 .37900 .38100 .38298
1.20 .38493 .38686 .38877 .39065 .39251 .39435 .39617 .39796 .39973 .40147
1.30 .40320 .40490 .40658 .40824 .40988 .41149 .41309 .41466 .41621 .41774
1.40 .41924 .42073 .42220 .42364 .42507 .42647 .42785 .42922 .43056 .43189
1.50 .43319 .43448 .43574 .43699 .43822 .43943 .44062 .44179 .44295 .44408
1.60 .44520 .44630 .44738 .44845 .44950 .45053 .45154 .45254 .45352 .45449
1.70 .45543 .45637 .45728 .45818 .45907 .45994 .46080 .46164 .46246 .46327
1.80 .46407 .46485 .46562 .46638 .46712 .46784 .46856 .46926 .46995 .47062
1.90 .47128 .47193 .47257 .47320 .47381 .47441 .47500 .47558 .47615 .47670
2.00 .47725 .47778 .47831 .47882 .47932 .47982 .48030 .48077 .48124 .48169
2.10 .48214 .48257 .48300 .48341 .48382 .48422 .48461 .48500 .48537 .48574
2.20 .48610 .48645 .48679 .48713 .48745 .48778 .48809 .48840 .48870 .48899
2.30 .48928 .48956 .48983 .49010 .49036 .49061 .49086 .49111 .49134 .49158
2.40 .49180 .49202 .49224 .49245 .49266 .49286 .49305 .49324 .49343 .49361
2.50 .49379 .49396 .49413 .49430 .49446 .49461 .49477 .49492 .49506 .49520
2.60 .49534 .49547 .49560 .49573 .49585 .49598 .49609 .49621 .49632 .49643
2.70 .49653 .49664 .49674 .49683 .49693 .49702 .49711 .49720 .49728 .49736
2.80 .49744 .49752 .49760 .49767 .49774 .49781 .49788 .49795 .49801 .49807
2.90 .49813 .49819 .49825 .49831 .49836 .49841 .49846 .49851 .49856 .49861
121
Таблицi значень деяких функцiй
x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
3.00 .49865 .49869 .49874 .49878 .49882 .49886 .49889 .49893 .49896 .49900
3.10 .49903 .49906 .49910 .49913 .49916 .49918 .49921 .49924 .49926 .49929
3.20 .49931 .49934 .49936 .49938 .49940 .49942 .49944 .49946 .49948 .49950
3.30 .49952 .49953 .49955 .49957 .49958 .49960 .49961 .49962 .49964 .49965
3.40 .49966 .49968 .49969 .49970 .49971 .49972 .49973 .49974 .49975 .49976
3.50 .49977 .49978 .49978 .49979 .49980 .49981 .49981 .49982 .49983 .49983
3.60 .49984 .49985 .49985 .49986 .49986 .49987 .49987 .49988 .49988 .49989
3.70 .49989 .49990 .49990 .49990 .49991 .49991 .49992 .49992 .49992 .49992
3.80 .49993 .49993 .49993 .49994 .49994 .49994 .49994 .49995 .49995 .49995
3.90 .49995 .49995 .49996 .49996 .49996 .49996 .49996 .49996 .49997 .49997
4.00 .49997 .49997 .49997 .49997 .49997 .49997 .49998 .49998 .49998 .49998
4.10 .49998 .49998 .49998 .49998 .49998 .49998 .49998 .49998 .49999 .49999
4.20 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999
4.30 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999
4.40 .49999 .49999 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.50 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.60 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.70 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.80 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.90 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
122
Таблицi значень деяких функцiй
f (x)
площа дорiвнює α
0 χ2α,n x
α
0.990 0.975 0.950 0.900 0.100 0.050 0.025 0.010
n
1 0.00 0.00 0.00 0.02 2.71 3.84 5.02 6.63
2 0.02 0.05 0.10 0.21 4.61 5.99 7.38 9.21
3 0.11 0.22 0.35 0.58 6.25 7.81 9.35 11.34
4 0.30 0.48 0.71 1.06 7.78 9.49 11.14 13.28
5 0.55 0.83 1.15 1.61 9.24 11.07 12.83 15.09
6 0.87 1.24 1.64 2.20 10.64 12.59 14.45 16.81
7 1.24 1.69 2.17 2.83 12.02 14.07 16.01 18.48
8 1.65 2.18 2.73 3.49 13.36 15.51 17.53 20.09
9 2.09 2.70 3.33 4.17 14.68 16.92 19.02 21.67
10 2.56 3.25 3.94 4.87 15.99 18.31 20.48 23.21
11 3.05 3.82 4.57 5.58 17.28 19.68 21.92 24.72
12 3.57 4.40 5.23 6.30 18.55 21.03 23.34 26.22
13 4.11 5.01 5.89 7.04 19.81 22.36 24.74 27.69
14 4.66 5.63 6.57 7.79 21.06 23.68 26.12 29.14
15 5.23 6.26 7.26 8.55 22.31 25.00 27.49 30.58
16 5.81 6.91 7.96 9.31 23.54 26.30 28.85 32.00
17 6.41 7.56 8.67 10.09 24.77 27.59 30.19 33.41
18 7.01 8.23 9.39 10.86 25.99 28.87 31.53 34.81
19 7.63 8.91 10.12 11.65 27.20 30.14 32.85 36.19
20 8.26 9.59 10.85 12.44 28.41 31.41 34.17 37.57
21 8.90 10.28 11.59 13.24 29.62 32.67 35.48 38.93
22 9.54 10.98 12.34 14.04 30.81 33.92 36.78 40.29
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64
24 10.86 12.40 13.85 15.66 33.20 36.42 39.36 42.98
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31
26 12.20 13.84 15.38 17.29 35.56 38.89 41.92 45.64
27 12.88 14.57 16.15 18.11 36.74 40.11 43.19 46.96
28 13.56 15.31 16.93 18.94 37.92 41.34 44.46 48.28
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89
40 22.16 24.43 26.51 29.05 51.81 55.76 59.34 63.69
50 29.71 32.36 34.76 37.69 63.17 67.50 71.42 76.15
60 37.48 40.48 43.19 46.46 74.40 79.08 83.30 88.38
70 45.44 48.76 51.74 55.33 85.53 90.53 95.02 100.43
80 53.54 57.15 60.39 64.28 96.58 101.88 106.63 112.33
90 61.75 65.65 69.13 73.29 107.57 113.15 118.14 124.12
100 70.06 74.22 77.93 82.36 118.50 124.34 129.56 135.81
123
Таблицi значень деяких функцiй
f (x)
площа дорiвнює α
0 tα,n x
α α
0.050 0.025 0.010 0.005 0.050 0.025 0.010 0.005
n n
1 6.314 12.706 31.821 63.657 21 1.721 2.080 2.518 2.831
2 2.920 4.303 6.965 9.925 22 1.717 2.074 2.508 2.819
3 2.353 3.182 4.541 5.841 23 1.714 2.069 2.500 2.807
4 2.132 2.776 3.747 4.604 24 1.711 2.064 2.492 2.797
5 2.015 2.571 3.365 4.032 25 1.708 2.060 2.485 2.787
6 1.943 2.447 3.143 3.707 26 1.706 2.056 2.479 2.779
7 1.895 2.365 2.998 3.499 27 1.703 2.052 2.473 2.771
8 1.860 2.306 2.896 3.355 28 1.701 2.048 2.467 2.763
9 1.833 2.262 2.821 3.250 29 1.699 2.045 2.462 2.756
10 1.812 2.228 2.764 3.169 30 1.697 2.042 2.457 2.750
11 1.796 2.201 2.718 3.106 40 1.684 2.021 2.423 2.704
12 1.782 2.179 2.681 3.055 50 1.676 2.009 2.403 2.678
13 1.771 2.160 2.650 3.012 60 1.671 2.000 2.390 2.660
14 1.761 2.145 2.624 2.977 70 1.667 1.994 2.381 2.648
15 1.753 2.131 2.602 2.947 70 1.667 1.994 2.381 2.648
16 1.746 2.120 2.583 2.921 90 1.662 1.987 2.368 2.632
17 1.740 2.110 2.567 2.898 100 1.660 1.984 2.364 2.626
18 1.734 2.101 2.552 2.878 120 1.658 1.980 2.358 2.617
19 1.729 2.093 2.539 2.861 150 1.655 1.976 2.351 2.609
20 1.725 2.086 2.528 2.845 ∞ 1.645 1.960 2.326 2.576
124
Таблицi значень деяких функцiй
площа дорiвнює α
0 Fα,n1 ,n2 x
125
Таблицi значень деяких функцiй
n1
12 14 16 18 20 30 40 50 60 100
n2
3 8.74 8.71 8.69 8.67 8.66 8.62 8.59 8.58 8.57 8.55
4 5.91 5.87 5.84 5.82 5.80 5.75 5.72 5.70 5.69 5.66
5 4.68 4.64 4.60 4.58 4.56 4.50 4.46 4.44 4.43 4.41
6 4.00 3.96 3.92 3.90 3.87 3.81 3.77 3.75 3.74 3.71
7 3.57 3.53 3.49 3.47 3.44 3.38 3.34 3.32 3.30 3.27
8 3.28 3.24 3.20 3.17 3.15 3.08 3.04 3.02 3.01 2.97
9 3.07 3.03 2.99 2.96 2.94 2.86 2.83 2.80 2.79 2.76
10 2.91 2.86 2.83 2.80 2.77 2.70 2.66 2.64 2.62 2.59
11 2.79 2.74 2.70 2.67 2.65 2.57 2.53 2.51 2.49 2.46
12 2.69 2.64 2.60 2.57 2.54 2.47 2.43 2.40 2.38 2.35
13 2.60 2.55 2.51 2.48 2.46 2.38 2.34 2.31 2.30 2.26
14 2.53 2.48 2.44 2.41 2.39 2.31 2.27 2.24 2.22 2.19
15 2.48 2.42 2.38 2.35 2.33 2.25 2.20 2.18 2.16 2.12
16 2.42 2.37 2.33 2.30 2.28 2.19 2.15 2.12 2.11 2.07
17 2.38 2.33 2.29 2.26 2.23 2.15 2.10 2.08 2.06 2.02
18 2.34 2.29 2.25 2.22 2.19 2.11 2.06 2.04 2.02 1.98
19 2.31 2.26 2.21 2.18 2.16 2.07 2.03 2.00 1.98 1.94
20 2.28 2.22 2.18 2.15 2.12 2.04 1.99 1.97 1.95 1.91
22 2.23 2.17 2.13 2.10 2.07 1.98 1.94 1.91 1.89 1.85
24 2.18 2.13 2.09 2.05 2.03 1.94 1.89 1.86 1.84 1.80
26 2.15 2.09 2.05 2.02 1.99 1.90 1.85 1.82 1.80 1.76
28 2.12 2.06 2.02 1.99 1.96 1.87 1.82 1.79 1.77 1.73
30 2.09 2.04 1.99 1.96 1.93 1.84 1.79 1.76 1.74 1.70
40 2.00 1.95 1.90 1.87 1.84 1.74 1.69 1.66 1.64 1.59
50 1.95 1.89 1.85 1.81 1.78 1.69 1.63 1.60 1.58 1.52
60 1.92 1.86 1.82 1.78 1.75 1.65 1.59 1.56 1.53 1.48
100 1.85 1.79 1.75 1.71 1.68 1.57 1.52 1.48 1.45 1.39
126
Творцi цього конспекту Олексiй Галганов та Нiкiта Фор-
дуй вдячнi Iринi Юрiївнi за викладання, а студентами
КА-91 та КА-92 — за знайденi помилки.