Main 05 05

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 127

Конспект лекцiй

з теорiї ймовiрностей
та математичної
статистики
Канiовська I.Ю.
Змiст

I Теорiя ймовiрностей 6
1 Випадковi подiї 7
1.1 Основнi поняття теорiї ймовiрностей . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Теоретико-множинний пiдхiд до основних понять ТЙ . . . . . . . . . . . 7
1.1.2 Класична модель ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Геометрична модель ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Система аксiом Колмогорова . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Аксiоми теорiї ймовiрностей . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Властивостi ймовiрностi, що випливають з аксiом . . . . . . . . . . . . . 11
1.2.3 Теореми неперервностi ймовiрностi . . . . . . . . . . . . . . . . . . . . . . 12
1.2.4 Аксiома неперервностi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Умовнi ймовiрностi. Незалежнiсть подiй. Формула Баєса. . . . . . . . . . . . . . 13
1.3.1 Умовнi ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Незалежнiсть подiй . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Формула повної ймовiрностi . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4 Формула Баєса . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Полiномiальна модель ймовiрностi. Схема Бернуллi. . . . . . . . . . . . . . . . . 15
1.4.1 Полiномiальна схема . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Схема Бернуллi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.3 Найбiльш iмовiрна кiлькiсть успiхiв в схемi Бернуллi . . . . . . . . . . . 16
1.4.4 Асимптотичнi наближення формули Бернуллi . . . . . . . . . . . . . . . 17

2 Випадковi величини 18
2.1 Поняття випадкової величини та її задання . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 Функцiя розподiлу . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Дискретнi випадковi величини . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Неперервнi випадковi величини . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Числовi характеристики випадкових величин . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Математичне сподiвання . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Дисперсiя . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Моменти випадкової величини . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.4 Мода та медiана випадкової величини . . . . . . . . . . . . . . . . . . . . 23
2.2.5 Асиметрiя та ексцес випадкової величини . . . . . . . . . . . . . . . . . . 23
2.2.6 Генератриса (твiрна функцiя) ДВВ . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Деякi закони розподiлу випадкових величин . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Бiномiальний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Геометричний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.3 Розподiл Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.4 Потiк Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.5 Рiвномiрний розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.6 Експоненцiйний (показниковий) розподiл . . . . . . . . . . . . . . . . . . 28
2.3.7 Гауссiвський (нормальний) розподiл . . . . . . . . . . . . . . . . . . . . . 29
2.3.8 Гамма-розподiл . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2
ЗМIСТ

3 Випадковi вектори 32
3.1 Дискретнi випадковi вектори . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.1.1 Сумiсна функцiя розподiлу двовимiрного випадкового вектора . . . . . 32
3.1.2 Побудова функцiї розподiлу дискретного випадкового вектора . . . . . . 33
3.1.3 Сумiсна функцiя розподiлу n-вимiрного вектора . . . . . . . . . . . . . . 34
3.2 Неперервнi випадковi вектори . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Щiльнiсть розподiлу двовимiрного неперервного випадкового вектора . 34
3.2.2 Рiвномiрний закон розподiлу на площинi . . . . . . . . . . . . . . . . . . 35
3.2.3 Щiльнiсть розподiлу n-вимiрного неперервного випадкового вектора . . 36
3.3 Числовi характеристики випадкових векторiв . . . . . . . . . . . . . . . . . . . . 37
3.3.1 Математичне сподiвання випадкових векторiв . . . . . . . . . . . . . . . 37
3.3.2 Мiшанi початковi та центральнi моменти випадкових векторiв . . . . . . 37
3.3.3 Коварiацiя як скалярний добуток випадкових величин . . . . . . . . . . 38
3.3.4 Коефiцiєнт кореляцiї . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Умовнi закони розподiлу ВВ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4.1 Умовний закон розподiлу дискретного випадкового вектора . . . . . . . 40
3.4.2 Умовне математичне сподiвання дискретного випадкового вектора . . . 40
3.4.3 Умовнi закони розподiлу неперервних випадкових величин . . . . . . . . 40
3.4.4 Умовне математичне сподiвання неперервного випадкового вектора . . 41
3.4.5 Формули повного математичного сподiвання та дисперсiї . . . . . . . . . 41
3.4.6 Випадок незалежних координат випадкового вектора . . . . . . . . . . . 42

4 Характеристичнi функцiї. Гауссiвськi випадковi вектори 43


4.1 Характеристичнi функцiї випадкових величин . . . . . . . . . . . . . . . . . . . 43
4.1.1 Поняття характеристичної функцiї . . . . . . . . . . . . . . . . . . . . . . 43
4.1.2 Властивостi характеристичної функцiї . . . . . . . . . . . . . . . . . . . . 43
4.1.3 Необхiднi умови того, що функцiя є характеристичною . . . . . . . . . . 44
4.1.4 Характеристичнi функцiї деяких розподiлiв . . . . . . . . . . . . . . . . . 45
4.2 Характеристичнi функцiї випадкових векторiв . . . . . . . . . . . . . . . . . . . 46
4.2.1 Поняття характеристичної функцiї випадкового вектору . . . . . . . . . 46
4.2.2 Властивостi характеристичних функцiй векторiв . . . . . . . . . . . . . . 46
4.3 Багатовимiрний нормальний розподiл . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.1 Виведення характеристичної функцiї та щiльностi . . . . . . . . . . . . . 47
4.3.2 Властивостi гауссiвських векторiв . . . . . . . . . . . . . . . . . . . . . . 48
4.3.3 Виродженi гауссiвськi вектори . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.4 Нормальний розподiл на площинi . . . . . . . . . . . . . . . . . . . . . . . 50
4.3.5 Колове розсiювання . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.6 Умовний гауссiвський розподiл на площинi . . . . . . . . . . . . . . . . . 52

5 Функцiї випадкових аргументiв 53


5.1 Функцiї одного випадкового аргументу . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.1 Функцiї вiд дискретного випадкового аргументу . . . . . . . . . . . . . . 53
5.1.2 Розподiл монотонної функцiї вiд неперервного випадкового аргументу . 53
5.1.3 Розподiл немонотонної функцiї вiд неперервного випадкового аргументу 54
5.1.4 Числовi характеристики функцiї неперервного випадкового аргументу . 55
5.2 Функцiї кiлькох випадкових аргументiв . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.1 Випадок довiльної функцiї . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.2 Закон розподiлу мiнiмуму та максимуму . . . . . . . . . . . . . . . . . . 56
5.2.3 Закон розподiлу добутку двох НВВ . . . . . . . . . . . . . . . . . . . . . 56
5.2.4 Закон розподiлу частки двох НВВ . . . . . . . . . . . . . . . . . . . . . . 57
5.2.5 Закон розподiлу суми двох НВВ . . . . . . . . . . . . . . . . . . . . . . . 58
5.2.6 Числовi характеристики функцiї багатьох випадкових аргументiв . . . . 59
5.3 Деякi нерiвностi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3.1 Нерiвнiсть Єнсена . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3.2 Нерiвнiсть Гельдера . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3.3 Нерiвнiсть Мiнковського . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3
ЗМIСТ

6 Основнi розподiли математичної статистики 61


6.1 Розподiл χ2 (Пiрсона) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2 Розподiл χ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.3 Розподiл Стьюдента (t-розподiл) . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.4 Розподiл Фiшера-Снедекора (F -розподiл) . . . . . . . . . . . . . . . . . . . . . . 63

7 Граничнi теореми теорiї ймовiрностей 64


7.1 Послiдовностi випадкових величин . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.1.1 Нерiвностi Маркова та Чебишова . . . . . . . . . . . . . . . . . . . . . . . 64
7.1.2 Послiдовностi випадкових величин . . . . . . . . . . . . . . . . . . . . . . 64
7.1.3 Види збiжностi послiдовностi випадкових величин . . . . . . . . . . . . . 65
7.2 Закон великих чисел . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.2.1 Теорема Чебишова (ЗВЧ у формi Чебишова). . . . . . . . . . . . . . . . 68
7.2.2 Посилений закон великих чисел . . . . . . . . . . . . . . . . . . . . . . . . 69
7.2.3 Закон великих чисел у схемi Бернуллi . . . . . . . . . . . . . . . . . . . . 69
7.2.4 Методи Монте-Карло . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.3 Центральна гранична теорема . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.3.1 Теорема Ляпунова . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.3.2 Умова Лiндеберга . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.4 Застосування ЦГТ до схеми Бернуллi . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4.1 Iнтегральна теорема Муавра-Лапласа . . . . . . . . . . . . . . . . . . . . 74
7.4.2 Локальна теорема Муавра-Лапласа . . . . . . . . . . . . . . . . . . . . . . 74
7.4.3 Гранична теорема Пуассона . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.5 Збiжнiсть та граничнi теореми для послiдовностей випадкових векторiв . . . . 76
7.5.1 Збiжнiсть випадкових векторiв . . . . . . . . . . . . . . . . . . . . . . . . 76
7.5.2 Граничнi теореми . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

II Математична статистика 77
8 Вибiрка, точкове та iнтервальне оцiнювання 78
8.1 Вибiрка та її первинний аналiз . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.1 Поняття вибiрки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.2 Розподiл випадкової вибiрки . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.1.3 Дискретний варiацiйний ряд . . . . . . . . . . . . . . . . . . . . . . . . . . 80
8.1.4 Iнтервальний варiацiйний ряд . . . . . . . . . . . . . . . . . . . . . . . . . 80
8.1.5 Емпiрична функцiя розподiлу . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.1.6 Вибiрковi характеристики ГС . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.1.7 Дiаграми розмаху . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.2 Точковi оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2.1 Незмiщенiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2.2 Конзистентнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.2.3 Ефективнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2.4 Асимптотична нормальнiсть оцiнки . . . . . . . . . . . . . . . . . . . . . 87
8.3 Методи отримання точкових оцiнок . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.3.1 Метод моментiв . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.3.2 Метод максимальної правдоподiбностi . . . . . . . . . . . . . . . . . . . . 88
8.4 Iнтервальне оцiнювання . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.4.1 Побудова довiрчих iнтервалiв для гаусciвської ГС . . . . . . . . . . . . . 89
8.4.2 Наближенi довiрчi iнтервали . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.4.3 Довiрчий iнтервал для ймовiрностi появи подiї . . . . . . . . . . . . . . . 91
8.4.4 Довiрчi iнтервали для параметрiв рiвномiрної ГС . . . . . . . . . . . . . 92

9 Перевiрка статистичних гiпотез 94


9.1 Поняття статистичних гiпотез та їх перевiрки . . . . . . . . . . . . . . . . . . . 94
9.1.1 Статистичнi гiпотези. Помилки першого та другого роду . . . . . . . . . 94
9.1.2 Методика перевiрки статистичних гiпотез . . . . . . . . . . . . . . . . . . 95
9.2 Критерiй Пiрсона (χ2 ) та критерiй Колмогорова . . . . . . . . . . . . . . . . . . 95
9.2.1 Критерiй Пiрсона та алгоритм його використання . . . . . . . . . . . . . 96

4
ЗМIСТ

9.2.2 Доведення теореми Пiрсона . . . . . . . . . . . . . . . . . . . . . . . . . . 97


9.2.3 Критерiй незалежностi χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.2.4 Критерiй згоди Колмогорова . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.3 Перевiрка параметричних гiпотез . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.3.1 Простi гiпотези. Критерiй Неймана-Пiрсона . . . . . . . . . . . . . . . . . 101
9.3.2 Приклади побудови найкращої критичної областi . . . . . . . . . . . . . 103
9.3.3 Перевiрка складних параметричних гiпотез . . . . . . . . . . . . . . . . . 105
9.3.4 Перевiрка гiпотез про рiвнiсть параметрiв двох ГС . . . . . . . . . . . . 106

10 Елементи регресiйного аналiзу 110


10.1 Математична модель лiнiйної регресiї . . . . . . . . . . . . . . . . . . . . . . . . 110
10.1.1 Однофакторна лiнiйна регресiя . . . . . . . . . . . . . . . . . . . . . . . . 110
10.1.2 Метод найменших квадратiв . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.1.3 Багатофакторна (множинна) лiнiйна регресiя . . . . . . . . . . . . . . . 112
10.2 Статистичний аналiз лiнiйної регресiйної моделi . . . . . . . . . . . . . . . . . . 114
10.2.1 Властивостi оцiнок параметрiв . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2.2 Оцiнка дисперсiї похибок спостережень . . . . . . . . . . . . . . . . . . . 116
10.2.3 Перевiрка адекватностi моделi . . . . . . . . . . . . . . . . . . . . . . . . 117
10.2.4 Аналiз точностi прогнозiв моделi . . . . . . . . . . . . . . . . . . . . . . . 117
10.2.5 Приклад побудови та аналiзу моделi . . . . . . . . . . . . . . . . . . . . . 118
10.2.6 Деякi труднощi застосування лiнiйної регресiйної моделi . . . . . . . . . 119

Таблицi значень деяких функцiй 121


Функцiя Лапласа . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Деякi квантилi розподiлу χ2n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Деякi квантилi розподiлу Stn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Квантилi рiвня 0.95 розподiлу F(n1 , n2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . 125

5
Частина I

Теорiя ймовiрностей

6
Роздiл 1

Випадковi подiї

1.1 Основнi поняття теорiї ймовiрностей


1.1.1 Теоретико-множинний пiдхiд до основних понять ТЙ
Означення 1.1.1. Стохастичним експериментом (випробуванням) називається експери-
мент, який можна повторювати неодноразово, зберiгаючи певнi умови, i результат якого екс-
перименту заздалегiдь передбачити неможливо.
Означення 1.1.2. Будь-який результат СЕ називається подiєю.
Приклад. 1. СЕ — кидання кубика один раз, подiя — випало 6 очок.
2. СЕ — кидання кубика двiчi, подiя — сума очок, що випала, дорiвнює 6.

Подiї бувають:
1. Випадковi — можуть вiдбутися чи не вiдбутися при проведеннi СЕ.
2. Неможливi — нiколи не вiдбуваються в даному СЕ.
3. Вiрогiднi — завжди вiдбуваються в даному СЕ.
Будемо вважати, що кожному СЕ можна поставити у вiдповiднiсть деяку множину, що на-
зивається простором елементарних подiй Ω. Пiд елементарними подiями ω будемо розумiти
єдинi логiчно можливi подiї СЕ, що виключають одна одну.
Приклад. 1. СЕ — кидання кубика один раз. Ω = {ω1 , ω2 , ..., ω6 }, де подiї
ωk = {випало k очок} , k = 1, ..., 6.
2. СЕ — кидання монетки до першої появи герба. Ω = {ω1 , ω2 , ..., ωk , ...},
де ωi = {герб випав на i-тому киданнi} , i ∈ N.
3. СЕ — зустрiч двох осiб, що домовилися зустрiтися протягом години. x — час приходу
першої особи, y — час приходу другої, 0 ≤ x, y ≤ 1. Ω = {(x, y) : 0 ≤ x, y ≤ 1} ⊂ R2 .
В подальшому випадковi подiї позначатимемо A, B, C, .... Випадкова подiя — пiдмножина
Ω. У прикладi з киданням кубика один раз A = {випало 6 очок} = {ω6 }. В загальному
випадку маємо A = {ωk1 , ωk2 , ..., ωkn , ...} ⊂ Ω. Неможлива подiя — ∅, вiрогiдна — Ω.
Зауваження. Розглядаємо подiї в межах фiксованих СЕ та простору елементарних подiй.
1. Включення A ⊂ B означає, що якщо вiдбулася подiя A, то обов’язково вiдбудеться
подiя B. Наприклад, A = {витягнуто даму пiк} , B = {витягнуто карту чорної мастi}.
Очевидно, A ⊂ B.
Рiвнiсть подiй: (A ⊂ B, B ⊂ A) ⇐⇒ (A = B).
2. Об’єднання подiй A ∪ B — це подiя, яка вiдбувається тодi, коли вiдбувається принаймнi
одна з подiй A чи B.
Властивостi: A ∪ A = A, A ∪ B = B ∪ A, (A ⊂ B) ⇒ (A ∪ B = B), A ∪ Ω = Ω, A ∪ ∅ = A,
(A ∪ B) ∪ C = A ∪ (B ∪ C).
n(∞)
S
Операцiя узагальнюється на скiнченну або злiченну кiлькiсть подiй: A = Ai .
i=1
3. Перетин подiй A ∩ B — це подiя, яка вiдбувається тодi, коли A i B вiдбуваються одно-
часно.

7
Роздiл 1. Випадковi подiї.

Властивостi: A ∩ A = A, A ∩ B = B ∩ A, (A ⊂ B) ⇒ (A ∩ B = A), A ∩ Ω = A, A ∩ ∅ = ∅,
(A ∩ B) ∩ C = A ∩ (B ∩ C), A ∩ B ⊂ A, A ∩ B ⊂ B, (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C),
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
n(∞)
T
Операцiя узагальнюється на скiнченну або злiченну кiлькiсть подiй: A = Ai .
i=1

Означення 1.1.3. Подiї A та B називається несумiсними, якщо вони не вiдбуваються одно-


часно: A ∩ B = ∅. Узагальнення: подiї A1 , A2 , ..., An , ... називаються попарно несумiсними,
якщо Ai ∩ Aj = ∅ для i 6= j.
Означення 1.1.4. Подiї A1 , A2 , ..., An , ... утворюють повну групу подiй, якщо вони попарно
n(∞)
S
несумiснi та Ai = Ω.
i=1

4. Протилежна подiя A — це подiя, яка вiдбувається тодi, коли A не вiдбувається.


Властивостi: A ∪ A = Ω, A ∩ A = ∅, (A ∪ B) = A ∩ B, (A ∩ B) = A ∪ B.
5. Рiзниця подiй A\B — це подiя A ∩ B. Для протилежної подiї маємо A = Ω\A.
Означення 1.1.5. Непорожня система пiдмножин F простору елементарних подiй Ω утворює
алгебру подiй, якщо:
1. Ω ∈ F;
2. (A, B ∈ F) ⇒ (A ∪B ∈ F);
3. (A ∈ F) ⇒ A ∈ F .
Узагальнення: якщо Ω мiстить злiченну кiлькiсть подiй,
 то означення σ-алгебра отримаємо

S
замiною умови 2 на (∀n ∈ N : An ∈ F) ⇒ An ∈ F .
n=1
Пара {Ω, F} називається вимiрним простором стохастичного експерименту.

1.1.2 Класична модель ймовiрностi


Дослiдника завжди цiкавить кiлькiсна характеристика появи тiєї чи iншої подiї.
Нехай Ω — скiнченний чи злiченний. Поставимо у вiдповiднiсть кожнiй елементарнiй подiї
n(∞)
P P
ωk число pk ≥ 0 так, що pk = 1. Тодi P(A) = pk — кiлькiсна характеристика,
k=0 ωk ∈A
ймовiрнiсть подiї A.
Приклад. Класична модель ймовiрностi. Якщо простiр елементарних подiй Ω СЕ скiн-
ченний та всi ωk рiвноможливi, то такий СЕ називається класичним. В такому випадку
p1 = p2 = ... = pn = n1 , де n = card(Ω).
X m кiлькiсть елементарних подiй в A
P(A) = pk = = (1)
n загальна кiлькiсть елементарних подiй
ωk ∈A

Ймовiрностi, що розраховуються за формулою (1), називаються класичними.


Приклад. 1. «Задачi про вибiр» — коли з великої кiлькостi чогось вибирають певну кiль-
кiсть. Наприклад, з урни з 10 кульками, 3 чорними та 7 бiлими, навмання витягають 5
C 2 ·C 3
кульок. Обчислимо ймовiрнiсть подiї A = {серед них 2 чорних кульки}: P(A) = C3 5 7 =
10
3·35 5
252 = 12 .
2. «Задачi про лiфт». 5 осiб одночасно зайшли в лiфт 11-поверхового будинку. Яка ймо-
вiрнiсть того, що вони всi вийдуть на рiзних поверхах, починаючи з другого?
A5
P(A) = Ae10
5
= 10·9·8·7·6
105 = 0.3024. Тут Akn та A
ek — кiлькостi розмiщень без повторень та
n
10
з повтореннями вiдповiдно.
Властивостi класичної ймовiрностi:
1. ∀A ∈ F : 0 ≤ P(A) ≤ 1.
2. P(Ω) = 1.
3. P(A) = 1 − P(A).
4. P(∅) = 0.
5. P(A ∪ B) = P(A) + P(B) − P(A ∩ B), для несумiсних A i B P(A ∪ B) = P(A) + P(B).

8
Роздiл 1. Випадковi подiї.

6. (A ⊂ B) ⇒ (P(A) ≤ P(B)).  
n
S
7. Якщо A1 , A2 , ..., An — повна група подiй СЕ, то P Ai = 1.
i=1

1.1.3 Геометрична модель ймовiрностi


Приклад. Нехай точка кидається навмання на вiдрiзок [a; b]. Яка ймовiрнiсть її потрапляння
в hα; βi ⊂ [a; b]? Розглянемо подiю A = {точка потрапила в hα; βi}.
a α β b
Логiчно припустити, що P(A) = k · lhα;βi для деякого k > 0. Тодi P(Ω) = 1 = k · l[a;b] . Таким
1 1 lhα;βi
чином, k = l[a;b] = b−a , тому P(A) = l[a;b] .

Нехай простiр елементарних подiй iнтерпретується як замкнена область в Rn , а випадковi


подiї — її пiдмножини. В якостi σ-алгебри подiй F беремо пiдмножини, що мають мiру µ.
Тодi в якостi ймовiрностi деякої подiї A беремо P(A) = µ(A) 1
µ(Ω) . Наприклад, в R беремо мiру
«довжина», в R2 — «площа», а в R3 — «об’єм».
Ймовiрностi, що знаходяться таким чином називаються геометричними, а сама модель
називається геометричною моделлю ймовiрностi. Геометрична модель може використовува-
тись, коли Ω має геометричну iнтерпретацiю як замкнена область в Rn , а елементарнi подiї
— рiвноможливi.

Приклад (задача Бюффона). На площинi накресленi паралельнi прямi на вiдстанi 2a, на


них кидається голка довжиною 2l, l ≤ a. Яка ймовiрнiсть того, що голка перетне яку-небудь
пряму?

2a

2a
ϕ
x


Достатньо розглядати лише двi прямi. Ω = (ϕ, x) ∈ R2 : ϕ ∈ [0; π] , x ∈ [0; a]
При такiй побудовi простору елементарних подiй подiя A = {голка перетне пряму} =
{(ϕ, x) ∈ Ω : x ≤ l sin ϕ}
x
a

l
A

0 π ϕ
S(A) Rπ π 2l
P(A) = S(Ω) , S(Ω) = πa, S(A) = l sin ϕ dϕ = l (− cos ϕ)|0 = 2l. Отже, P(A) = πa .
0
Якщо провести n кидань голки, у m з яких голка потрапить на пряму, то за допомогою
приблизної рiвностi m 2l
n ≈ πa можна приблизно обчислити число π. Наприклад, якщо взяти
n = 5000, m = 2532, l/a = 0.8, то отримаємо π ≈ 3.1596.
Приклад (парадокс Бертрана). Нехай в колi радiусом R навмання обирається хорда. Яка
ймовiрнiсть того, що її довжина буде бiльшою за довжину сторони правильного трикутника,
вписаного в це коло?
Iснують три способи розв’язання цiєї задачi, причому кожен з них дає рiзний результат.
Спосiб 1. З мiркувань симетрiї обирається якийсь фiксований дiаметр кола i розглядає-
ться всi перпендикулярнi до нього хорди. Серед них i обирається навмання довiльна хорда.
Очевидно, що кожна хорда у цьому випадку може бути однозначно визначена своєю середи-
ною, тобто кожнiй хордi можна взаємно однозначно поставити у вiдповiднiсть координату її
середини, якщо за початок вiдлiку взяти якийсь з кiнцiв фiксованого дiаметру.

9
Роздiл 1. Випадковi подiї.

0 2R
R 3R
2 2

Таким чином, множина всiх значень координати середини хорди Ω = [0; 2R]. Множина, що
вiдповiдає подiї — це вiдрiзок A = R2 ; 3R

2 . В якостi мiри вiзьмемо довжину. Тодi P(A) =
l(A) R 1
l(Ω) = 2R = 2 .
Спосiб 2. В цьому способi пропонується розглядати тiльки хорди з одним закрiпленим
кiнцем. Кожнiй хордi поставимо у вiдповiднiсть ту частину дуги кола, яка потрапляє у кут
ϕ, що утворює хорда з дотичною, проведеною через точку закрiплення кiнця всiх хорд.
ϕ

Тодi множина Ω = [0; π], а A = π3 ; 2π


 
3 . Знову вiзьмемо за мiру довжину i отримаємо P(A) =
π/3 1
π = 3.
Спосiб 3. Розглядаються всi хорди кола. Кожнiй з них взаємно однозначно ставиться у
вiдповiднiсть точка її середини (x, y), якщо за початок координат прийняти центр кола.

n o
R2

В такому випадку Ω = (x, y) ∈ R2 : x2 + y 2 ≤ R2 , а A = (x, y) ∈ Ω : x2 + y 2 ≤ 4 . Тодi
2
P(A) = πR /4 1
πR2 = 4 .
Жозеф Бертран був противником геометричного означення ймовiрностi. Вiн казав, що
воно не дає можливостi однозначно обчислити ймовiрнiсть однiєї i тiєї ж випадкової подiї та
використовував вищенаведений приклад для доведення своєї правоти. Дiйсно, було отримано
три рiзних вiдповiдi при розв’язаннi однiєї задачi. Так в чому ж справа? Насправдi, помилка
полягає у рiзних трактуваннях поняття «навмання обрана хорда». В кожному з трьох способiв
це трактування було рiзним, що й стало причиною рiзних вiдповiдей.

1.2 Система аксiом Колмогорова


1.2.1 Аксiоми теорiї ймовiрностей
I. Побудова вимiрного простору {Ω, F}:
A1: Будь-якому стохастичному експерименту можна поставити у вiдповiднiсть простiр
елементарних подiй Ω. !
n(∞)
S
A2: (∀n ∈ N : An ∈ F) ⇒ An ∈ F .
n=1

A3: (A ∈ F) ⇒ A ∈ F .
Двi останнi аксiоми стосуються побудови алгебри чи σ-алгебри подiй.
II. Властивостi ймовiрностi:
P1: ∀A ∈ F : P(A) ≥ 0.
P2: P(Ω) = 1 — аксiома нормування.

10
Роздiл 1. Випадковi подiї.

∞ ∞
 
S P
P3: ∀A1 , A2 , ..., An , ... ∈ F, Ai ∩ Aj = ∅ при i 6= j : P An = P(An ) — аксiома
n=1 n=1
злiченної адитивностi. Iнодi у випадках «простої» алгебри (а не σ-алгебри) доста-
тньо аксiомискiнченної адитивностi P30 : ∀A1 , A2 , ..., An ∈ F, Ai ∩ Aj = ∅ при i 6=
Sn n
P
j:P Ak = P(Ak ).
k=1 k=1

Означення 1.2.1. Нормована мiра P, що введена на вимiрному просторi {Ω, F}, називається
ймовiрнiстю. Всi подiї беруться з σ-алгебри подiй. Трiйка {Ω, F, P} називається ймовiрнiсним
простором стохастичного експерименту.
Ця система аксiом несуперечна, бо iснують стохастичнi експерименти, якi задовольняють
цим аксiомам, але неповна, бо в рiзних задачах теорiї ймовiрностей розглядаються рiзнi ймо-
вiрнiснi простори.

1.2.2 Властивостi ймовiрностi, що випливають з аксiом



 
S
1. Якщо A1 , A2 , ..., An , ... ∈ F утворюють повну групу подiй, то P Ak = 1.
k=1

Доведення. Випливає з аксiоми P2. N


2. P(A) = 1 − P(A).
P2 P30
Доведення. A ∪ A = Ω ⇒ 1 = P(Ω) = P(A ∪ A) = P(A) + P(A). N
3. P(∅) = 0.
Доведення. Наслiдок з властивостi 2 (∅ = Ω). N
Зауваження. Якщо ймовiрнiсть подiї дорiвнює нулю, то це не означає, що подiя немо-
жлива.
Приклад. СЕ — кидання точки на вiдрiзок [a; b]. A = {точка потрапила в певну x ∈
[a; b]}. A не є неможливою, проте P(A) = 0.
4. A ⊂ B ⇒ P(A) ≤ P(B).
P30 P1
Доведення. A ⊂ B ⇒ B = A ∪ (B\A) ⇒ P(B) = P(A) + P(B\A) ≥ P(A). N
5. ∀A ∈ F : P(A) ≤ 1.
Доведення. Наслiдок з властивостi 4, A ⊂ Ω та P2. N
6. A ⊂ B : P(B\A) = P(B) − P(A).
Доведення. Наслiдок з доведення властивостi 4. N
7. ∀A, B ∈ F : P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Доведення. A ∪ B = (A\(A ∩ B)) ∪ (A ∩ B) ∪ (B\(A ∩ B)) — попарно несумiснi подiї.
6
З аксiоми P30 : P(A ∪ B) = P(A\(A ∩ B)) + P(A ∩ B) + P(B\(A ∩ B)) = P(A) − P(A ∩ B) +
P(A ∩ B) + P(B) − P(A ∩ B) = P(A) + P(B) − P(A ∩ B). N
8. Узагальнення властивостi  n 7 —формула включення-виключення для ймовiрностей:
S Pn Pn n
P
∀A1 , A2 , . . . , An ∈ F : P Ai = P(Ai ) − P(Ai ∩ Aj ) + P(Ai ∩ Aj ∩ Ak ) − ... +
i=1 i=1 i<j i<j<k
 n 
(−1)n−1 P
T
Ai .
i=1
Вправа. Довести цю властивiсть.
Приклад (задача про неуважну секретарку). Секретарка поклала n листiв в n чистих кон-
вертiв, заклеїла цi конверти i тiльки пiсля цього написала адреси. Яка ймовiрнiсть того, що
хоча б один з листiв дiйде за призначенням?

11
Роздiл 1. Випадковi подiї.

(n−1)!
Ai = {i-тий лист дiйшов за призначенням} , i = 1, ..., n. P(Ai ) = n1 = n! .
Sn
A = {хоча б один iз листiв дiйшов за призначенням} , A = Ai .
i=1
P(Ai ∩ Aj ) = (n−2)!n!
1
= n(n−1) , i 6= j.
1
P(Ai ∩ Aj ∩ Ak ) = n(n−1)(n−2) , i 6= j 6= k.
...
1
P(A1 ∩ ... ∩ An ) = n! .
За формулою включення-виключення P(A) = n · n1 − Cn2 · 1
n(n−1)
1
− · · · + (−1)n−1 n! =1− 1
2! +
1 1
3! − · · · + (−1)
n−1
· n! ≈ 1 − 1e ≈ 0.63.
∞  ∞
S P
9. ∀A1 , A2 , ..., An , ... ∈ F : P Ak ≤ P(Ak )
k=1 k=1

Доведення. Введемо подiї B1 = A1 , B2 = A1 ∩ A2 , B3 = A1 ∩ A2 ∩ A3 , ..., Bn = A1 ∩ A2 ∩ ...



S ∞
S
... ∩ An−1 ∩ An , .... Цi подiї попарно несумiснi, Bk = Ak , Bk ⊂ Ak для всiх k ∈ N.
∞ ∞ k=1 k=1
∞ ∞
 
S S P3 P 4 P
P Ak = P Bk = P(Bk ) ≤ P(Ak ). N
k=1 k=1 k=1 k=1
∞ ∞ ∞ ∞
     
T T S P
10. ∀A1 , A2 , ..., An , ... ∈ F : P Ak =1−P Ak =1−P Ak ≥1− P(Ak ).
k=1 k=1 k=1 k=1

1.2.3 Теореми неперервностi ймовiрностi


Теорема ∞1. Нехай
 є монотонно неспадна послiдовнiсть подiй A1 ⊂ A2 ⊂ ... ⊂ An ... ∈ F.
S
Тодi P An = lim P(An ).
n=1 n→∞


S
Доведення. An = A1 ∪ (A2 \A1 ) ∪ (A3 \A2 ) ∪ ... ∪ (An \An−1 ) ∪ ...
n=1
∞ ∞

S P
З аксiоми P3: P An = P(A1 ) + P(An \An−1 ).
n=1 n=2
n
P
Sn = P(A1 ) + P(Ak \Ak−1 ) = P(A1 ) + P(A2 ) − P(A1 ) + P(A3 ) − P(A2 ) + ... + P(An ) − P(An−1 ) =
k=2


S
P(An ). Отже, P An = lim Sn = lim P(An ). N
n=1 n→∞ n→∞

Теорема
∞ 2. Нехай є монотонно спадна послiдовнiсть подiй A1 ⊃ A2 ⊃ ... ⊃ An ... ∈ F. Тодi

T
P An = lim P(An ).
n=1 n→∞

∞ ∞
   
T S т. 1
Доведення. P An =1−P An = 1 − lim P(An ) = lim (1 − P(An )) = lim P(An ).
n=1 n=1 n→∞ n→∞ n→∞
N

1.2.4 Аксiома неперервностi


Теорема 3. Аксiома злiченної адитивностi P3 еквiвалентна аксiомi неперервностi P4:

\
∀n ∈ N : Bn ∈ F, B1 ⊃ B2 ⊃ ... ⊃ Bn ⊃ ..., Bn = ∅ ⇒ lim P(Bn ) = 0
n→∞
n=1

Доведення. За теоремою 2 маємо наслiдок P3 ⇒ P4.


Доведемо P4 ⇒ P3. Для подiй A1 , A2 , ..., An , ... ∈ F, Ai ∩ Aj = ∅ при i 6= j введемо подiї

S ∞
T
Bn = Ak . Для них виконується B1 ⊃ B2 ⊃ ... ⊃ Bn ⊃ ... та Bn = ∅, тому з аксiоми
k=n+1 n=1
P4 lim P(Bn ) = 0.
n→∞
З iншого боку, маємо таку рiвнiсть:
∞ ∞
! n
! ! n
[ [ [ X
P Ak = P Ak + P Ak = P(Ak ) + P(Bn )
k=1 k=1 k=n+1 k=1

12
Роздiл 1. Випадковi подiї.

∞ ∞
 
S P
Перейшовши у правiй частинi до границi при n → ∞, отримаємо P Ak = P(Ak ), що
k=1 k=1
є твердженням аксiоми злiченної адитивностi. N

1.3 Умовнi ймовiрностi. Незалежнiсть подiй. Формула Ба-


єса.
1.3.1 Умовнi ймовiрностi
Припустимо, що спостерiгається деякий експеримент, що описується класичною моде-
ллю, а для подiї B P(B) > 0. Умовна ймовiрнiсть P(A/B) — це ймовiрнiсть подiї A за
умови, що вiдбулась подiя B. Наприклад, експеримент — витягання карт з колоди, A =
{витягнуто даму пiк}, B = {витягнуто карту чорної мастi}.
Оскiльки експеримент описується класичною моделлю, то можемо позначити mB та mA∩B
кiлькостi елементарних подiй, що сприяють появами подiй B та A ∩ B вiдповiдно. Тодi
P(A/B) = mmA∩B
B
= mmA∩B /n
B /n
= P(A∩B)
P(B) , де n = card(Ω).
Ця формула справджується й для довiльних ймовiрнiсних просторiв.
Означення 1.3.1. Якщо подiя B має додатну ймовiрнiсть P(B) > 0, то умовна ймовiрнiсть
подiї A за умови, що вiдбулась подiя B, обчислюється за формулою
P(A ∩ B)
P(A/B) = (1)
P(B)
Властивостi умовної ймовiрностi:
1. P(A/B) ≥ 0.
2. P(Ω/B) = P(B/B) = 1.
3. ∀A1 , A2 , ..., An , ... ∈ F :
Ai ∩ Aj= ∅ при i 6= j :
  P ∞ ∞ ∞
 
S S P
A ∩B (An ∩B) P(An ∩B)
 ∞ n P ∞
S n=1 P3 P
P An /B = P(B) = n=1P(B) = n=1
P(B) = P(An /B).
n=1 n=1
Таким чином, для умовної ймовiрностi дiють всi аксiоми ТЙ. Фактично, розглядається зву-
ження ймовiрнiсного простору {B, FB , P(·/B)}, в якому B стає вiрогiдною подiєю.
Теореми множення
З формули (1) випливає, що

P(A ∩ B) = P(A) · P(B/A) = P(B) · P(A/B) (2)

Для трьох подiй: P(A ∩ B ∩ C) = P(A ∩ B) · P(C/(A ∩ B)) = P(A) · P(B/A) · P(C/(A ∩ B)). За
методом математичної iндукцiї неважко довести, що
n
! n−1
!!
\ \
P Ak = P (A1 ) · P (A2 /A1 ) · P (A3 / (A1 ∩ A2 )) · ... · P An / Ak (3)
k=1 k=1

Приклад. На 10 картках написано по однiй буквi так, що можна скласти слово «матема-
тика». Дитина навмання витягує без повернення по однiй картцi. Яка ймовiрнiсть того, що
пiсля витягання 4 карток утвориться слово «мама»?
Треба обчислити ймовiрнiсть P(M (1) ∩ A(2) ∩ M (3) ∩ A(4) ), де верхнiй iндекс означає крок,
2
на якому витягнуто лiтеру. P(M (1) ) = 10 , P(A(2) /M (1) ) = 93 , P(M (3) /(M (1) ∩ A(2) )) = 18 ,
P(A(4) /(M (1) ∩ A(2) ∩ M (3) )) = 72 . Тому за формулою (3) P(M (1) ∩ A(2) ∩ M (3) ∩ A(4) ) = 10·9·8·7
2·3·1·2
.

1.3.2 Незалежнiсть подiй


Означення 1.3.2. Двi подiї A та B називаються незалежними, якщо

P(A ∩ B) = P(A) · P(B) (4)

Властивостi незалежних подiй:


P(A∩B) P(A)·P(B)
1. Якщо подiї A та B незалежнi, то P(A/B) = P(B) = P(B) = P(A).
Аналогiчно P(B/A) = P(B).

13
Роздiл 1. Випадковi подiї.

Зауваження. Несумiснi подiї залежнi, якщо їх ймовiрностi не нульовi.


2. Якщо подiї A та B незалежнi, то пари A та B, A та B, A та B — теж незалежнi.
Доведення. Доведемо спочатку для пари A та B. P(A ∩ B) = P(A\(A ∩ B)) = P(A) −
P(A∩B) = P(A)−P(A)·P(B) = P(A)·(1−P(B)) = P(A)·P(B). Отже, A та B — незалежнi.
Доведення для iнших пар аналогiчне. N
3. Якщо A та B, A та C незалежнi, а B та C несумiснi, то A та B ∪ C — незалежнi подiї.
Доведення. P(A ∩ (B ∪ C)) = P((A ∩ B) ∪ (A ∩ C)) = P(A ∩ B) + P(A ∩ C) = P(A) · P(B) +
P(A) · P(C) = P(A) · (P(B) + P(C)) = P(A) · P(B ∪ C). N
Означення 1.3.3. Подiї A1 , A2 , ..., An ∈ F називаються незалежними у сукупностi, якщо
r
! r
\ Y
∀i1 , i2 , ...ir ∈ {1, ..., n} : P Aik = P (Aik ) (5)
k=1 k=1

Зокрема:
1. ∀i,j ∈ 1, ..,n, i 6= j : P(Ai ∩ Aj ) = P(Ai ) · P(Aj ) — попарна незалежнiсть.
Tn n
Q
2. P Ak = P(Ak ).
k=1 k=1

Зауваження. З незалежностi подiй у сукупностi випливає попарна незалежнiсть, але наслiдку


в iншу сторону, взагалi кажучи, немає.
Приклад (приклад Бернштейна). Дитина кидає на пiдлогу тетраедр, три гранi якого роз-
фарбованi вiдповiдно зеленим, синiм та червоним кольором, а четверта — усiма трьома ко-
льорами. Введемо подiї З, С, Ч, якi означають, що випала грань, на якiй є зелений, синiй або
червоний колiр вiдповiдно.
P(З) = P(С) = P(Ч) = 21 , P(З ∩ С) = P(З ∩ Ч) = P(С ∩ Ч) = 41 , тому цi подiї є попарно
незалежними. Але P(З ∩ С ∩ Ч) = 14 6= 18 , тому незалежностi у сукупностi немає.
Теорема додавання  незалежних у сукупностi подiй. A1 , A2 , ..., An ∈ F — незалежнi
 n для
S
у сукупностi. P Ak = ?
 n  k=1  n   n  n
S S T Q
P Ak = 1 − P Ak = 1 − P Ak = 1 − P(Ak ).
k=1 k=1 k=1 S k=1
Зокрема, для двох незалежних подiй A i B: P(A B) = 1 − P(A) · P(B)

1.3.3 Формула повної ймовiрностi


Нехай деякому СЕ поставлено у вiдповiднiсть простiр елементарних подiй Ω.
H1 , H2 , ..., Hn ∈ F (може бути й злiченна кiлькiсть) — повна група подiй, якi називаємо
гiпотезами (припущеннями). Нехай подiя A вiдбувається разом з якоюсь гiпотезою. Тодi має
мiсце формула повної ймовiрностi :
n
X
P (A) = P(Hk ) · P(A/Hk ) (6)
k=1
  n   n  n
S S P
Доведення. P(A) = P(A ∩ Ω) = P A ∩ Hk = P (A ∩ Hk ) = P(A ∩ Hk ) =
k=1 k=1 k=1
n
P
P(Hk ) · P(A/Hk ). N
k=1

Приклад. 1. У магазин постачають 80% телефонiв з Китаю, 15% з В’єтнаму та 5% з


Кореї, причому бракованих вiдповiдно 1%, 0.1% та 0.01%. Знайти ймовiрнiсть подiї A =
{куплений телефон буде бракованим}.
За умовою введемо гiпотези H1 = {телефон з Китаю}, H2 = {телефон з В’єтнаму} та
H3 = {телефон з Кореї}. P(H1 ) = 0.8, P(H2 ) = 0.15, P(H3 ) = 0.05, P(A/H1 ) = 0.01,
P(A/H2 ) = 0.001, P(A/H3 ) = 0.0001. Тодi за формулою (6) P(A) = 0.8 · 0.01 + 0.15 ·
0.001 + 0.05 · 0.0001 = 0.008155.

14
Роздiл 1. Випадковi подiї.

2. Серед N екзаменацiйних бiлетiв n «щасливих», n < N . У якого студента ймовiрнiсть


витягнути «щасливий» бiлет бiльша — у того, хто тягне першим, чи того, хто тягне
другим?
Позначимо через A i B подiї, що «щасливий» бiлет витягнув перший та другий студент
n
вiдповiдно. За умовою P(A) = N . Щоб скористатися формулою (6) для обчислення
P(B), введемо гiпотези H1 = A та H2 = A. P(H1 ) = N n
, P(H2 ) = NN−n .
n n−1 N −n n n2 −n+N ·n−n2
P(B) = P(H1 ) · P(B/H1 ) + P(H2 ) · P(B/H2 ) = N ·N −1 + N · N −1 = N ·(N −1) =
n·(N −1) n
N ·(N −1) = N.

1.3.4 Формула Баєса


Як i ранiше, нехай H1 , H2 , ..., Hn ∈ F — повна група подiй деякого СЕ, якi назива-
ємо гiпотезами, причому перед проведенням експерименту вiдомi їх апрiорнi ймовiрностi
P(H1 ), P(H2 ), ..., P(Hn ). В результатi проведення експерименту вiдбулась деяка подiя A. По-
стає питання: чому рiвнi апостерiорнi ймовiрностi P(H1 /A), P(H2 /A), ..., P(Hn /A)? Тобто, чо-
му дорiвнюють ймовiрностi, що мала мiсце кожна з гiпотез за умови, що подiя A вiдбулась?
На це дає вiдповiдь формула Баєса:

P(Hi ∩ A) P(Hi ) · P(A/Hi )


P(Hi /A) = = P
n , i = 1, ..., n (7)
P(A)
P(Hk ) · P(A/Hk )
k=1

Приклад. В групi з 10 осiб троє вчаться на «5», четверо на «4», двоє на «3» та один на «2».
Викладач пiдготував на екзамен 20 питань. Студенти, якi вчаться на «5», знають вiдповiдi на
всi, на «4» — на 16, на «3» — на 10, на «2» — на 5. Екзаменацiйний бiлет мiстить 3 питання.
Деякий студент вiдповiв правильно на всi 3. Яка ймовiрнiсть того, що вiн вчиться на «2»?
Введемо гiпотези H1 = {студент вчиться на «5»}, H2 = {студент вчиться на «4»}, H3 =
3
{студент вчиться на «3»}, H4 = {студент вчиться на «2»}. За умовою P(H1 ) = 10 , P(H2 ) =
4 2 1
10 , P(H 3 ) = 10 , P(H4 ) = 10 . Позначимо A = {студент вiдповiв на всi три питання}. Тодi
16·15·14 10·9·8 5·4·3
P(A/H1 ) = 1, P(A/H2 ) = 20·19·18 , P(A/H3 ) = 20·19·18 , P(A/H4 ) = 20·19·18 . За формулою
P(H4 )·P(A/H4 ) 0.1·5·4·3
(7) шукана ймовiрнiсть P(H4 /A) = P 4 = 0.3·20·19·18+0.4·16·15·14+0.2·10·9·8+0.1·5·4·3 =
P(Hk )·P(A/Hk )
k=1
60 1
35460 = 591 .

1.4 Полiномiальна модель ймовiрностi. Схема Бернуллi.


1.4.1 Полiномiальна схема
Припустимо, що подiї A1 , A2 , ..., Ak утворюють повну групу подiй деякого СЕ, причому
k
P
вiдомi ймовiрностi P(Ai ) = pi , pi = 1. Експеримент проводиться n разiв, в кожному з яких
i=1
може вiдбутись одна з подiй Ai . Можливими результатами n раз проведеного експерименту
(1) (2) (n) (r)
будуть подiї Ai1 ∩Ai2 ∩...∩Ain , де Air , r = 1, ..., n, ir = 1, ..., k — один iз можливих результатiв
r-того випробування.
Означення 1.4.1. Випробування, що проводяться, називаються незалежними, якщо
       
(1) (2) (n) (1) (2) (n)
P Ai1 ∩ Ai2 ∩ ... ∩ Ain = P Ai1 · P Ai2 · ... · P Ain

Основна задача — знайти ймовiрнiсть того, що подiя A1 вiдбудеться m1 разiв, подiя A2 вiд-
k
P
будеться m2 разiв i т.д., подiя Ak вiдбудеться mk разiв, причому mj = n. Такi ймовiрностi
j=1
будемо позначати як Pn (m1 , m2 , ..., mk ).
 
mk
P A1 ∩ ... ∩ A1 ∩ A2 ∩ ... ∩ A2 ∩... ∩ Ak ∩ ... ∩ Ak  = pm 1 m2
1 p2 ...pk
| {z } | {z } | {z }
m1 разiв m2 разiв mk разiв

15
Роздiл 1. Випадковi подiї.

Це є лише один iз можливих варiантiв послiдовностi появи подiй в серiї випробувань.


Всього таких варiантiв рiвно Cnm1 ,m2 ,...,mk = m1 !mn!
2 !...mk !
. Таким чином отримуємо:

n!
Pn (m1 , ..., mk ) = pm1 pm2 ...pm k
(1)
m1 !m2 !...mk ! 1 2 k

Означення 1.4.2. Ймовiрностi, що обчислюємо за даною формулою, називаються полiномi-


альними, а сама схема — полiномiальною схемою ймовiрностi.
Зауваження. Звiдки назва «полiномiальна»?
X
1 = (p1 + p2 + ... + pk )n = Pn (m1 , ..., mk )
m1 +...+mk =n

Приклад. Студент IПСА за рiвнем пiдготовки з ймовiрнiстю 0.3 вважається слабким сту-
дентом, з ймовiрнiстю 0.5 вважається середнiм студентом та з ймовiрнiстю 0.2 — сильним
студентом. Яка ймовiрнiсть того, що з 6 навмання обраних студентiв кiлькiсть слабких та
сильних буде однаковою?
Розглядаємо подiю A = {кiлькiсть слабких рiвна кiлькостi сильних}. Позначимо ймовiр-
ностi того, що студент має певний рiвень пiдготовки, таким чином: p1 = 0.3, p2 = 0.5, p3 = 0.2.
P(A) = ?
Скористаємось полiномiальною схемою: P(A) = P6 (3, 0, 3) + P6 (2, 2, 2) + P6 (1, 4, 1) +
6! 6! 6!
P6 (0, 6, 0) = 3!3! ·(0.3)3 ·(0.2)3 + 2!2!2! ·(0.3)2 ·(0.5)2 ·(0.2)2 + 1!4!1! ·0.3·(0.5)4 ·0.2+ 6! 6
6! ·(0.5) = 0.213445.

1.4.2 Схема Бернуллi


Означення 1.4.3. Полiномiальна схема, в кожному випробуваннi якої є тiльки двi подiї A1
та A2 , називається бiномiальною схемою або схемою Бернуллi.
A1 та A2 утворюють повну групу подiй ⇒ A2 = A1 . Позначимо A1 = A — «успiх», A2 = A
— «невдача», P(A) = p, P(A) = 1 − p = q.
Яка ймовiрнiсть того, що в n випробуваннях «успiх» з’явиться m разiв? На це питання
дає вiдповiдь формула Бернуллi :
n!
Pn (m) = pm q n−m = Cnm pm q n−m (2)
m!(n − m)!

Ймовiрностi, що обчислюються за цiєю формулою, називаються бiномiальними.


Приклад. Спортсмен 5 разiв стрiляє по мiшенi. Ймовiрнiсть влучення при кожному пострiлi
— 0.2. Яка ймовiрнiсть того, що вiн влучив не менше 3 разiв?
P {влучив ≥ 3 разiв} = P5 (3) + P5 (4) + P5 (5) = C53 (0.2)3 (0.8)2 + C54 (0.2)4 0.8 + C55 (0.2)5 =
0.05792.

1.4.3 Найбiльш iмовiрна кiлькiсть успiхiв в схемi Бернуллi


Означення 1.4.4. Натуральне число m0 , при якому Pn (m) набуває найбiльшого значення,
називається найбiльш iмовiрною кiлькiстю успiхiв.
Розглянемо систему:
( (
n! m0 −1 n−m0 +1 n! m0 n−m0
Pn (m0 − 1) ≤ Pn (m0 ) (m0 −1)!(n−m0 +1)! p q ≤ m0 !(n−m0 )! p q
⇔ n! m0 +1 n−m0 −1 n! m0 n−m0

Pn (m0 + 1) ≤ Pn (m0 ) (m0 +1)!(n−m0 −1)! p q ≤ m0 !(n−m0 )! p q
( (
q p
n−m0 +1 ≤ m0 m0 ≤ np + p
⇔ p q ⇔
m0 +1 ≤ n−m0 m0 ≥ np − q

np − q m0 np + p
Таким чином отримуємо два варiанти:

16
Роздiл 1. Випадковi подiї.

1. np + p − не цiле ⇒
( m0 = [np + p]
(1)
m0 = np + p
2. np + p − цiле ⇒ (2)
m0 = np − q

Приклад. Знайти найбiльш iмовiрну кiлькiсть успiхiв для прикладу (1.4.2).


np + p = 1.2 ⇒ m0 = [np + p] = [1.2] = 1. Ймовiрнiсть лише одного влучення буде найбiль-
шою, рiвною 0.904.

1.4.4 Асимптотичнi наближення формули Бернуллi


Формула Бернуллi не є зручною для великих значень m та n. Iснують формули, якими
можна скористатись для наближення результатiв формули Бернуллi.
Твердження (асимптотична формула Пуассона). Нехай n — достатньо велике натуральне
число, а p — достатньо мале, так що a = np ∈ (1, 20). Тодi для наближення формули
Бернуллi можна використати асимптотичну формулу Пуассона:

(np)m −np
Pn (m) ≈ e
m!
a m am
Доведення (нестроге). Pn (m) = n(n−1)...(n−m+1) (1 − na )n−m = − n1 )(1 − n2 )...(1 −

m! m n m! 1(1
m
m+1 a n a −m
n )(1 − n ) (1 − n ) −→ am! e−a = (np)
m! e
−np
. N
n→∞

Твердження (формула Муавра-Лапласа). Нехай npq ≥ 20. Тодi для наближення формули
Бернуллi можна використати формулу Муавра-Лапласа:
1 (m−np)2
Pn (m) ≈ √ e− 2npq
2πnpq

Доведення. Ґрунтується на локальнiй теоремi Муавра-Лапласа. N


Детальне доведення обох тверджень буде в темi «Граничнi теореми теорiї ймовiрностей»
(ст. 74).

17
Роздiл 2

Випадковi величини

2.1 Поняття випадкової величини та її задання


Означення 2.1.1. Випадковою величиною називається дiйснозначна вимiрна функцiя, що
здiйснює вiдображення з Ω в R, тобто ξ = ξ(ω) : Ω → R.
Зауваження. Вимiрнiсть функцiї ξ(ω) означає, що

∀x ∈ R : {ω ∈ Ω : ξ(ω) < x} ∈ F (1)

В курсi функцiонального аналiзу доводиться, що якщо виконується (1), то {ω : ξ(ω) > x},
{ω : ξ(ω) ≤ x}, {ω : ξ(ω) ≥ x}, {ω : ξ(ω) = x} та {ω : ξ(ω) ∈ ha; bi} також належать F.
Надалi розглядатимуться випадковi величини двох видiв — дискретнi (ДВВ) та неперервнi
(НВВ).

2.1.1 Функцiя розподiлу


Унiверсальною ймовiрнiсною характеристикою будь-якої випадкової величини є функцiя
розподiлу випадкової величини.
Означення 2.1.2. Дiйснозначна функцiя дiйсного аргументу Fξ (x) = P {ω : ξ(ω) < x} або
P (ξ < x) називається функцiєю розподiлу випадкової величини.
Властивостi функцiї розподiлу:
1. Область визначення D(F ) = R, область значень E(F ) = h0; 1i.
2. ∀x1 > x2 ∈ R: Fξ (x1 ) ≥ Fξ (x2 ) — монотонно неспадна.
Доведення. Розглянемо подiї A = {ω : ξ(ω) < x1 } та B = {ω : ξ(ω) < x2 }, причому x1 >
x2 . Отже, B ⊂ A ⇒ P(B) ≤ P(A) ⇒ Fξ (x1 ) ≥ Fξ (x2 ). N
3. P {ω : a ≤ ξ(ω) < b} = Fξ (b) − Fξ (a).
Доведення. Розглянемо подiї A = {ω : ξ(ω) < a}, B = {ω : ξ(ω) < b},
C = {ω : a ≤ ξ(ω) < b}. B = A ∪ C, A ∩ C = ∅ ⇒ P(B) = P(A) + P(C) ⇒
⇒ P(C) = P {ω : a ≤ ξ(ω) < b} = P(B) − P(A) = Fξ (b) − Fξ (a). N
4. lim Fξ (x) = 0, lim Fξ (x) = 1.
x→−∞ x→+∞

Доведення. Введемо послiдовностi подiй An = {ω : ξ(ω) < −n} та Bn = {ω : ξ(ω) < n}.
Зауважимо, що An є монотонно спадною, а Bn — монотонно зростаючою. ∞ 
hтеорема i T
lim Fξ (x) = lim P(ξ < x) = lim P(ξ < −n) = неперервностi 2 = P An =
x→−∞ x→−∞ n→∞ n=1
= P(∅) = 0. ∞ 
hтеорема i S
lim Fξ (x) = lim P(ξ < x) = lim P(ξ < n) = неперервностi 1 = P Bn =
x→+∞ x→+∞ n→∞ n=1
= P(Ω) = 1. N
5. Функцiя розподiлу неперервна злiва: lim Fξ (x) = Fξ (x0 ).
x→x0 −0

18
Роздiл 2. Випадковi величини.

Доведення. Ai = {ω : ξ(ω) < xi } , lim xn = x0 , xn < x0 .


n→∞

 
S
lim Fξ (x) = lim P(ξ < xn ) = [теорема неперервностi 2] = P An =
x→x0 −0 n→∞ n=1
= P(ξ < x0 ) = Fξ (x0 ). N
Зауваження. В зарубiжнiй лiтературi функцiя розподiлу iнодi вводиться iнакше, як Fξ (x) =
P {ω : ξ(ω) ≤ x}. За такого означення функцiя розподiлу є неперервною справа.
( P {x ≤ ξ < x + ∆x} = Fξ (x + ∆x) − Fξ (x). Перейдемо до границi
Розглянемо ймовiрнiсть
0, якщо x — точка неперервностi
при ∆x → 0: P {ξ = x} = .
∆-стрибок, якщо x — точка розриву 1-го роду

2.1.2 Дискретнi випадковi величини


Означення 2.1.3. Випадкова величина ξ = ξ(ω) називається дискретною випадковою вели-
чиною (ДВВ), якщо вона набуває скiнченну або злiченну кiлькiсть значень.
Для задання ДВВ, крiм знання значень випадкової величини, необхiдно знати ймовiрностi,
з якими цi значення приймаються.

X
pi = P {ω : ξ(ω) = xi } = P(ξ = xi ), i = 1, 2, ..., pi = 1
i=1

Означення 2.1.4. Законом розподiлу (ймовiрностей) ДВВ називається спiввiдношення, яке


вказує, якi значення ця випадкова величина приймає та з якими ймовiрностями.
Закон розподiлу ДВВ записується у виглядi ряду розподiлу:
ξ x1 x2 ... xn ... P
x1 < x2 < ... < xn < ..., pi = 1
p p1 p2 ... pn ... i

Приклад. ξ задає кiлькiсть влучень при чотирьох пострiлах з iмовiрнiстю влучення p = 12 .


Скласти закон розподiлу цiєї випадкової величини.
k 1 4−k 4 Ck
З формули Бернуллi P(ξ = k) = C4k 21 2 = C4k 12 = 244 , k = 0, 1, 2, 3, 4.
ξ 0 1 2 3 4
p 214 2
4
4
6
2 4
4
24
1
24

Означення 2.1.5. Графiчне зображення закону розподiлу ДВВ називається полiгоном роз-
подiлу ймовiрностей.
p
1
pn
...
p2
p3
p1

... x
x1 x2 x3 xn
Вигляд функцiї розподiлу для ДВВ:
ξ x1 x2 ... xn Pn
x1 < x2 < ... < xn , pi = 1
p p1 p2 ... pn i=1


 0, x ≤ x1
1

p , x 1 < x ≤ x2

 1


x2 < x ≤ x3

p1 + p2 ,



Fξ (x) = . . .
p1 + p2  n−1
 P

 pi , xn−1 < x ≤ xn
p1 

 i=1
n


 P
x1 x2 x3 ... xn  pi = 1, x > xn

i=1

19
Роздiл 2. Випадковi величини.

2.1.3 Неперервнi випадковi величини


Означення 2.1.6. Випадкова величина ξ = ξ(ω) називається неперервною випадковою вели-
чиною (НВВ), якщо її функцiя розподiлу неперервна, диференцiйовна майже скрiзь, можли-
во, за виключенням окремих iзольованих точок.
З неперервностi функцiї розподiлу для довiльної точки x0 маємо P {ξ = x0 } = 0. Замiсть
ймовiрностi потрапляння НВВ у окрему точку розглядається щiльнiсть розподiлу ймовiрно-
стей у цiй точцi.
Означення 2.1.7. Щiльнiсть розподiлу ймовiрностей неперервної випадкової величини ξ
дорiвнює границi (якщо вона iснує):
P {x ≤ ξ < x + ∆x}
lim (2)
∆x→0 ∆x
P{x≤ξ<x+∆x}
Отже, закон розподiлу НВВ можна задавати щiльнiстю fξ (x) = lim ∆x . Не-
∆x→0
складно помiтити зв’язок щiльностi з функцiєю розподiлу:
P {x ≤ ξ < x + ∆x} Fξ (x + ∆x) − Fξ (x)
fξ (x) = lim = lim = Fξ0 (x) (3)
∆x→0 ∆x ∆x→0 ∆x
Графiк щiльностi розподiлу називається кривою розподiлу.
Властивостi щiльностi розподiлу:
1. Область визначення D(f ) = R, область значень E(f ) = [0; +∞) — з монотонної неспа-
дностi Fξ (x).
Rx
2. Fξ (x) = fξ (t)dt.
−∞
+∞
R
3. Властивiсть нормування: lim Fξ (x) = 1 ⇒ fξ (x)dx = 1. Геометрична iнтерпрета-
x→+∞ −∞
цiя цiєї властивостi — площа пiд кривою розподiлу завжди рiвна 1.
Rb
4. P {ω : a ≤ ξ(ω) < b} = Fξ (b) − Fξ (a) = fξ (x)dx. Ця властивiсть справджується i для
a
довiльних промiжкiв ha; bi.
(
0, x∈/ [1; 3]
Приклад. 1. fξ (x) = 2
. Знайти A та Fξ (x).
A · x , x ∈ [1; 3]
+∞ R3 3 3
fξ (x)dx = A · x2 dx = A · x3 1 = A · 26
R
3 .
−∞ 1
fξ (x) 3
З властивостi нормування A = 26 .

1 3 x



0, x ≤ 1
 R1 Rx 3 2

Fξ (x) 


 0dt + 26 t dt =
−∞
1 Rx  1
1
Fξ (x) = fξ (t)dt = 26 (x3 − 1), 1 < x ≤ 3
−∞ 

 R1 R3 3 2


 0dt + 26 t dt+
−∞

1 3 x 
 1
+ R x 0dt = 1, x > 3

3
2. «Закон арксинуса» з щiльнiстю, що має розриви 2-го роду:
fξ (x)
(
0, |x| ≥ a
fξ (x) =
√ 1 , |x| < a
π a2 −x2

−a a x

20
Роздiл 2. Випадковi величини.

2.2 Числовi характеристики випадкових величин


2.2.1 Математичне сподiвання
Означення 2.2.1. Математичним сподiванням випадкової величини називається iнтеграл
Стiлтьєса n(∞)
+∞
P
xk P {ξ = xk } , ξ — ДВВ
Z 


Eξ = k=1
xdFξ (x) = +∞ (1)
 R
−∞

 xfξ (x)dx, ξ — НВВ
−∞

Iнтеграл або ряд (1) має збiгатися абсолютно, iнакше кажуть, що випадкова величина не
має математичного сподiвання.
1
Приклад. НВВ, розподiлена за законом Кошi з щiльнiстю fξ (x) = π(1+x2 ) не має математи-
+∞
чного сподiвання, бо iнтеграл π1 x
R
1+x2 dx розбiжний.
−∞

Математичне сподiвання — ймовiрнiсне середнє значення випадкової величини. Фiзична


iнтерпретацiя — центр мас системи точок {x1 , x2 , ..., xn , ...} з масами {p1 , p2 , ..., pn , ...} (ДВВ)
або стрижня, розподiл маси в якому задано функцiєю щiльностi (НВВ).
Властивостi математичного сподiвання:
1. Математичне сподiвання константи — сама константа, оскiльки її можна iнтерпретувати
як ДВВ, що приймає єдине значення з ймовiрнiстю 1.
c = const, Ec = c.
2. E (c · ξ) = c · Eξ — властивiсть рядiв та iнтегралiв.
3. E (ξ1 + ξ2 ) = Eξ1 + Eξ2 .

Доведення дляPДВВ.
P P {ξ1 = xk } P , P {ξ2 =P
= pk P yj } P
= pj , P {ξ
P1 + ξ2 = x
P k + yj } = pkj .
E (ξ1 + ξ2 ) = (xk + yj )pkj = xk pkj + yj pkj = xk pk + yj pj = Eξ1 +
k j k j j k k j
Eξ2 . N
Означення 2.2.2. Двi випадковi величини ξ1 та ξ2 , заданi на одному ймовiрнiсному просторi,
називаються незалежними, якщо ∀x, y подiї A = {ω : ξ1 (ω) < x} та B = {ω : ξ2 (ω) < y} є
незалежними. В цьому випадку P {ξ1 < x, ξ2 < y} = P(A ∩ B) = P(A) · P(B) = Fξ1 (x) · Fξ2 (y).

4. Якщо ξ1 та ξ2 незалежнi, то Eξ1 ξ2 = Eξ1 · Eξ2 .


Доведення для ДВВ. Позначимо pkj = P {ξ1 = xk , ξ2 = yj }. !
 
PP PP P P
Eξ1 ξ2 = xk yj pkj = xk yj pk pj = xk pk · yj pj = Eξ1 · Eξ2 . N
k j k j k j

Властивостi 3 та 4 для НВВ буде доведено в темi «Функцiї випадкових аргументiв» (ст.
59).

Приклад. 1. Обчислити математичне сподiвання двох ДВВ:


ξ1 −1 1 ξ2 −100 100
Eξ1 = −1· 21 +1· 21 = 0, Eξ2 = −100· 21 +100· 12 = 0.
p 1/2 1/2 p 1/2 1/2
Цей приклад показує, що попри однакове значення математичного сподiвання, можливi
значення цих ДВВ знаходяться на рiзнiй вiдстанi вiд нього.
2. Обчислити математичне сподiвання НВВ, розподiленої за законом Сiмпсона.
fξ (x) 1
a (  
1 |x|
1 − , |x| ≤ a
fξ (x) = a a
(a > 0)
0, |x| > a

−a a x
+∞ Ra  
R x |x|
Eξ = xfξ (x)dx = a 1− a dx = 0, оскiльки iнтегрується непарна функцiя по
−∞ −a
симетричному промiжку.

21
Роздiл 2. Випадковi величини.

2.2.2 Дисперсiя
Означення 2.2.3. Дисперсiєю випадкової величини називається
n(∞)
+∞
P 2
(xk − Eξ) P {ξ = xk } , ξ — ДВВ
Z 


2 2 k=1
Dξ = E (ξ − Eξ) = (x − Eξ) dFξ (x) = +∞ (2)
R 2
(x − Eξ) fξ (x)dx,

−∞

 ξ — НВВ
−∞

Дисперсiя — характеристика розсiювання випадкової величини навколо свого математи-


чного сподiвання. Фiзична iнтерпретацiя — момент iнерцiї маси системи точок або стрижня
(як i у випадку iнтерпретацiї математичного сподiвання) вiдносно свого центру мас.
Приклад. 1. Обчислити дисперсiї двох ДВВ:
ξ1 −1 1 ξ2 −100 100
p 1/2 1/2 p 1/2 1/2
Dξ1 = (−1)2 · 12 + 12 · 12 = 1, Dξ2 = (−100)2 · 12 + 1002 · 21 = 10000.
2. Обчислити дисперсiю НВВ, розподiленої за законом ( Сiмпсона.
 
1 |x|
1 − , |x| ≤ a
Вiдповiдна щiльнiсть розподiлу має вигляд fξ (x) = a a
. Математи-
0, |x| > a
+∞
R 2
чне сподiвання вже було обчислено, воно рiвне 0. Тому Dξ = (x − Eξ) fξ (x)dx =
−∞
Ra x2  |x|

2
Ra 2 x 2
 3
x
 a
x4 2
 3
a a3
 2
= a6 .

a 1 − a dx = a x 1 − a dx = a · 3 − 4a = a · 3 − 4
−a 0 0

Властивостi√дисперсiї:
1. Dξ ≥ 0, Dξ = σξ — середньоквадратичне (стандартне) вiдхилення.
2. Dξ = 0 ⇔ ξ = const, бо Dc = E(c − Ec)2 = 0.
3. Для обчислення дисперсiї бiльш зручною є наступна формула:
Dξ = E(ξ 2 − 2ξEξ + (Eξ)2 ) = Eξ 2 − 2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2 .
2 2
4. D(c·ξ) = c2 ·Dξ, оскiльки D(c·ξ) = E (c · ξ − E(c · ξ))2 = E (c · ξ − c · Eξ) = c2 ·E (ξ − Eξ) =
c2 · Dξ, c — константа.
5. D(ξ + c) = E(ξ + c − E(ξ + c))2 = E(ξ + c − Eξ − Ec) = E(ξ − Eξ)2 = Dξ, c — константа.

Означення 2.2.4. Центрованою випадковою величиною, що вiдповiдає випадковiй величинi


ξ, називається випадкова величина ˚ ξ = 0 та Eξ˚2 = Dξ.
ξ = ξ − Eξ. Для неї E˚
6. Якщо випадковi величини ξ1 та ξ2 — незалежнi, то D (ξ1 + ξ2 ) = Dξ1 + Dξ2 .

Доведення. D (ξ1 + ξ2 ) = E((ξ1 + ξ2 ) − E(ξ1 + ξ2 ))2 = E(˚


ξ1 + ˚
ξ2 )2 = E˚
ξ12 + 2E˚
ξ1˚
ξ2 + E˚
ξ22 =
˚2 ˚ ˚ ˚2 ˚2 ˚2
Eξ1 + 2Eξ1 Eξ2 + Eξ2 = Eξ1 + Eξ2 = Dξ1 + Dξ2 . N

2.2.3 Моменти випадкової величини


Означення 2.2.5. Початковим моментом k-того порядку (k ∈ N) ВВ ξ називається
n(∞)
+∞
P k
xm P {ξ = xm } , ξ — ДВВ
Z 


αk = Eξ k = xk dFξ (x) = m=1
+∞
R k (3)
x fξ (x)dx, ξ — НВВ


−∞ 
−∞

Означення 2.2.6. Центральним моментом k-того порядку (k ∈ N) ВВ ξ називається


n(∞)
+∞
P k
(xm − Eξ) P {ξ = xm } , ξ — ДВВ
Z 


k k
βk = E˚k
ξ = E (ξ − Eξ) = m=1
(x − Eξ) dFξ (x) = +∞
R k
(x − Eξ) fξ (x)dx, ξ — НВВ


−∞ 
−∞
(4)

22
Роздiл 2. Випадковi величини.

Зв’язок мiж центральними та початковими!моментами


k k
k
Ckj ξ j (−1)k−j (Eξ)k−j = (−1)k−j Ckj Eξ j (Eξ)k−j .
P P
βk = E (ξ − Eξ) = E
j=0 j=0
k
(−1)k−j Ckj αj (α1 )k−j . Частковим випадком цiєї формули є формула для дис-
P
Отже, βk =
j=0
персiї: Dξ = β2 = α2 − α12 = Eξ 2 − (Eξ)2 .
Вправа. Виразити через початковi моменти β3 та β4 .
Розглядаються також абсолютнi початковi моменти E|ξ|k , абсолютнi центральнi моменти
E|ξ − Eξ|k та факторiальнi моменти γk = E (ξ(ξ − 1)...(ξ − k + 1)).

2.2.4 Мода та медiана випадкової величини


Означення 2.2.7. Модою M oξ називається абсциса точки максимуму щiльностi розподiлу
у випадку НВВ та значення, ймовiрнiсть появи якого є найбiльшим у випадку ДВВ.
Унiмодальний закон — такий, що має лише одну моду. Полiмодальний закон — такий,
що має декiлька мод. Антимодальний закон — такий, що не має моди. Приклад — закон
арксинуса, щiльнiсть якого має лише точку мiнiмуму.
1
Означення 2.2.8. Точка x0 називається медiаною M eξ, якщо P {ξ < x0 } = P {ξ ≥ x0 } = 2 ⇔
Fξ (x0 ) = 21 . Медiана є окремим випадком квантиля.
Означення 2.2.9. Точка x0 називається квантилем q-го порядку якщо Fξ (x0 ) = q.
Приклад. Знайти моду та медiану НВВ, розподiленої за законом Релея.
fξ (x)
x2
(
x − 2σ
σ 2e
2
, x≥0
fξ (x) = (σ > 0)
0, x<0

x
2 2 x2
Для визначення моди знайдемо максимум fξ (x) при x ≥ 0. fξ0 (x) = σ σ−x 4 e− 2σ2 = 0 при
x2
 3

x = σ. fξ00 (x) = − σ3x4 + σx6 e− 2σ2 , fξ00 (σ) = − σ23 e− 2 < 0. Отже, в точцi x = σ дiйсно максимум
1

fξ (x), тому M oξ = σ.
Rx0 Rx0 x
x − 2σ
2
Медiану знайдемо з рiвностi P {ξ < x0 } = 0.5. P {ξ < x0 } = fξ (x)dx = σ2 e
2
dx =
−∞ 0
x2
0 x2
0 √
1 − e− 2σ2 . З рiвняння 1 − e− 2σ2 = 0.5 знаходимо x0 = σ 2 ln 2.

2.2.5 Асиметрiя та ексцес випадкової величини


Означення 2.2.10. Асиметрiєю випадкової величини Asξ називається безрозмiрна число-
3
ва характеристика, що дорiвнює σβ33 = E(ξ−Eξ)
(Dξ) 3/2 . Ця характеристика показує порушення чи
ξ
наявнiсть симетрiї кривої розподiлу вiдносно математичного сподiвання.

Eξ Eξ Eξ
Asξ = 0 Asξ < 0 Asξ > 0
Означення 2.2.11. Ексцесом випадкової величини Exξ називається безрозмiрна числова ха-
4
рактеристика, що дорiвнює Exξ = σβ44 −3 = E(ξ−Eξ)
(Dξ)2 −3. Ця характеристика показує, наскiльки
ξ
швидко крива розподiлу прямує до точки максимуму.

Exξ > 0 Exξ = 0


Exξ < 0

23
Роздiл 2. Випадковi величини.

2.2.6 Генератриса (твiрна функцiя) ДВВ


Означення 2.2.12. Нехай ξ — ДВВ, що приймає цiлi невiд’ємнi значення. Генератрисою
(твiрною функцiєю) цiєї ДВВ називається функцiя комплексного аргументу

X
Gξ (z) = P {ξ = k} z k (5)
k=0

Властивостi генератриси:
1. Вiдповiдний ряд рiвномiрно збiгається принаймнi в колi |z| ≤ 1.

P∞ ∞
k
P
Доведення.
P {ξ = k} z ≤ P {ξ = k} = 1. N
k=0 k=0

2. Генератриса — аналiтична функцiя в колi |z| ≤ 1.


(k)
G (0)
3. За генератрисою можна вiдновити розподiл ξ: P {ξ = k} = ξk! .
4. За допомогою генератриси можна знайти початковi та факторiальнi моменти ξ.

Доведення. За означенням факторiальний момент γm = E (ξ(ξ − 1)...(ξ − m + 1)). Для



P
ДВВ, що розглядаються, вiн рiвний k(k − 1)(k − 2)...(k − m + 1)P {ξ = k}. З iншого
k=0
∞ ∞
(m)
G0ξ (z) k−1
G00ξ (z) k(k −1)P {ξ = k} z k−2 i так далi, Gξ
P P
боку, = kP {ξ = k} z , = (z) =
k=0 k=0

(m)
k(k − 1)(k − 2)...(k − m + 1)P {ξ = k} z k−m . Отже, γm = Gξ
P
(1).
k=0
Тепер нескладно знайти, наприклад, математичне сподiвання та дисперсiю. Факторiаль-
ний та початковий моменти першого порядку збiгаються, тому Eξ = G0ξ (1). Дисперсiю
знайдемо за допомогою другого факторiального моменту: γ2 = E (ξ(ξ − 1)) = Eξ 2 − Eξ =
 2
G00ξ (1), звiдки Eξ 2 = G00ξ (1)+G0ξ (1). Отже, Dξ = Eξ 2 −(Eξ)2 = G00ξ (1)+G0ξ (1)− G0ξ (1) . N

Вправа. Виразити через похiднi генератриси центральнi моменти 3-го та 4-го порядкiв.

2.3 Деякi закони розподiлу випадкових величин


2.3.1 Бiномiальний розподiл
Означення: ДВВ ξ розподiлена за бiномiальним законом, якщо набуває значень 0, 1, ..., n з
ймовiрностями
P {ξ = k} = Cnk pk q n−k , q = 1 − p (1)
Коротке позначення: ξ ∼ Bin(n, p). n i p — параметри закону, n ∈ N, p ∈ (0; 1).
Окремим важливим випадком бiномiального закону є розподiл Бернуллi
( : ξ ∼ Bin(1, p). За
0, подiя A не вiдбулась
законом Бернуллi розподiленi випадковi величини-iндикатори IA =
1, подiя А вiдбулась
при P(A) = p.
Ряд розподiлу:
ξ 0 1 2 ... n
n n−1 2 2 n−2
p q npq Cn p q ... pn
Функцiя розподiлу:
 Fξ (x)


 0, x≤0 1
n
q , 0 < x ≤ 1




Fξ (x) = q n + npq n−1 , 1 < x ≤ 2

. . .


Приклад для


1, x>n n = 5, p = 0.6
0 1 2 3 4 5 x
Для дослiдження числових характеристик скористаємося генератрисою розподiлу:

24
Роздiл 2. Випадковi величини.

n n
P {ξ = k} z k = Cnk pk q n−k z k = (pz + q)n . G0ξ (z) = np(pz + q)n−1 , G00ξ (z) =
P P
Gξ (z) =
k=0 k=0
n(n − 1)p2 (pz + q)n−2 .
 2
G0ξ (1) = np(p + q)n−1 = np, G00ξ (1) = n(n − 1)p2 = n2 p2 − np2 , G00ξ (1) + G0ξ (1) − G0ξ (1) =
n2 p2 − np2 + np − n2 p2 = np(1 − p) = npq. Отже, знайдено значення математичного сподiвання
та дисперсiї.
Числовi характеристики:
1. Eξ = np.

( σξ = npq.
2. Dξ = npq,
[np + p] , якщо np + p не цiле
3. M oξ = — як найбiльш ймовiрна кiлькiсть успiхiв
np + p, np − q, якщо np + p цiле
у схемi Бернуллi.
4. M eξ — одне зi значень [np] − 1, [np], [np] + 1.
Застосування: якщо проводиться n незалежних випробувань з ймовiрнiстю успiху p, то
ξ ∼ Bin(n, p) задає кiлькiсть успiхiв.

2.3.2 Геометричний розподiл


Означення: ДВВ ξ розподiлена за геометричним законом, якщо набуває значень 1, 2, 3, .. з
ймовiрностями
P {ξ = k} = pq k−1 , q = 1 − p (2)
Коротке позначення: ξ ∼ Geom(p). p — параметр закону, p ∈ (0; 1).
Ряд розподiлу:
ξ 1 2 3 ... k ...
p p pq pq 2 ... pq k−1 ...
Функцiя розподiлу:


 0, x≤1 Fξ (x)




 p, 1<x≤2 1

p + pq, 2<x≤3


Fξ (x) = . . .


 k−1
 P pq m = 1 − q k , k < x ≤ k + 1


 Приклад для
m=0

 p = 0.5
...

0 1 2 3 4 5 x
Для дослiдження числових характеристик скористаємося генератрисою розподiлу:
∞ ∞
pz p
P {ξ = k} z k = pq k−1 z k = 1−qz , якщо |qz| < 1. G0ξ (z) = (1−qz) 00
P P
Gξ (z) = 2 , Gξ (z) =
k=1 k=1
 2
2pq 2q
0 1 00 00 0
(1−qz)3 . Gξ (1) = p , Gξ (1) = p2 , Gξ (1) + Gξ (1) − Gξ (1)
0
= p2q2 + p1 − p12 = 2q+p−1
p2 = pq2 . Отже,
знайдено значення математичного сподiвання та дисперсiї.
Числовi характеристики:
1. Eξ = p1 .

q
2. Dξ = pq2 , σξ = p .
3. M oξ = h1. i
4. M eξ = log −1 .
2 (1−p)
Застосування: якщо проводяться незалежнi випробування з ймовiрнiстю успiху p до пер-
шого успiшного, то ξ, що задає кiлькiсть проведених випробувань, має розподiл Geom(p).
Вправа. Записати ряд розподiлу, функцiю розподiлу, генетратрису та обчислити числовi ха-
рактеристики для iншого означення геометричного розподiлу, де ξ приймає значення 0, 1, 2, ...
з ймовiрностями P {ξ = k} = pq k .
Геометричний розподiл «не має пам’ятi»: P {ξ = n + m/ξ ≥ n} = P {ξ = m}. Це означає,
що кiлькiсть минулих «невдач» не впливає на кiлькiсть майбутнiх «невдач».
Вправа. Довести цю властивiсть i те, що геометричний розподiл — єдиний дискретний роз-
подiл, що «не має пам’ятi».

25
Роздiл 2. Випадковi величини.

До геометричного закону можна звести закон розподiлу Паскаля ξ ∼ Pas(a), що задається


ak 1 2
P {ξ = k} = (1+a) k+1 , k = 0, 1, 2, ..., a > 0, замiною p = a+1 . Для нього Eξ = a, Dξ = a + a .

2.3.3 Розподiл Пуассона


Означення: ДВВ ξ розподiлена за законом Пуассона, якщо набуває значень 0, 1, 2, .. з ймо-
вiрностями
ak −a
P {ξ = k} = e (3)
k!
Коротке позначення: ξ ∼ Poiss(a). a — параметр закону, a > 0.
Ряд розподiлу:
ξ 0 1 2 ... k ...
−a −a a2 −a ak −a
p e ae 2 e ... k! e ...
Функцiя розподiлу:


 0, x≤0 Fξ (x)

−a 1
e , 0<x≤1




−a −a

e + ae , 1 < x ≤ 2


Fξ (x) = . . .

 k−1

 P am −a
 e k−1<x≤k Приклад для
m=0 m!



 a=2
...

0 1 2 3 4 5 x
Для дослiдження числових характеристик скористаємося генератрисою розподiлу:
∞ ∞ k
P {ξ = k} z k = e−a a k
= e−a(1−z) . G0ξ (z) = aeaz−a , G00ξ (z) = a2 eaz−a .
P P
Gξ (z) = k! z
k=0 k=0
 2
G0ξ (1) = a, G00ξ (1) = a2 , G00ξ (1) + G0ξ (1) − G0ξ (1) = a2 + a − a2 = a. Отже, знайдено значення
математичного сподiвання та дисперсiї.
Числовi характеристики:
1. Eξ = a. √
2. Dξ = a, σξ = a.
3. M oξ = [a].
4. M eξ ≈ [a + 1/3 − 0.02/a].

2.3.4 Потiк Пуассона


Потоком називають послiдовнiсть подiй, якi наступають в певнi моменти часу одна за
одною. Потiк характеризується випадковою величиною ξ(t) — кiлькiстю подiй, що наступили
протягом промiжку часу [0; t). Ймовiрностi P {ξ(t) = m} позначаються pm (t).
Накладемо на потiк такi вимоги:
1. Стацiонарнiсть (однорiднiсть) — кiлькiсть подiй, що наступають за певний промiжок
часу, залежить лише вiд довжини промiжку i не залежить вiд того, де цей промiжок
розташований на часовiй осi.
2. Вiдсутнiсть пiслядiї — якщо промiжки часу не перетинаються, то кiлькостi подiй, якi
за цi промiжки вiдбулися, є незалежними подiями.
3. Ординарнiсть — подiї наступають поодинцi, тобто P {ξ(t + ∆t) − ξ(t) = 1} = λ·∆t+o(∆t)
(λ > 0 — параметр iнтенсивностi) i P {ξ(t + ∆t) − ξ(t) ≥ 2} = o(∆t).
Означення 2.3.1. Потiк, що має перелiченi властивостi, називається потоком Пуассона.
Отримаємо явний вираз для ймовiрностей pm (t) у потоцi Пуассона.
Позначимо p̃k (t + ∆t) = P {ξ(t + ∆t) − ξ(t) = k}. Тодi pm (t + ∆t) = pm (t) · p̃0 (t + ∆t) +
pm−1 (t) · p̃1 (t + ∆t) + pm−2 (t) · p̃2 (t + ∆t) + ... + p0 (t) · p̃m (t + ∆t) для m ≥ 1, для m = 0
p0 (t + ∆t) = p0 (t) · p̃0 (t + ∆t). Застосуємо ординарнiсть:
p0 (t + ∆t) = p0 (t) · (1 − λ · ∆t + o(∆t))
pm (t + ∆t) = pm (t) · (1 − λ · ∆t + o(∆t)) + pm−1 (t) · (λ · ∆t + o(∆t)) + o(∆t)
Розкриємо дужки:
p0 (t + ∆t) − p0 (t) = −λ · ∆t · p0 (t) + o(∆t)
pm (t + ∆t) − pm (t) = −λ · ∆t · pm (t) + λ · ∆t · pm−1 (t) + o(∆t)

26
Роздiл 2. Випадковi величини.

Подiлимо на ∆t та перейдемо до границi при ∆t → 0. Отримаємо систему диференцiальних


рiвнянь:
(
p00 (t) = −λp0 (t)
p0m (t) = −λpm (t) + λpm−1 (t), m ≥ 1
Щоб розв’язати цю систему, введемо генератрису ймовiрностей pm (t):
∞ ∞
P {ξ(t) = m} z m = pm (t)z m
P P
Gξ (z, t) =
m=0 m=0
Помножимо кожне рiвняння отриманої системи на z у вiдповiдному степенi та складемо:
∞ ∞ ∞ ∞ ∞
p0m (t)z m = −λ pm (t)z m + λ pm−1 (t)z m = −λ pm (t)z m + λz pm (t)z m
P P P P P
m=0 m=0 m=1 m=0 m=0
Отримали диференцiальне рiвняння для генератриси:
∂Gξ
∂t = −λGξ + λzGξ = −λ(1 − z)Gξ
Його розв’язком буде Gξ (z, t) = C(z) · e−λ(1−z)t . Оскiльки Gξ (z, 0) = 1, то C(z) = 1.
Отже, генератриса рiвна Gξ (z, t) = e−λ(1−z)t — це генератриса закону Пуассона з параме-
тром a = λt.
m
Таким чином, pm (t) = (λt)m! e
−λt
. Тепер зрозумiлою стає назва параметру λ («iнтенсив-

нiсть»): Eξ = λt, λ = t — середня кiлькiсть подiй за одиницю часу.

2.3.5 Рiвномiрний розподiл


Означення: НВВ ξ розподiлена за рiвномiрним законом, якщо її щiльнiсть розподiлу має
вигляд (
1
, x ∈ ha; bi
fξ (x) = b−a (4)
0, x∈/ ha; bi
Коротке позначення: ξ ∼ U ha; bi. a i b — параметри закону, a < b, a, b ∈ R.
Розподiл U h0; 1i називається стандартним рiвномiрним розподiлом.
Крива розподiлу:

fξ (x)
1
b−a

a b x

Функцiя розподiлу:

Fξ (x)
 1
0,
 x≤a
x−a
Fξ (x) = , a<x≤b
 b−a
1, x>b

a b x

Числовi характеристики:
+∞ Rb x a+b
R
1. Eξ = xfξ (x)dx = b−a dx = 2 .
−∞ a
Rb x2 (a+b)2 (b−a)2 b−a
2. Dξ = Eξ 2 − (Eξ)2 = b−a dx − 4 = 12 , σξ = √ .
2 3
a
3. M oξ — будь-яка точка з ha; bi.
4. M eξ = a+b
2 .
5. Asξ = 0.
6. Exξ = − 56 .
Застосування: отримання вибiрок з iнших законiв розподiлу;

похибка округлення до най-
ближчої подiлки приладу при цiнi подiлки a має розподiл U − a2 ; a2 .

27
Роздiл 2. Випадковi величини.

2.3.6 Експоненцiйний (показниковий) розподiл


Означення: НВВ ξ розподiлена за експоненцiйним законом, якщо її щiльнiсть розподiлу має
вигляд (
λe−λx , x ≥ 0
fξ (x) = (5)
0, x<0
Коротке позначення: ξ ∼ Exp(λ). λ > 0 — параметр закону.
Крива розподiлу:

fξ (x)
λ

0 x

Функцiя розподiлу:

Fξ (x)
1
 Rx
λ e−λt dt = 1 − e−λx , x>0
Fξ (x) = 0
0, x≤0

0 x

Знайдемо всi початковi моменти експоненцiйного розподiлу.


+∞ +∞ +∞
R k −λx R k −t Γ(k+1)
dx = λx = t, dx = dt λ k!
 
Eξ k =
R k
x fξ (x)dx = λ x e λ = λk ·λ t e dt = λk
= λk
.
−∞ 0 0
Числовi характеристики:
1. Eξ = λ1 .
2. Dξ = Eξ 2 − (Eξ)2 = λ22 − λ12 = λ12 , σξ = λ1 .
3. M oξ = 0.
4. M eξ = lnλ2 .
2
5. Asξ = 2 — не залежить вiд λ, бо β3 = α3 − 3α2 α1 + 2α13 = λ3 .
6. Exξ = 6.
Вправа. Дослiдити (характеристики iнших варiантiв експоненцiйного розподiлу: Exp(λ, x0 ) з
λe−λ(x−x0 ) , x ≥ x0
щiльнiстю fξ (x) = (експоненцiйний iз зсувом) та Exp(α) зi щiльнiстю
0, x < x0
( x
1 −α
e , x≥0
fξ (x) = α , що вiдповiдає розглянутому варiанту, але з параметром λ = α1 .
0, x<0
Як i геометричний розподiл, експоненцiйний «не має пам’ятi». Доведемо: якщо промi-
жок часу T , розподiлений за експоненцiйним законом, тягнувся час τ , то промiжок T1 = T − τ
розподiлений так само — за експоненцiйним законом з тим самим параметром.

P {(T1 < t) ∩ (T ≥ τ )} P{τ ≤ T < t + τ }


FT1 (t) = P {T1 < t/T ≥ τ } = = =
P {T ≥ τ } 1 − P {T < τ }
FT (t + τ ) − FT (τ ) 1 − e−λ(t+τ ) − (1 − e−λτ ) e−λτ (1 − e−λt )
= −λτ
= = 1 − e−λt
1 − FT (τ ) 1 − (1 − e ) e−λτ

Отже, FT1 (t) = FT (t).


Застосування:
1. Час мiж двома сусiднiми подiями в потоцi Пуассона має експоненцiйний розподiл.

28
Роздiл 2. Випадковi величини.

Вправа. Довести цю властивiсть.


2. Як правило, час безвiдмовної роботи приладу має експоненцiйний розподiл.
Нехай в момент часу t = 0 увiмкнули прилад. Припустимо, що умовна ймовiрнiсть
виходу з ладу приладу в iнтервалi часу [t; t + ∆t) за умови, що до часу t вiн працював,
пропорцiйна ∆t i рiвна λ · ∆t + o(∆t). Нехай ξ — час безвiдмовної роботи, покладемо
Q(t) = P {ξ ≥ t}. Q(t + ∆t) = P {ξ ≥ t + ∆t} = P {ξ ≥ t} · P {ξ ≥ t + ∆t/ξ ≥ t} = Q(t) · (1 −
λ·∆t+o(∆t)). Q(t+∆t)−Q(t)
∆t = −λQ(t)+ o(∆t) 0
∆t ·Q(t), при ∆t → 0 отримаємо Q (t) = −λQ(t).
−λt
Розв’язком цього диференцiального рiвняння буде Q(t) = C · e . Оскiльки вважаємо,
що в момент часу t = 0 прилад працював, то Q(0) ( = 1 i C = 1.
1 − e−λt , t ≥ 0
Тодi Fξ (t) = P {ξ < t} = 1 − P {ξ ≥ t} = 1 − Q(t) = . Отже, ξ ∼ Exp(λ).
0, t<0

Приклад. Яка ймовiрнiсть того, що людина проживе 100 рокiв? Нехай ξ — час життя лю-
дини. Оскiльки P {ξ = 100} = 0, знайдемо P {ξ ≥ 100}. P {ξ ≥ 100} = e−λ·100 , λ = ?. Оскiль-
1
ки λ = Eξ , то, прийнявши Eξ = 70 (середня тривалiсть життя), отримаємо P {ξ ≥ 100} =
−100/70
e ≈ 0.24.

2.3.7 Гауссiвський (нормальний) розподiл


Означення: НВВ ξ розподiлена за нормальним законом, якщо її щiльнiсть розподiлу має
вигляд
1 (x−a)2
fξ (x) = √ e− 2σ2 (6)
2πσ
Коротке позначення: ξ ∼ N(a, σ) або ξ ∼ N(a, σ 2 ). a ∈ R, σ > 0 — параметри закону.
Розподiл N(0, 1) називають стандартним гауссiвським розподiлом.
Крива розподiлу:

fξ (x)

0 a−σ a a+σ x

Змiст параметрiв a та σ 2 :
+∞ (x−a)2
h √ i +∞ √ 2
1
xe− 2σ2 dx = σx−a √1 (a + σ 2t)e−t dt =
R R
1. Eξ = √2πσ √ = t, dx = σ 2dt =
2 π
−∞ −∞
+∞ 2
√a e−t dt = [iнтеграл Ейлера-Пуассона] = a.
R
= π
−∞
+∞ (x−a)2
2. Знайдемо всi центральнi моменти: βk = E(ξ − Eξ)k = √1 (x − a)k e−
R
σ 2π
2σ 2 dx =
−∞
+∞
σ k√
2k/2 2
tk e−t dt.
R
[iдентична замiна] = π
−∞
Якщо k = 2l + 1, то βk = 0 (непарна функцiя пiд iнтегралом). β3 = 0 ⇒ Asξ = 0.
Вiзьмемо k = 2l:
+∞
2l l R 2
h i +∞
2l l R
1 1
β2l = σ√π2 t2l e−t dt = t2 = z, dt = 21 z − 2 dz = 2 σ√π2 z l e−z · 12 z − 2 dz =
−∞ 0
2l l
+∞ 2l l
1
σ√ 2
z l− 2 e−z dz σ√ 2
· Γ(l + 12 ).
R
= π
= π
0
Числовi характеристики:
1. Eξ = M oξ = M eξ = a.
2
2. Dξ = 2σ
√ · Γ 3 = σ 2 , σξ = σ.

π 2
3. Asξ = 0. √
4 2
4. Exξ = σβ44 − 3 = σ ·2√π·σ
·Γ(5/2)
4 −3 = 4· π·3/4

π
− 3 = 0. Доданок −3 у формулi ексцесу був
ξ
введений саме для того, щоб нормальний розподiл мав нульовий ексцес.

29
Роздiл 2. Випадковi величини.

Функцiя розподiлу:
Rx Rx (t−a)2
Fξ (x) = fξ (t)dt = √1
2πσ
e− 2σ 2 dt — не береться в елементарних функцiях.
−∞ −∞
Для зручного використання гауссiвського закону в задачах введемо спецiальну функцiю,
значення якої занесено до таблиць.
Функцiя Лапласа:

t 2
√1 e− 2
2π S = Φ(x)
Rx t2
Φ(x) = √1

e− 2 dt
0

Властивостi функцiї Лапласа: Φ(x)


1. Φ(−x) = −Φ(x) — непарна.
0.5
2. Φ(0) = 0.
3. y = ±0.5 — горизонтальнi асимптоти.
4. ∀x ≥ 5 : Φ(x) ≈ 0.5. 0 x
5. ∀x ≤ −5 : Φ(x) ≈ −0.5.
−0.5
Виразимо функцiю розподiлу гауссiвського закону через функцiю Лапласа:
x−a
Zx   Zσ  
1 (t−a)2
− 2σ2 t−a 1 z2 1 x−a
Fξ (x) = √ e dt = =z = √ e− 2 dz = + Φ (7)
2πσ σ 2π 2 σ
−∞ −∞

Робочi формули для розв’язання задач:  


1. P {ξ ∈ hα; βi} = Fξ (β) − Fξ (α) = Φ β−a α−a

σ −Φ σ .
a−−a a+−a
= 2Φ( σε ).
 
2. P {|ξ − a| < ε} = P {ξ ∈ (a − ε, a + ε)} = Φ σ σ −Φ
3. «Правило 3σ»: P {|ξ − a| < 3σ} = P {ξ ∈ (a − 3σ; a + 3σ)} = 2Φ (3) ≈ 0.9973.
Майже всi значення випадкової величини, розподiленої за гауссiвським законом, лежать
на вiдстанi не бiльше трьох середньоквадратичних вiдхилень вiд її математичного спо-
дiвання.

2.3.8 Гамма-розподiл
Означення: НВВ ξ розподiлена за гамма-законом, якщо її щiльнiсть розподiлу має вигляд
( α
β
xα−1 e−βx , x ≥ 0
fξ (x) = Γ(α) (8)
0, x<0

Коротке позначення: ξ ∼ Γ(α, β). α > 0, β > 0 — параметри закону.


Зауваження. Γ(1, λ) = Exp(λ).
Крива розподiлу:

fξ (x)

α=2
β=1

0 x

30
Роздiл 2. Випадковi величини.

fξ (x)

α=1
β = 1/2

0 x

Функцiя розподiлу:
 Fξ (x)
0, x≤0 1
Fξ (x) = Rx γ(α,βx)
 fξ (t)dt = Γ(α) , x>0
0
Rx
де γ(s, x) = ts−1 e−t dt
0

0 x
Знайдемо всi початковi моменти гамма-розподiлу.
+∞ +∞ +∞
βα βα
R k α−1 −βx
Eξ k = 1
tk+α−1 e−t dt =
R k R
x fξ (x)dx = Γ(α) x x e dx = [βx = t] = Γ(α) · β k ·β α
−∞ 0 0
+∞
1
R k+α−1 −t Γ(α+k) Γ(α+1) α 2 Γ(α+2) (α+1)α
Γ(α)·β k
t e dt = Γ(α)·β k
. Зокрема, Eξ = Γ(α)·β = β, Eξ = Γ(α)·β 2 = β2 .
0
Числовi характеристики:
1. Eξ = α
β.
2

2. Dξ = Eξ 2 − (Eξ)2 = (α+1)α
β2 −α α α
β 2 = β 2 , σξ = β .
3. M oξ = α−1
β .
4. M eξ — немає виразу у замкненiй формi.
5. Asξ = √2α .
6. Exξ = α6 .
Застосування: гамма-розподiл застосовується для моделювання складних потокiв подiй, в
економiцi, теорiї масового обслуговування, логiстицi. У випадку натурального параметру α =
k ∈ N за законом Γ(k, λ) розподiлений час очiкування появи k-тої подiї в процесi Пуассона з
iнтенсивнiстю λ. Така версiя гамма-розподiлу називається розподiлом Ерланга.
Вправа. Нехай T — час очiкування появи k-тої подiї в процесi Пуассона з iнтенсивнiстю λ.
Довести T ∼ Γ(k, λ).

31
Роздiл 3

Випадковi вектори

3.1 Дискретнi випадковi вектори


Означення 3.1.1. Вимiрна функцiя Ω → Rn , задана на ймовiрнiсному просторi {Ω, F, P},
називається випадковим вектором (системою випадкових величин). Позначається ξ~ = ξ(ω)
~ =
T
(ξ1 (ω), ξ2 (ω), ..., ξn (ω)) .
Зауваження. Пiд вимiрнiстю мається на увазi те, що

∀~x ∈ Rn : A = {ω ∈ Ω : ξ1 (ω) < x1 , ξ2 (ω) < x2 , ..., ξn (ω) < xn } ∈ F

Означення 3.1.2. Випадковий вектор називається дискретним, якщо всi його координати
— дискретнi випадковi величини.
Зауваження. Випадковий вектор можна трактувати як випадкову точку в Rn . При n = 2:
ξ~ = (ξ1 , ξ2 )T — випадкова точка на площинi.
Закон розподiлу двовимiрного дискретного випадкового вектора задається таблицею роз-
подiлу.
y
ξ1
x1 x2 ... xn ym
ξ2 ..
y1 p11 p21 ... pn1 .
y2 p12 p22 ... pn2 y2
... ... ... pij ... y1
ym p1m p2m ... pnm
x1 x2 ... xn x
P
pij = P {ξ1 = xi , ξ2 = yj }, pij = 1.
i,j
З таблицi розподiлу можна обчислити ряди розподiлу ξ1 та ξ2 :
ξ1 x1 x2 ... xn ξ2 y1 y2 ... ym
m
P Pm Pm n
P n
P n
P
p p1k p2k ... pnk p pk1 pk2 ... pkm
k=1 k=1 k=1 k=1 k=1 k=1
Зауваження. Обчислити таблицю розподiлу, знаючи ряди розподiлу координат, можна лише
у випадку їх незалежностi.

3.1.1 Сумiсна функцiя розподiлу двовимiрного випадкового вектора


Означення 3.1.3. Сумiсною функцiєю розподiлу двовимiрного випадкового вектора ξ~ нази-
вається Fξ~(x, y) = P {ω : ξ1 < x, ξ2 < y}, x, y ∈ R.

Геометрична iнтерпретацiя: Значення Fξ~(x, y) рiвне iмовiрностi потрапляння точки в


заштриховану зону.

32
Роздiл 3. Випадковi вектори.

(x, y)

Fξ~(x, y)

x
Властивостi:
1. D(Fξ~) = R2 , E(Fξ~) = h0; 1i.
2. Монотонно неспадна по кожнiй з координат.
Доведення. A = {ξ1 < x2 , ξ2 < y}, B = {x2 ≤ ξ1 < x1 , ξ2 < y}, C = {ξ1 < x1 , ξ2 < y},
x1 > x2 . C = A ∪ B ⇒ P(C) = P(A) + P(B), P(C) = Fξ~(x1 , y), P(A) = Fξ~(x2 , y).
Fξ~(x1 , y) = Fξ~(x2 , y) + P(B) ⇒ Fξ~(x1 , y) ≥ Fξ~(x2 , y).
Для другої координати аналогiчно. N
3. lim Fξ~(x, y) = lim Fξ~(x, y) = lim Fξ~(x, y) = 0.
x→−∞ y→−∞ x,y→−∞

Доведення. Строге доведення ґрунтується на теоремах про неперервнiсть ймовiрностi.


lim Fξ~(x, y) = lim P {ξ1 < x, ξ2 < y} = [використаємо теорему про неперервнiсть
x→−∞ x→−∞
ймовiрностi] = P(∅ ∩ {ξ2 < y}) = P(∅) = 0. Iншi випадки — аналогiчно. N
4. «Умови узгодженостi»: lim Fξ~(x, y) = Fξ2 (y), lim Fξ~(x, y) = Fξ1 (x).
x→+∞ y→+∞

Доведення. lim Fξ~(x, y) = lim P (ξ1 < x, ξ2 < y) = P (ξ1 < +∞, ξ2 < y) =
x→+∞ x→+∞
= P (ξ2 < y) = Fξ2 (y). Iнша — аналогiчно. N
5. lim Fξ~(x, y) = 1.
x,y→+∞

Доведення. Випливає з умов узгодженостi. N


6. Функцiя розподiлу є неперервною злiва по кожному з аргументiв:
lim Fξ~(x, y) = Fξ~(x0 , y), lim Fξ~(x, y) = Fξ~(x, y0 ).
x→x0 −0 y→y0 −0

Доведення. Доведення аналогiчне одновимiрному випадку (твердж. 5, с. 18). N


n o
7. Π = [a; b) × [c; d). P ξ~ ∈ Π = ?
Введемо подiї A = {ξ1 < a, ξ2 < c},
y B = {ξ
n 1 ∈ [a;ob), ξ2 < c}, C = {ξ1 < a, ξ2 ∈ [c; d)},
d Π D = ξ~ ∈ Π , E = {ξ1 < b, ξ2 < d}. E = A ∪ B ∪ C ∪ D,
c причому A, B, C, D — попарно несумiснi, тому P(E) =
P(A)+P(B)+P(C)+P(D). P(E) = F (b, d), P(A) = F (a, c),
P(B) = Fn(b, c) −oF (a, c), P(C) = F (a, d) − F (a, c).
a b x
Отже, P ξ~ ∈ Π = F (b, d) + F (a, c) − F (b, c) − F (a, d).

3.1.2 Побудова функцiї розподiлу дискретного випадкового вектора


ξ1
1 2
ξ2
Нехай двовимiрний випадковий вектор задано таблицею розподiлу:
0 0.3 0.4
1 0.2 0.1
Значення функцiї розподiлу також зручно звести в таблицю:
x x≤1 1<x≤2 x>2
y
y≤0 0 0 0
0<y≤1 0 0.3 0.7
y>1 0 0.5 1
Останнiй рядок таблицi — значення Fξ1 (x), останнiй стовпчик — значення Fξ2 (y).

33
Роздiл 3. Випадковi вектори.

3.1.3 Сумiсна функцiя розподiлу n-вимiрного вектора


Означення 3.1.4. Сумiсною функцiєю розподiлу n-вимiрного випадкового вектора ξ~ нази-
вається Fξ~(~x) = P {ω : ξ1 < x1 , ξ2 < x2 , ..., ξn < xn }, ~x ∈ Rn .
Властивостi:
1. Є монотонно неспадною по кожнiй координатi.
2. Є неперервною злiва по кожнiй координатi.
3. ∀k = 1, ..., n : (xk → −∞) ⇒ (Fξ~(~x) → 0).
4. lim Fξ~(~x) = 1.
x1 ,...,xn →+∞
5. «Умови узгодженостi»: ∀k = 1, ..., n : Fξk (xk ) = Fξ~(+∞, ..., +∞, xk , +∞, ..., +∞), ∀k <
n : Fξ1 ξ2 ...ξk (x1 , x2 , ..., xk ) = Fξ~(x1 , x2 , ..., xk , +∞, ..., +∞).
Вправа. Довести цi властивостi.

3.2 Неперервнi випадковi вектори


~
Означення 3.2.1. Вимiрна функцiя ξ(ω) : Ω → Rn називається неперервним випадковим
вектором, якщо координати ξi є неперервними випадковими величинами для i = 1, ..., n.
Функцiя розподiлу Fξ~ (~x) = P {ω : ξ1 (ω) < x1 , ..., ξn (ω) < xn } є неперервною по всiм аргу-
ментам.

3.2.1 Щiльнiсть розподiлу двовимiрного неперервного випадкового


вектора
Означення 3.2.2. Щiльнiстю розподiлу двовимiрного випадкового вектора називається по-
двiйна границя n o
P ξ~ ∈ Π
fξ~(x, y) = lim (1)
∆x→0 ∆x∆y
∆y→0

де Π = [x; x + ∆x] × [y; y + ∆y].


Зауваження. В означеннi замiсть прямокутника можна брати будь-яку обмежену замкнену
множину D i тодi
n o
P ξ~ ∈ D
fξ~(x, y) = lim , де S(D) — площа множини D
S(D)→0 S(D)
Зв’язок щiльностi розподiлу з сумiсною функцiєю розподiлу:
n o
P ξ~ ∈ Π
!
Fξ~(x + ∆x, y + ∆y) − Fξ~(x, y + ∆y) Fξ~(x + ∆x, y) − Fξ~(x, y)
lim = lim − =
∆x→0 ∆x∆y ∆x→0 ∆x∆y ∆x∆y
∆y→0 ∆y→0

= [формула Лагранжа про скiнченнi прирости, θ1 , θ2 ∈ (0, 1)] =


!
∂F ∂F
∂x (x + θ1 ∆x, y + ∆y)∆x ∂x (x + θ2 ∆x, y)∆x
= lim − =
∆x→0 ∆x∆y ∆x∆y
∆y→0
∂2F
∂x∂y (x + θ3 ∆x, y + θ4 ∆y)∆y ∂ 2 Fξ~
= [θ3 , θ4 ∈ (0, 1)] = lim = (x, y)
∆x→0 ∆y ∂x∂y
∆y→0

∂ 2 Fξ~
Таким чином, якщо iснує неперервна друга похiдна ∂x∂y , то

∂ 2 Fξ~
fξ~(x, y) = (x, y) (2)
∂x∂y
Означення 3.2.3. Поверхня, що є графiком щiльностi двовимiрного випадкового вектора,
називається поверхнею розподiлу.

34
Роздiл 3. Випадковi вектори.

Означення 3.2.4. Лiнiї, де fξ (x, y) = const, називаються лiнiями рiвних ймовiрностей.


Властивостi щiльностi:
1. fξ~(x, y) ≥ 0.
Rx Ry
2. З формули 2: Fξ~(x, y) = fξ~(t, s)dtds.
−∞ −∞
R R∞
+∞
3. Умова нормування: fξ~(t, s)dtds = 1 — об’єм пiд поверхнею розподiлу дорiвнює 1.
−∞ −∞
Rx +∞
R
4. Fξ1 (x) = fξ~(t, s)dtds.
−∞ −∞
R Ry
+∞
Fξ2 (y) = fξ~(t, s)dtds.
−∞ −∞
5. Щiльностi розподiлу окремих координат називаються маргiнальними щiльностями.
+∞
fξ1 (x) = Fξ01 (x) =
R
fξ~(x, y)dy.
−∞
+∞
fξ2 (y) = Fξ02 (y) =
R
fξ~(x, y)dx.
−∞ n o RR
6. D — замкнена обмежена область в R2 . P ξ~ ∈ D = fξ~(x, y)dxdy.
D
7. Якщо координати випадкового вектора ξ1 та ξ2 незалежнi, то Fξ~(x, y) = Fξ1 (x) · Fξ2 (y),
∂ 2 Fξ~(x,y) ∂ 2 (Fξ1 (x)Fξ2 (y))
i тодi fξ~(x, y) = ∂x∂y = ∂x∂y = Fξ01 (x)Fξ02 (y) = fξ1 (x) · fξ2 (y).

3.2.2 Рiвномiрний закон розподiлу на площинi


Означення 3.2.5. D — замкнена обмежена область в R2 . Вектор ξ~ = (ξ1 , ξ2 )T називається
рiвномiрно розподiленим в областi D, якщо
(
1
, (x, y) ∈ D
fξ~(x, y) = S(D)
0, (x, y) ∈
/D

( 1
2, (x, y) ∈ D y =1−x
Приклад. fξ~(x, y) =
0, (x, y) ∈
/D D
0 1 x

+∞
R 0,
 x ≤ 0 або x > 1
1. fξ1 (x) = fξ~(x, y)dy = 1−x
R
−∞ 
 2dy = 2(1 − x), 0<x≤1
 0
+∞
R 0,
 y ≤ 0 або y > 1
fξ2 (y) = fξ~(x, y)dx = 1−y
R
−∞ 
 2dx = 2(1 − y), 0<y≤1
0
2. Функцiї розподiлу координат:


 0, x≤0
Rx  Rx

2
Fξ1 (x) = fξ1 (t)dt = 2 (1 − t)dt = 2(x − x2 ) = 2x − x2 , 0 < x ≤ 1
−∞ 
 0

1, x > 1

0, y≤0
Ry

Fξ2 (y) = fξ2 (t)dt = 2y − y 2 , 0 < y ≤ 1
−∞ 
1, y > 1

3. Сумiсна функцiя розподiлу будується за допомогою розбиття площини R2 на областi,
в яких функцiя розподiлу має однаковий вигляд, оскiльки для рiвномiрного розподiлу
ймовiрнiсть потрапляння в певну область пропорцiйна її площi:

35
Роздiл 3. Випадковi вектори.

Rx Ry
Fξ~(x, y) = fξ~(t, s)dtds
−∞ −∞
(x, y) ∈ D2
s D2 = {(x, y) : x ∈ [0, 1] , y ∈ [1 − x, 1]}
D4 D5 Fξ~(x, y) = 2(xy − 21 (x−1+y)(y −1+x))

D2 (x, y) ∈ D3
D3
D1 D3 = {(x, y) : x > 1, y ∈ [0, 1]}
t Fξ~(x, y) = 2 1+1−y
2 y = y(2 − y)
D0

(x, y) ∈ D0 (x, y) ∈ D4
D0 = {(x, y) : x ≤ 0 ∨ y ≤ 0} D4 = {(x, y) : y > 1, x ∈ [0, 1]}
Fξ~(x, y) = 0 Fξ~(x, y) = 2 1+1−x
2 x = x(2 − x)

(x, y) ∈ D1 (x, y) ∈ D5
D1 = {(x, y) : x ∈ [0, 1] , y ∈ [0, 1 − x]} D5 = {(x, y) : x > 1 ∧ y > 1}
Fξ~(x, y) = 2xy Fξ~(x, y) = 1

Зауваження. Перевiрити правильнiсть побудови функцiї розподiлу можна за допомогою умов


узгодженостi, перевiрки точок стику та неперервностi на лiнiях стику.

3.2.3 Щiльнiсть розподiлу n-вимiрного неперервного випадкового ве-


ктора
Означення 3.2.6. Щiльнiстю розподiлу n-вимiрного неперервного випадкового вектора ξ~ =
T
(ξ1 , ξ2 , ..., ξn ) називається границя
n o
P ξ~ ∈ Π
fξ~(~x) = lim , (3)
∆xi →0 ∆x1 ...∆xn
∀i=1,n

де Π = [x1 ; x1 + ∆x1 ] × ... × [xn ; xn + ∆xn ].


∂ n Fξ~(~
x)
Якщо iснує неперервна похiдна ∂x1 ...∂xn , то

∂ n Fξ~
fξ~(~x) = (~x) (4)
∂x1 ...∂xn
Властивостi щiльностi:
1. fξ~(~x) ≥ 0.
+∞
R +∞
R
2. ... fξ~(~x)dx1 ...dxn = 1.
−∞ −∞
Rx1 x
Rn
3. Fξ~(~x) = ... fξ~(~t)dt1 ...dtn .
−∞ −∞
Rx1 x
Rk +∞ +∞
fξ~(~t)dt1 ...dtn .
R R
4. Fξ1 ξ2 ...ξk (x1 , ..., xk ) = ... ...
−∞ −∞ −∞ −∞
+∞ Rxi +∞
fξ~(~t)dt1 ...dtn .
R R
Fξi (xi ) = ... ...
−∞ −∞ −∞
+∞
Z +∞
Z
5. fξ1 ...ξk (x1 , ..., xk ) = ... fξ~(~x)dxk+1 ..dxn .
−∞ −∞
| {z }
n n−k
o RR R
6. D — замкнена обмежена область в Rn , P ξ~ ∈ D = ... D fξ~(~x)dx1 ...dxn .
7. Якщо координати ξ1 , ..., ξn незалежнi у сукупностi (тобто, подiї {ω : ξik (ω) < xik } неза-
лежнi для всiх xik та i1 , i2 , ...ir ∈ {1, ..., n}), то fξ~(x1 , ..., xn ) = fξ1 (x1 ) · ... · fξn (xn ).
Вправа. Довести властивостi щiльностi.

36
Роздiл 3. Випадковi вектори.

3.3 Числовi характеристики випадкових векторiв


3.3.1 Математичне сподiвання випадкових векторiв
Означення 3.3.1. Математичним сподiванням Eξ~ випадкового вектора ξ~ називається ве-
T
ктор (Eξ1 , ..., Eξn ) .
Зауваження. Математичне сподiвання випадкового вектора ще називають центром розсiю-
вання.
Способи знаходження:
1. Знайти закони розподiлу окремих координат, а далi — математичнi сподiвання цих ко-
ординат.
2. Знайтиматематичнi сподiвання координат одразу.
PДля ξ~ = (ξ1 , ξ2 )T :
ξ~ — ДВВ ξ~ — ДВВ
PP P

 xi pij , 
 yj pij ,
i j j i
 
Eξ1 = +∞
R +∞ , Eξ2 = +∞ R +∞ .
xfξ~(x, y)dxdy, ξ~ — НВВ yfξ~(x, y)dxdy, ξ~ — НВВ
 R  R

 

−∞ −∞ P −∞ −∞
В загальному випадку для ДВВ Eξk = (xk )ik pi1 i2 ...in , де iндекс ik пробiгає кiль-
i1 ,i2 ,...,in
+∞
R +∞
R
кiсть значень, що приймає координата xk , для НВВ Eξk = ... xk fξ~(~x)dx1 ...dxn .
−∞ −∞

3.3.2 Мiшанi початковi та центральнi моменти випадкових векторiв


Означення 3.3.2. Мiшаним початковим моментом порядку k1 + k2 + ... + kn (ki ∈ N) ви-
T
падкового вектора ξ~ = (ξ1 , ..., ξn ) називається число

αk1 +k2 +...+kn = Eξ1k1 ...ξnkn

Зауваження. Eξ1 = α1+0+...+0 , Eξ2 = α0+1+...+0 , ..., Eξn = α0+0+...+1 .


Означення 3.3.3. Мiшаним центральним моментом порядку k1 + k2 + ... + kn (ki ∈ N)
T
випадкового вектора ξ~ = (ξ1 , ..., ξn ) називається число

βk1 +k2 +...+kn = E˚ ξnkn , ξ˚k = ξk − Eξk


ξ1k1 ...˚

Зауваження. Всi центральнi моменти 1-го порядку — нульовi.


Центральнi моменти порядку 0 + ... + 0 + 2 + 0 + ... + 0 — дисперсiї вiдповiдних координат:
∀k = 1, n: β0+...+0+2+0+...+0 = E˚
ξk2 = Dξk
k
Дисперсiї координат задають розсiювання вздовж вiдповiдних координатних осей.
Означення 3.3.4. Кореляцiйним моментом або коварiацiєю випадкових величин ξi та ξj
називається мiшаний центральний момент порядку 0 + ... + 0 + 1 + 0 + ... + 0 + 1 + 0 + .... + 0:
i j

cov(ξi , ξj ) = Kξi ξj = β0+...+0+1+0+...+0+1+0+...+0 = E(ξi − Eξi )(ξj − Eξj )


i j

Зауваження. cov(ξk , ξk ) = E(ξk − Eξk )2 = Dξk .

Означення 3.3.5. Кореляцiйною матрицею випадкового вектора ξ~ називається матриця, у


яку зiбрано усi кореляцiйнi моменти випадкового вектора
 
Dξ1 Kξ1 ξ2 · · · Kξ1 ξn
 Kξ1 ξ2 Dξ2 · · · Kξ2 ξn 
Kξ~ =  .
 
. .. .. 
 .. .. . . 
Kξ1 ξn Kξ2 ξn ··· Dξn
T T
˚ ˚˚
  
Зауваження. ξ~ = ξ˚1 , ..., ξ˚n . Тодi Kξ~ = E ξ~ ξ~T = E ξ~ − Eξ ξ~ − Eξ .
Властивостi кореляцiйного моменту випадкових величин:
1. Kξi ξj = Kξj ξi .

37
Роздiл 3. Випадковi вектори.

Доведення. Випливає з означення кореляцiйного моменту. N


2. η1 = a1 ξ1 + b1 , η2 = a2 ξ2 + b2 . Тодi Kη1 η2 = a1 a2 Kξ1 ξ2 .
Доведення. Kη1 η2 = E(η1 −Eη1 )(η2 −Eη2 ) = E(a1 ξ1 +b1 −E(a1 ξ1 +b1 ))(a2 ξ2 +b2 −E(a2 ξ2 +
b2 )) = Ea1 (ξ1 − Eξ1 )a2 (ξ2 − Eξ2 ) = a1 a2 E(ξ1 − Eξ1 )(ξ2 − Eξ2 ) = a1 a2 Kξ1 ξ2 . N
3. Зручна формула для обчислення кореляцiйного моменту.
Kξ1 ξ2 = Eξ1 ξ2 − Eξ1 Eξ2 (1)
Доведення. Kξ1 ξ2 = E(ξ1 − Eξ1 )(ξ2 − Eξ2 ) = E(ξ1 ξ2 − ξ1 Eξ2 − ξ2 Eξ1 + Eξ1 Eξ2 ) = Eξ1 ξ2 −
Eξ1 Eξ2 − Eξ2 Eξ1 + Eξ1 Eξ2 = Eξ1 ξ2 − Eξ1 Eξ2 N
4. D(aξ1 ± bξ2 ) = a2 Dξ1 ± 2abKξ1 ξ2 + b2 Dξ2 .
Доведення. D(aξ1 ± bξ2 ) = E(aξ1 ± bξ2 − E(aξ1 ± bξ2 ))2 = E(a(ξ1 − Eξ1 ) ± b(ξ2 − Eξ2 ))2 =
a2 E˚
ξ12 ± 2abE˚
ξ1˚
ξ2 + b2 E˚
ξ22 = a2 Dξ1 ± 2abKξ1 ξ2 + b2 Dξ2 . N
5. |Kξ1 ξ2 | ≤ σξ1 σξ2 .
Доведення. Два способи:
I. D(xξ1 ± ξ2 ) = x2 Dξ1 ± 2xKξ1 ξ2 + Dξ2 ≥ 0 ⇒ 4(Kξ1 ξ2 )2 − 4Dξ1 Dξ2 ≤ 0 ⇒
|Kξ1 ξ2 | ≤ σξ1 σξ2 .
II. Введемо нормованi центрованi випадковi величини ξH = ξ−Eξ σξ , EξH = 0, DξH = 1.
1 ξ2
E(ξ1H ± ξ2H )2 ≥ 0 ⇔ E(ξ1H
2 2
± 2ξ1H ξ2H + ξ2H ) ≥ 0 ⇔ 2 ± 2 σKξ
ξ1 σξ2
≥0⇔
|Kξ1 ξ2 | ≤ σξ1 σξ2 .
N
6. Якщо ξ1 та ξ2 — незалежнi, то Kξ1 ξ2 = 0.
Доведення. Нехай ξ1 та ξ2 — незалежнi.
RR +∞
R +∞
R
Kξ1 ξ2 = Eξ1 ξ2 − Eξ1 Eξ2 = xyfξ~(x, y)dxdy − Eξ1 Eξ2 = xfξ1 (x)dx · yfξ2 (y)dy −
R2 −∞ −∞
Eξ1 Eξ2 = Eξ1 Eξ2 − Eξ1 Eξ2 = 0. N
Обернене твердження, взагалi кажучи, не має мiсця. Тому випадковi величини, для яких
Kξ1 ξ2 = 0, називаються некорельованими.
Приклад. Взагалi кажучи, з некорельованостi не випливає незалежнiсть.
y

S = (x, y)(∈ R2 : x2 + y 2 ≤ R2 , ξ~ ∼ U(S).




Rx 1
2, (x, y) ∈ S
fξ~(x, y) = πR
0, (x, y) ∈
/S

( √

RR2 −x2 √
1 2 R2 −x2 2 R2 −y 2
|x| ≤ R

πR2 dy = , , |y| ≤ R

√ πR2 πR2
fξ1 (x) = − R2 −x2
, fξ2 (y) =
 0, |y| > R
0, |x| > R

RR √
2 R2 −t2
Eξ1 = Eξ2 = t· πR2 dt = 0, бо iнтегрується непарна функцiя по симетричному
−R
промiжку.
2π RR 2π RR
xy πr1 2 dxdy − Eξ1 Eξ2 = 1
dϕ r2 cos ϕ sin ϕrdr = 1
sin 2ϕdϕ r3 dr = 0.
RR R R
Kξ1 ξ2 = πR2 2πR2
S 0 0 0 0
Отже, fξ~(x, y) 6= fξ1 (x)fξ2 (y) i координати вектора залежнi, але Kξ1 ξ2 = 0.

3.3.3 Коварiацiя як скалярний добуток випадкових величин



Зафiксуємо ймовiрнiсний простiр {Ω, F, P}. Позначимо L2 (Ω) = ξ : Ω → R | Eξ 2 < +∞ .
Оскiльки Dξ = Eξ 2 − (Eξ)2 ≥ 0, то для ξ √ ∈ L2 (Ω)
√ |Eξ| < +∞. Таким чином, для будь-яких
2
ξ, η ∈ L (Ω) iснує cov(ξ, η), бо |cov(ξ, η)| ≤ Dξ · Dη.

38
Роздiл 3. Випадковi вектори.

Для коварiацiї маємо cov(aξ1 + bξ2 , η) = E(aξ1 + bξ2 )η − E(aξ1 + bξ2 )Eη = aEξ1 η + bEξ2 η −
aEξ1 Eη − bEξ2 Eη = a · cov(ξ1 , η) + b · cov(ξ2 , η). Також було доведено cov(ξ, η) = cov(η, ξ)
та cov(ξ, ξ) ≥ 0. Виконуються всi умови скалярного добутку, окрiм cov(ξ, ξ) = 0 ⇒ ξ = 0.
Ця умова буде виконуватися, якщо
 розглядати iнший простiр випадкових величин: L20 (Ω) =
2
ξ : Ω → R | Eξ = 0, Eξ < +∞ .
Зауваження. Якщо ξ ∈ L2 (Ω), то ˚ ξ ∈ L2 (Ω). 0
Вправа. Перевiрити, що L20 (Ω) є лiнiйним простором.
2
√ на√L0 (Ω).
Висновок: cov(ξ, η) задає скалярний добуток
Таким чином, властивiсть |cov(ξ, η)| ≤ Dξ · Dη — це нерiвнiсть Кошi-Буняковського, а
кореляцiйна матриця K — це матриця Грама системи випадкових величин {ξ1 , ξ2 , ..., ξn }. З
курсу лiнiйної алгебри вiдомо, що якщо цi випадковi величини лiнiйно незалежнi, то матриця
K є додатно визначеною, i невiд’ємно визначеною в загальному випадку.

3.3.4 Коефiцiєнт кореляцiї


Означення 3.3.6. Коефiцiєнтом кореляцiї називають безрозмiрну числову характеристику
Kξ1 ξ2
ρ ξ1 ξ 2 =
σξ1 σξ2
Означення 3.3.7. Всi коефiцiєнти кореляцiї збираються в нормовану кореляцiйну матрицю:
 
1 ρ ξ1 ξ2 · · · ρ ξ 1 ξn
 ρ ξ1 ξ2 1 · · · ρ ξ 2 ξn 
R= .
 
.. .. .. 
 .. . . . 
ρξ1 ξn ρ ξ2 ξn ··· 1
Властивостi коефiцiєнту кореляцiї:
1. Для некорельованих випадкових величин ξ1 та ξ2 ρξ1 ξ2 = 0.
Доведення. Випливає з означення коефiцiєнта кореляцiї. N
2. |ρξ1 ξ2 | ≤ 1.
Доведення. Випливає з властивостi кореляцiйного моменту. N
3. |ρξ1 ξ2 | = 1 ⇔ ∃ a, b ∈ R : ξ2 = aξ1 + b.
√ p √
Доведення. Нехай ξ2 = aξ1 + b. Kξ1 ξ2 = aDξ1 , σξ2 = Dξ2 = a2 Dξ1 = |a| Dξ1 .
Тодi ρξ1 ξ2 = |a|(aDξ
√ 1 2 ⇒ |ρξ ξ | = 1.
Dξ1 ) 1 2
 2
Нехай |ρξ1 ξ2 | = 1. E ξ1σ−Eξ 1
± ξ2 −Eξ2
= 2(1 ± ρξ1 ξ2 ) = 0.
ξ1
(σξ2
Eξ = 0
Eξ 2 = 0 ⇒ Dξ = −(Eξ)2 ≥ 0 ⇒ ⇒ ξ приймає значення 0 з ймовiрнiстю 1.
Dξ = 0
ξ1 −Eξ1 ξ2 −Eξ2
Отже, σξ1 ± σξ2 = 0 з ймовiрнiстю 1, звiдки отримуємо лiнiйний зв’язок. N

3.4 Умовнi закони розподiлу ВВ


T
Розглядаємо випадок n = 2, ξ~ = (ξ1 , ξ2 ) .
Означення 3.4.1. Умовним законом розподiлу ξ1 називається закон розподiлу ξ1 за умови
того, що ξ2 набула вiдповiдного значення (ДВВ) або потрапила в деякий промiжок (НВВ)
(для ξ2 аналогiчно).
Означення 3.4.2. Унiверсальним умовним законом розподiлу ВВ є умовна функцiя розпо-
дiлу:

P {ξ1 < x, ξ2 < y} Fξ~(x, y) Fξ~(x, y)


Fξ1 (x/y) = P(ξ1 < x/ξ2 < y) = = , Fξ2 (y/x) =
P {ξ2 < y} Fξ2 (y) Fξ1 (x)
Зауваження. З означення випливає, що Fξ~(x, y) = Fξ1 (x)Fξ2 (y/x) та Fξ~(x, y) = Fξ2 (y)Fξ1 (x/y).

39
Роздiл 3. Випадковi вектори.

3.4.1 Умовний закон розподiлу дискретного випадкового вектора


Знову розглядаємо випадок n = 2 та ξ~ = (ξ1 , ξ2 )T .
P{ξ1 =xi ,ξ2 =yj }
Умовнi розподiли координат задаються P {ξ1 = xi /ξ2 = yj } = P{ξ2 =yj } та
P{ξ1 =xi ,ξ2 =yj }
P {ξ2 = yj /ξ1 = xi } = P{ξ1 =xi } .
Приклад. Дискретний випадковий вектор має закон розподiлу:
ξ1
−1 0 1
ξ2 ξ1 −1 0 1 ξ2 0 1
0 0.1 0.2 0.1 p 0.3 0.5 0.2 p 0.4 0.6
1 0.2 0.3 0.1
ξ1 −1 0 1
P {ξ1 /ξ2 = 0} 1/4 2/4 1/4 — умовний закон розподiлу (умовний ряд розподiлу) ξ1 .
P {ξ1 /ξ2 = 1} 2/6 3/6 1/6
ξ2 0 1
P {ξ2 /ξ1 = −1} 1/3 2/3
— умовний закон розподiлу (умовний ряд розподiлу) ξ2 .
P {ξ2 /ξ1 = 0} 2/5 3/5
P {ξ2 /ξ1 = 1} 1/2 1/2

3.4.2 Умовне математичне сподiвання дискретного випадкового ве-


ктора
Означення 3.4.3. Умовним математичним сподiванням випадкової величини ξ1 є матема-
тичне сподiвання цiєї випадкової величини за умови, що ξ2 набула певного значення.
n(∞) n(∞)
X X
E(ξ1 /ξ2 = yj ) = xi P {ξ1 = xi /ξ2 = yj } , E(ξ2 /ξ1 = xi ) = yj P {ξ2 = yj /ξ1 = xi }
i=1 j=1

Зауваження. Якщо ξ1 та ξ2 незалежнi, то E(ξ1 /ξ2 = yj ) = Eξ1 , E(ξ2 /ξ1 = xi ) = Eξ2 .


Умовнi математичнi сподiвання координат дискретного випадкового вектора є дискретни-
ми випадковими величинами, оскiльки приймають декiлька значень з певними ймовiрностя-
ми, тому можна скласти їх закон розподiлу.
Приклад. Продовження попереднього прикладу:
E(ξ1 /ξ2 ) −1/6 0 E(ξ2 /ξ1 ) 1/2 3/5 2/3
p 0.6 0.4 p 0.2 0.5 0.3

3.4.3 Умовнi закони розподiлу неперервних випадкових величин


У випадку n = 2, ξ~ = (ξ1 , ξ2 )T :
p
P{ξ~ ∈ Π} fξ~(x, y)∆x∆y + o( ∆x2 + ∆y 2 )
P{x ≤ ξ1 < x + ∆x/y ≤ ξ2 < y + ∆y} = =
P{y ≤ ξ2 < y + ∆y} fξ2 (y)∆y + o(∆y)
Означення 3.4.4. Умовною щiльнiстю розподiлу називається функцiя вигляду:
fξ~(x, y) fξ~(x, y)
fξ1 (x/y) = , fξ2 (y/x) =
fξ2 (y) fξ1 (x)
Зауваження. Графiк умовної щiльностi розподiлу можна iнтерпретувати як лiнiю перетину
поверхнi розподiлу та площини y = yзнач. або x = xзнач. вiдповiдно, нормовану на одиничну
площу пiд нею.
Властивостi умовної щiльностi:
1. fξ1 (x/y) ≥ 0, fξ2 (y/x) ≥ 0.
fξ~(x,y) fξ~(x,y)
2. fξ1 (x/y) = +∞
R
, fξ2 (y/x) = +∞
R
.
fξ~(x,y)dx fξ~(x,y)dy
−∞ −∞
+∞
R +∞
R fξ~(x,y) +∞
R +∞
R fξ~(x,y)
3. fξ1 (x/y)dx = +∞
R
dx = 1, fξ2 (y/x)dy = +∞
R
dy = 1.
−∞ −∞ fξ~(x,y)dx −∞ −∞ fξ~(x,y)dy
−∞ −∞

Властивостi умовної щiльностi аналогiчнi властивостям звичайної (безумовної) щiльностi.

40
Роздiл 3. Випадковi вектори.

3.4.4 Умовне математичне сподiвання неперервного випадкового ве-


ктора
Умовнi математичнi сподiвання координат НВВ визначаються через умовнi щiльностi:
+∞
Z +∞
Z
E(ξ1 /ξ2 = y) = xfξ1 (x/y)dx, E(ξ2 /ξ1 = x) = yfξ2 (y/x)dy
−∞ −∞

Означення 3.4.5. Функцiї ϕ(y) = E(ξ1 /ξ2 = y) та ψ(x) = E(ξ2 /ξ1 = x) називаються лiнiями
регресiї.
y

( 1
2, (x, y) ∈ D y=x
Приклад. fξ~(x, y) =
0, (x, y) ∈
/D D
0 1 x

Rx 
1
 2dy = 2x, x ∈ [0; 1] R 2dx = 2(1 − y), y ∈ [0; 1]

fξ1 (x) = 0 , fξ2 (y) = y .
0, x∈/ [0; 1]
 
0, y∈
/ [0; 1]
Запишемо умовнi щiльностi:
 
1 1
1−y , x ∈ [y; 1] ,  x , y ∈ [0; x] ,

 
fξ~(x,y) fξ~(x,y)
fξ1 (x/y) = fξ (y) = y ∈ [0; 1) , fξ2 (y/x) = fξ (x) = x ∈ (0; 1] .
2  1 
0, iнакше 0, iнакше
 
Умовнi розподiли обох координат є рiвномiрними з параметрами hy, 1i та h0, xi вiдповiдно.
R1 R1
Eξ1 = 2x2 dx = 32 , Eξ2 = 2y(1 − y)dy = 13 . Знайдемо умовнi математичнi сподiвання.
0 0
+∞ R1
1 1 1−y 2 1+y
R
E(ξ1 /ξ2 = y) = xfξ1 (x/y)dx = 1−y xdx = 1−y · 2 = 2 , y ∈ [0; 1).
−∞ y
+∞ Rx
1 1 x2
= x2 , x ∈ (0; 1].
R
E(ξ2 /ξ1 = x) = yfξ2 (y/x)dy = x ydy = x · 2
−∞ 0

3.4.5 Формули повного математичного сподiвання та дисперсiї


Формула повного математичного сподiвання. E(E(ξ1 /ξ2 )) = Eξ1 , E(E(ξ2 /ξ1 )) = Eξ2 .
Доведення. Дискретний n випадок: 
m
P P n
P
E(E(ξ1 /ξ2 )) = xi P{ξ1 = xi /ξ2 = yj } P{ξ2 = yj } = xi P{ξ1 = xi } = Eξ1 .
j=1 i=1 i=1
Неперервний випадок: !
+∞
R +∞
R +∞
R
E(E(ξ1 /ξ2 )) = xfξ1 (x/y)dx fξ2 (y)dy = xfξ1 (x)dx = Eξ1 .
−∞ −∞ −∞
Для ξ2 — аналогiчно. N
Приклад. Продовження попереднiх прикладiв.
1. Дискретний випадок:
Eξ1 = −0.3 + 0.2 = −0.1, E(E(ξ1 /ξ2 )) = − 61 · 0.6 = −0.1.
Eξ2 = 0.6, E(E(ξ2 /ξ1 )) = 0.3 · 23 + 12 · 53 + 12 · 10
2
= 0.6.
2. Неперервний випадок:
R1 R1
E(E(ξ1 /ξ2 )) = 1+y 2
2 · 2(1 − y)dy = (1 − y )dy = 3 = Eξ1 ,
2
0 0
R1 x
R1 2 1
E(E(ξ2 /ξ1 )) = 2 · 2xdx = x dx = 3 = Eξ2 .
0 0

Крiм умовного математичного сподiвання розглядають умовнi дисперсiї — мiра розсiюва-


ння однiєї випадкової величини за умови того, що iнша набула певне значення.

41
Роздiл 3. Випадковi вектори.

Означення 3.4.6. Умовною дисперсiєю дискретної випадкової величини ξ1 є дисперсiя цiєї


випадкової величини за умови, що ξ2 набула певного значення.

D(ξ1 /ξ2 = yj ) = E((ξ1 − E(ξ1 /ξ2 = yj ))2 /ξ2 = yj )

Формула повної дисперсiї. Нехай ξ1 , ξ2 — випадковi величини та Dξ1 < +∞. Тодi Dξ1 =
E(D(ξ1 /ξ2 )) + D(E(ξ1 /ξ2 )).
Доведення. Dξ1 = Eξ12 − (Eξ1 )2 = E(E(ξ12 /ξ2 )) − (E(E(ξ1 /ξ2 )))2 = E(D(ξ1 /ξ2 ) + (E(ξ1 /ξ2 ))2 ) −
(E(E(ξ1 /ξ2 )))2 = E(D(ξ1 /ξ2 )) + (E(E(ξ1 /ξ2 )2 ) − (E(E(ξ1 /ξ2 )))2 ) = E(D(ξ1 /ξ2 )) + D(E(ξ1 /ξ2 )). N

3.4.6 Випадок незалежних координат випадкового вектора


T
Розглядаємо випадок n = 2, ξ~ = (ξ1 , ξ2 ) . Необхiдною i достатньою умовою незалежностi
координат, як вже було розглянуто, є Fξ~(x, y) = Fξ1 (x) · Fξ2 (y).
З цього випливає, що в разi незалежностi координат Fξ1 (x/y) = Fξ1 (x), Fξ2 (y/x) = Fξ2 (y).
Дискретний випадок:
P{ξ1 = xi , ξ2 = yj } = P{ξ1 = xi } · P{ξ2 = yj } ∀ i, j. З цього випливає, що:
1. P{ξ1 = xi /ξ2 = yj } = P{ξ1 = xi }.
2. E(ξ1 /ξ2 = yj ) = Eξ1 , E(ξ2 /ξ1 = xi ) = Eξ2 .
Неперервний випадок:
fξ~(x, y) = fξ1 (x) · fξ2 (y). З цього випливає, що:
1. fξ1 (x/y) = fξ1 (x), fξ2 (y/x) = fξ2 (y).
2. E(ξ1 /ξ2 = y) = Eξ1 , E(ξ2 /ξ1 = x) = Eξ2 .
Для n-вимiрного випадку (n > 2): ∀i, j: Fξi ξj (xi , xj ) = Fξi (xi ) · Fξj (xj ) — лише попарна
незалежнiсть. Нагадаємо, що координати ξ1 , ξ2 , ..., ξn є незалежними у сукупностi тодi i
n
Q
тiльки тодi, коли Fξ~(~x) = Fξk (xk ). З незалежностi у сукупностi випливає незалежнiсть, а
k=1
отже, некорельованiсть будь-якої пари координат.

42
Роздiл 4

Характеристичнi функцiї.
Гауссiвськi випадковi вектори

4.1 Характеристичнi функцiї випадкових величин


4.1.1 Поняття характеристичної функцiї
Означення 4.1.1. Характеристичною функцiєю випадкової величини ξ називається ком-
плекснозначна функцiя χξ (t) = Eeitξ , t ∈ R.
n(∞)
+∞
P itxk
e P {ξ = xk } , ξ — ДВВ
Z 


χξ (t) = eitx dFξ (x) = k=1 (1)
 +∞
eitx fξ (x)dx,
R
−∞

 ξ — НВВ
−∞

+∞
eitx fξ (x)dx у курсi гармонiчного аналiзу називається перетворенням Фур’є
R
Iнтеграл
−∞
функцiї fξ (x). Отже, у випадку НВВ ξ χξ (t) — перетворення Фур’є щiльностi. Також з курсу
гармонiчного аналiзу вiдомо, що за допомогою оберненого перетворення Фур’є можна вiдно-
+∞
R −itx
1
вити fξ (x) за χξ (t): fξ (x) = 2π e χξ (t)dt.
−∞

4.1.2 Властивостi характеристичної функцiї


+∞
R
1. χξ (0) = 1, оскiльки fξ (x)dx
= 1.
−∞

+∞ +∞ R itx +∞
R itx R
|χξ (t)| ≤ 1, оскiльки e dFξ (x) ≤ e dFξ (x) = dFξ (x) = 1.

−∞ −∞ −∞
2. Характеристична функцiя є рiвномiрно неперервною.

+∞ 
R i(t+h)x itx
Доведення. |χξ (t + h) − χξ (t)| = e −e dFξ (x) ≤

−∞
+∞
R i(t+h)x +∞ +∞ ihx
− eitx dFξ (x) = eitx eihx − 1 dFξ (x) =
R R
≤ e e − 1 dFξ (x).
−∞ −∞ −∞
eihx − 1 = (cos(hx) − 1) + i sin(hx) = −2 sin2 ( hx hx hx
2 ) + 2i sin( 2 ) cos( 2 ),
q
e − 1 = 4 sin4 ( hx ) + 4 sin2 ( hx ) cos2 ( hx ) = 2 sin( hx ) .
ihx
2 2 2 2
+∞
R +∞
R
e ihx
− 1 dFξ (x) = 2 sin( hx ) dFξ (x) =
2
−∞ −∞ !
−A A +∞
A>0 R
sin( hx ) dFξ (x) +
R
sin( hx ) dFξ (x) +
R
sin( hx ) dFξ (x) .
= 2· 2 2 2
−∞ −A A

43
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

RA
Iнтеграл sin( hx ) dFξ (x) можна зробити як завгодно малим за рахунок вибору h, а
2
−A
iншi два — за рахунок вибору A. N
3. η = aξ + b — афiнне перетворення ξ, a, b ∈ R.
χη (t) = Eeitη = Eeit(aξ+b) = eitb · Eeitaξ = eitb · χξ (at).
n
Q
4. Якщо ξ1 , ..., ξn — незалежнi у сукупностi, то χPnk=1 ξk (t) = χξk (t).
k=1
 n

Pn 
it ξk itξk
Q
Доведення. χPnk=1 ξk (t) =E e k=1 =E e =
k=1
  n n
= eitξk — теж незалежнi у сукупностi = Eeitξk =
Q Q
χξk (t). N
k=1 k=1

5. За допомогою характеристичної функцiї можна знайти початковi моменти будь-якого


+∞ +∞
(k) (k)
(ix)k eitx dFξ (x), причому χξ (0) = (ix)k dFξ (x) = ik · Eξ k .
R R
порядку: χξ (t) =
−∞ −∞
 2
2
Отже, Eξ = −iχ0ξ (0), Dξ = Eξ 2 − (Eξ) = −χ00ξ (0) + χ0ξ (0) .
6. Зв’язок характеристичної функцiї та генератриси ДВВ.
∞ ∞
P {ξ = k} z k , χξ (t) = eitk P {ξ = k}. Отже, χξ (t) = Gξ (eit ).
P P
Gξ (z) =
k=0 k=0
7. χξ (t) = Ee−itξ = χξ (−t) = χ−ξ (t).
8. Для того, щоб характеристична функцiя була дiйснозначною, необхiдно i достатньо, щоб
розподiл ВВ був симетричним вiдносно 0.
Доведення. Розглянемо випадок НВВ. Нехай розподiл є симетричним вiдносно 0, то-
+∞
R itx +∞
R +∞
R
дi fξ (x) — парна. χξ (t) = e fξ (x)dx = cos(tx)fξ (x)dx + i sin(tx)fξ (x)dx =
−∞ −∞ −∞
+∞
R
cos(tx)fξ (x)dx = Reχξ (t), iнтеграл з синусом рiвний 0, бо iнтегрується непарна фун-
−∞
кцiя по симетричному промiжку.
Нехай χξ (t) — дiйснозначна, тодi χξ (t) = χξ (t) = χξ (−t). Отже, χξ (t) — парна, тодi з
оберненого перетворення Фур’є fξ (x) — теж парна. N

4.1.3 Необхiднi умови того, що функцiя є характеристичною


Нехай χ(t) — деяка комплекснозначна функцiя дiйсного аргументу. Якщо вона є характе-
ристичною функцiєю деякої ВВ, то для неї має виконуватися:
1. χ(0) = 1, |χ(t)| ≤ 1.
2. χ(t) — рiвномiрно неперервна.
3. χ(t) = χ(−t).
Приклад. 1. χ(t) = cos(t) — може бути характеристичною. Оскiльки cos(t) = 21 eit + 12 e−it ,
ξ −1 1
то вiдповiдна ВВ — дискретна:
p 1/2 1/2
2. χ(t) = sin(t) — не може бути характеристичною, бо χ(0) = 0 6= 1.
3. χ(t) = cos2 (t) — може бути характеристичною. cos2 (t) = 21 + 12 cos(2t) = 12 + 14 e2it + 14 e−2it ,
ξ −2 0 2
тому вiдповiдна ВВ — дискретна:
p 1/4 1/2 1/4
α2
4. χ(t) = — може бути характеристичною. Знайдемо щiльнiсть розподiлу вiдповiдної
α2 +t2
+∞
R α2 ·e−itx
1
НВВ за формулою fξ (x) = 2π α2 +t2 dt.
−∞
+∞
e−itx −izx
e−i·αi·x eαx
= 2πi · Res αe2 +z2 = 2πi ·
R
При x < 0: α2 +t2 dt 2αi =π· α .
−∞ z=αi
e−αx α −α|x|
При x > 0 аналогiчно отримуємо π · α . Остаточно fξ (x) = 2e — це щiльнiсть
розподiлу Лапласа.
Вправа. Нехай χ(t) — характеристична функцiя деякого розподiлу. Чи можуть бути характе-
ристичними функцiї χ, χ2 , |χ|2 , Reχ, |χ|, Imχ?

44
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

Необхiднi та достатнi умови того, що функцiя є характеристичною, дає теорема Бохнера-


Хiнчина: χ(t) має бути рiвномiрно неперервною, χ(0) = 1 та невiд’ємно визначеною:
n X
X n
∀ t1 , t2 , ..., tn ∈ R, c1 , c2 , ..., cn ∈ C : χ(tk − tm )ck cm ≥ 0
k=1 m=1

4.1.4 Характеристичнi функцiї деяких розподiлiв


n
1. ξ ∼ Bin(n, p) — бiномiальний розподiл. Gξ (z) = (pz + q)n ⇒ χξ (t) = peit + q .
pz peit
2. ξ ∼ Geom(p) — геометричний розподiл. Gξ (z) = 1−qz ⇒ χξ (t) = 1−qe it .

a(z−1) a(eit −1)


3. ξ ∼ Poiss(a) — розподiл Пуассона. Gξ (z) = e ⇒ χξ (t) = e .
4. ξ ∼ U ha; bi — рiвномiрний розподiл. (
sin(at)
1
Rb itx eitb −eita at , t 6= 0
χξ (t) = b−a e dx = it(b−a) . Зокрема, при ξ ∼ U h−a; ai χξ (t) = .
a 1, t=0
5. ξ ∼ Exp(λ) — експоненцiйний розподiл.
+∞
R itx −λx +∞
R −(λ−it)x λ
χξ (t) = λ e e dx = λ e dx = λ−it .
0 0
6. ξ ∼ N(a, σ 2 ) — нормальний розподiл. Розглянемо стандартний розподiл η ∼ N(0, 1), тодi
ξ = a + σ · η.
+∞
R itx −x2 /2 +∞
R −x2 /2+itx +∞
R − 1 (x2 −2itx+i2 t2 )+ 1 i2 t2
χη (t) = √12π e e dx = √12π e dx = √12π e 2 2 dx =
−∞ −∞ −∞
2 +∞ (x−it)2 2 σ 2 t2
√1 e − t2 − − t2
. Отже, χξ (t) = eiat−
R

e 2 dx = [x − it = u, dx = du] = e 2 .
−∞
7. ξ ∼ Γ(α, β) — гамма-розподiл.
+∞ +∞ h i
βα βα
R itx α−1 −βx
xα−1 e−(β−it)x dx = (β − it)x = u, dx = du
R
χξ (t) = Γ(α) e x e dx = Γ(α) β−it =
0 0
+∞
βα βα
1
uα−1 e−u du = 1 it −α
R
Γ(α) · (β−it)α Γ(α) · (β−it)α · Γ(α) = (1 − β) .
0

Означення 4.1.2. Композицiєю законiв розподiлу називається складання закону розподiлу


суми незалежних випадкових величин.
Закон розподiлу називається стiйким по вiдношенню до операцiї додавання, якщо закон
розподiлу суми незалежних випадкових величин, розподiлених за цим законом (в загальному
випадку з рiзними параметрами), є таким самим.
Приклад. 1. Перевiрити стiйкiсть нормального розподiлу. Нехай ξ1 ∼ N(a1 , σ1 ), ..., ξn ∼
N(an , σn ) — незалежнi у сукупностi.
n n 2 t2
σk
eiak t− 2 =
Q Q
Знайдемо характеристичну функцiю суми: χξ1 +...+ξn (t) = χξk (t) =
  n   n  k=1 k=1
t2
P P 2
exp i · ak · t − 2 · σk — це характеристична функцiя нормального розпо-
k=1 k=1 s !
n n
2
P P
дiлу. Отже, ξ1 + ... + ξn ∼ N ak , σk .
k=1 k=1
2. Перевiрити стiйкiсть бiномiального розподiлу. Нехай ξ1 ∼ Bin(n1 , p1 ), ξ2 ∼ Bin(n2 , p2 ) —
 n1  n2 ? N
незалежнi. χξ1 +ξ2 (t) = p1 eit + q1 · p2 eit + q2 = Peit + Q .
Взагалi кажучи, бiномiальний розподiл не є стiйким по вiдношенню до операцiї додава-
n1 +n2
ння. Його називають умовно стiйким при p1 = p2 = p, тодi χξ1 +ξ2 (t) = peit + q i
ξ1 + ξ2 ∼ Bin(n1 + n2 , p).
Вправа. Перевiрити стiйкiсть гамма-розподiлу Γ(α, β).

45
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

4.2 Характеристичнi функцiї випадкових векторiв


4.2.1 Поняття характеристичної функцiї випадкового вектору
T
Означення 4.2.1. Характеристичною функцiєю випадкового вектору ξ~ = (ξ1 , ξ2 , ..., ξn )
~
називається комплекснозначна функцiя n дiйсних аргументiв χξ~(~t) = Eei(ξ,~t) , ~t ∈ Rn .
 n
P
i xkj tj
P {ξ1 = xk1 , ..., ξn = xkn } , ξ~ — ДВВ
 P
e j=1
Z 

~
χξ~(~t) = ei(~x,t) dFξ~(~x) = k1 ,k2 ,...,kn
R i(~x,~t) (1)
e fξ~(x1 , x2 , ..., xn )dx1 dx2 ...dxn , ξ~ — НВВ


Rn 
Rn

Приклад. Обчислення характеристичної функцiї для дискретного та неперервного випад-


кових векторiв
ξ1
1 2
ξ2
1.
0 0.1 0.3
1 0.2 0.4
χξ~(t1 , t2 ) = 0.1ei(1·t1 +0·t2 ) + 0.3ei(2·t1 +0·t2 ) + 0.2ei(1·t1 +1·t2 ) + 0.4ei(2·t1 +1·t2 ) .
2. ξ~ ∼ U (D), D = (x; y) ∈ R2 : |x| ≤ 1, |y| ≤ 1 . !

!
1 1
R1 it x R1 it y it1
−e−it1 it2
−e−it2
e dy = e 2it · e 2it
RR i(t x+t y)
χξ~(t1 , t2 ) = 4 e 1 2
dxdy = 4 · e dx ·
1 2
1 2
=
D −1 −1
 sin(t1 ) sin(t2 )

 t1 · t2 , t1 6= 0, t2 6= 0
 sin(t1 ) ,

t2 =0
t1
sin(t2 )
 , t1 =0
 t2


1, t1 = t2 = 0

4.2.2 Властивостi характеристичних функцiй векторiв


1. Характеристична
функцiя iснує для будь-якого розподiлу випадкового вектора, бо
~
χξ~(t) ≤ 1, χξ~(0) = 1.~
2. Характеристична функцiя рiвномiрно неперервна по кожному з аргументiв.
3. За характеристичною функцiєю вектора можна знайти характеристичну функцiю будь-
якої пiдсистеми цього вектора. ξ~ = (ξ1 , ξ2 , ..., ξn ), ~η = (ξ1 , ξ2 , ..., ξk ), k < n.
χη~ (t1 , t2 , ..., tk ) = χξ~(t1 , t2 , ..., tk , 0, ..., 0).
n
4. Якщо координати ξ~ незалежнi у сукупностi, то χξ~(~t) =
Q
χξk (tk ).
k=1

Доведення. χξ~(~t) = E e i(ξ1 t1 +...+ξn tn )


 iξ1 t1 iξn tn

=E e ...e = [незалежнi у сукупностi] =
  n
E eiξ1 t1 · ... · E eiξn tn =
Q
χξk (tk ). N
k=1

5. ~η = Aξ~ + ~b — афiнне перетворення ξ. ~


η ,~ ~ ~b,~ i(~b,~ ~ ~ ~ ∗ ~
~
χη~ (t) = Ee i(~ t)
= Ee i(Aξ+ t)
= Ee t) · Eei(Aξ,~t) = ei(b,~t) · Eei(ξ,A ~t) = ei(b,~t) · χξ~(A∗~t).
6. Характеристична функцiя вектора дозволяє знайти початковi моменти будь-якого по-
рядку:

k1 k2 kn 1 ∂ k1 +k2 +...+kn χξ~(~t) 1 ∂χξ~(~t)
Eξ1 ξ2 ...ξn = k1 +k2 +...+kn · , Eξj = ·
i ∂tk11 ∂tk22 ...∂tknn ~t=~0 i ∂tj ~ ~

t=0
! !
2 ~
1 ∂ χξ~(t) 1 ∂χξ~(t) ~ ~
1 ∂χξ~(t)
K(ξk , ξj ) = Eξk ξj − Eξk · Eξj = 2 − · · · =
i ∂tk ∂tj ~ ~ i ∂tk ~ ~ i ∂tj ~ ~

t=0 t=0 t=0
! !
∂ 2 χξ~(~t) ∂χξ~(~t) ∂χξ~(~t)
=− + ·
∂tk ∂tj ∂tk ∂tj ~

t=~
~ 0 t=~
~ 0 t=~
~ 0

46
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

Необхiднi та достатнi умови того, що комплекснозначна функцiя n дiйсних змiнних є


характеристичною, дає теорема Бохнера-Хiнчина: χ(~t) має бути рiвномiрно неперервною по
кожнiй змiннiй, χ(~0) = 1 та невiд’ємно визначеною:
n X
n
∀ t~1 , t~2 , ..., t~n ∈ Rn , c1 , c2 , ..., cn ∈ C : χ(t~k − t~m )ck cm ≥ 0
X

k=1 m=1

4.3 Багатовимiрний нормальний розподiл


4.3.1 Виведення характеристичної функцiї та щiльностi
Розглянемо випадковий вектор ξ~ = (ξ1 , ξ2 , ..., ξn )T , ξk ∼ N(aok , σk ) для k = 1, ..., n, ко-
ординати незалежнi у сукупностi. За властивостями характеристичної функцiї та щiльностi
n n
χ~(~t) =
Q Q
ξ χξk (tk ), f~(~x) =
ξ fξk (xk ).
k=1 k=1

n
( n
)
2 t2
Y
iao
k tk −
σk k 1X 2 2
χξ~(~t) = e 2 = exp −i(a~o , ~t)
σk tk
2
k=1 k=1
(xk −ao 2
n
( n
)
k)
Y 1 −
2σ 2
1 1 X (xk − aok )2
fξ~(~x) = √ e k = Qn exp −
2πσk (2π)n/2 k=1 σk 2 σk2
k=1 k=1

σ12 1/σ12
   
0 ··· 0 0 ··· 0
0 σ22 ··· 0 
 −1
 0 1/σ22 ··· 0 
Введемо матрицю D =  . , D = . .
  
.. .. .. .. .. ..
 .. . . .   .. . . . 
0 0 ··· σn2 0 0 ··· 1/σn2
Тодi отримаємо
 
~ ~ 1 ~~
~o
χξ~(t) = exp i(a , t) − (Dt, t) (1)
2
 
1 1 −1 ~ ~

fξ~(~x) = √ o o
exp − D (~x − a ), (~x − a ) (2)
(2π)n/2 det D 2

Причому в такому випадку D — кореляцiйна матриця.


~ де A — невироджена матриця. За властивiстю χη~ (~t) =
Тепер розглянемо вектор ~η = Aξ,
∗~
χξ~(A t). Маємо
   
1 1
χη~ (~t) = exp i(a~o , A∗~t) − (DA∗~t, A∗~t) = exp i(Aa~o , ~t) − (ADA∗~t, ~t) =
2 2
  (3)
1
= exp i(~a, ~t) − (K~t, ~t)
2

Доведемо, що K = ADA∗ — симетрична й додатно визначена, тому її можна вважати коре-


ляцiйною матрицею.
∗ ∗
1. K ∗ = (ADA∗ ) = (A∗ ) DA∗ = ADA∗ = K.
2. ∀ ~u ∈ R (K~u, ~u) = (ADA∗ ~u, ~u) = (DA∗ ~u, A∗ ~u) = [A∗ ~u = ~v ] = (D~v , ~v ) > 0 для ~u 6= ~0.
n

Нехай в n-вимiрному евклiдовому просторi задано вектор ~a та симетричну додатно ви-


значену матрицю K. Iснує ортогональне перетворення U , яке дає можливiсть записати K =

U DU , причому на дiагоналi D стоять строго додатнi власнi числа K. Тодi функцiю вигляду
exp i(~a, ~t) − 21 (K~t, ~t) можна розглядати як характеристичну функцiю випадкового векто-

ра ~η = U ξ,~ де ξ~ — вектор, координати якого незалежнi у сукупностi та мають нормальний


розподiл.
Означення 4.3.1. n-вимiрним гауссiвським вектором ~
 ξ називається випадковий вектор, ха-
рактеристична функцiя якого має вигляд χξ~(~t) = exp i(~a, ~t) − 12 (K~t, ~t) , де K — кореляцiйна

T
матриця, а ~a = (Eξ1 , Eξ2 , ..., Eξn ) — центр розсiювання.

47
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

Позначення: ξ~ ∼ N(~a, K). N(~0, I) — стандартний нормальний розподiл.


Вправа. Перевiрити, що ~a дiйсно є центром розсiювання.
Знайдемо щiльнiсть сумiсну розподiлу такого вектору:
n o n o Z
P {~η ∈ C ⊂ Rn } = P U ξ~ ∈ C = P ξ~ ∈ U −1 C = fξ~(~x)d~x =
U −1 C
Z  
1 1
D−1 (~x − a~o ), (~x − a~o ) d~x = ~x − a~o = U −1 (~y − ~a) =
 
√ exp −
(2π)n/2 det D 2
U −1 C
Z  
1 1
= U ∗ (~y − ~a), d~x = d~y ] = exp − D−1 (U ∗ ~y − U ∗~a), (U ∗ ~y − U ∗~a) d~y =


(2π)n/2 det D 2
C
Z  
1 1
= U D−1 U ∗ = K −1 = exp − K −1 (~y − ~a), (~y − ~a) d~y
  

(2π)n/2 det K 2
C

fη~ (~y )d~y , отримуємо щiльнiсть розподiлу гауссiвського вектора ξ~ ∼


R
Оскiльки P {~η ∈ C} =
C
N(~a, K):  
1 1
exp − K −1 (~x − ~a), (~x − ~a)

fξ~(~x) = √ (4)
(2π)n/2 det K 2

4.3.2 Властивостi гауссiвських векторiв


1. Якщо ξ~ — гауссiвський вектор, то всi його координати гауссiвськi, а будь-яка пiдсистема
теж є гауссiвським вектором.
1 2 2
Доведення. χξ~(0, 0, ..., tj , ..., 0) = χξj (tj ) = eiaj tj − 2 σj tj ⇒ ξj ∼ N(aj , σj2 ).
Аналогiчно для будь-якої пiдсистеми ~η = (ξk1 , ξk2 , ..., ξkn )T . N
Зауваження. Обернене твердження, взагалi кажучи, не є вiрним.
Розглянемо випадковий вектор iз щiльнiстю
1 √ −x2 /2 2
 2
√ 2 2
 2

fξ~(x, y) = 2e − e−x e−y + 2e−y /2 − e−y e−x

Очевидно, це не щiльнiсть нормального розподiлу. Знайдемо щiльностi розподiлу коор-
динат ξ1 та ξ2 .
+∞
Z √ +∞
Z +∞
Z
2 −x2 /2 2 1 −x2 2
fξ1 (x) = fξ~(x, y)dy = e e−y dy − e e−y dy +
2π 2π
−∞ −∞ −∞
√ +∞ +∞ √
2 −x2 /2 √ 1 −x2 √
Z Z
2 −x2 −y 2 /2 1 −x2 −y 2
+ e e dy − e e dy = e · π− e · π+
2π 2π 2π 2π
−∞ −∞

2 −x2 √ 1 −x2 √ 1 2 1 2 1 2 1 2
+ e · 2π − e · π = √ e−x /2 − √ e−x + √ e−x − √ e−x =
2π 2π 2π 2 π π 2 π

1 2
= √ e−x /2 ⇒ ξ1 ∼ N(0, 1).

Аналогiчно ξ2 ∼ N(0, 1). Отже, координати вектора мають нормальний розподiл, а сам
вектор — нi.
2. Для гауссiвського випадкового вектора поняття незалежностi та некорельованостi ко-
ординат є еквiвалентними.
Доведення. Було доведено, що з незалежностi координат випливає iї некорельованiсть.
Якщо координати некорельованi, то кореляцiйна матриця K = diag(σ12 , σ22 , ..., σn2 ). Тодi
 Pn n 1 2 2
n
K~t, ~t = k=1 σk2 t2k . Тодi χξ~(~t) = exp i(~a, ~t) − 21 K~t, ~t = eiak tk − 2 σk tk =
  Q Q
χξk (tk )
k=1 k=1
i координати незалежнi. N

48
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

3. В n-вимiрному евклiдовому просторi Rn завжди можна перейти до ортонормованого


базису з власних векторiв матрицi K, в якому K приймає дiагональний вигляд. Отже,
в базисi з власних векторiв матрицi K координати вiдповiдного гауссiвського вектора
стають незалежними.
4. Афiнне перетворення гауссiвських векторiв.
ξ~ ∼ N(~a, K). A : Rn → Rm — лiнiйний оператор, заданий матрицею, ~b ∈ n Rm , ~η o=
~ ~
Aξ~ + ~b. За властивiстю характеристичної функцiї χη~ (~t) = e i(b, t)
· χξ~(A ~t) = exp i(~b, ~t) ·

n o
exp i(~a, A∗~t) − 12 KA∗~t, A∗~t = exp i(A~a + ~b, ~t) − 21 AKA∗~t, ~t .
  

Отже, ~η ∼ N(A~a + ~b, AKA∗ ).

Приклад. 1. Задано вектор ξ~ ∼ N(~a, K). Знайти розподiл η = ξ1 + ξ2 + ... + ξn .


T n
~ Eη = A~a = Eξ1 + Eξ2 + ... + Eξn = P Eξk .

η = 1 1 · · · 1 · ξ1 ξ2 · · · ξn = Aξ.
k=1
T
Dη = AKA∗ = 1 1 · · · 1 · K · 1 1 · · · 1 . Якщо K = diag(σ12 , σ22 , ..., σn2 ), то

Pn
Dη = Dξk , а в загальному випадку у цiй сумi ще будуть доданки вигляду 2Kξi ξj .
k=1     
ξ 0 1 2
2. ξ~ = 1 ∼ N , = N(~a, K). Знайти розподiл, характеристичну функцiю,
ξ2 1 2 6
щiльнiсть розподiлу ~η = (3ξ1 − 2ξ2 + 1, ξ1  + 3ξ2 )T тарозподiл
  координати
 η1 .
3 −2 ξ 1
Запишемо ~η у виглядi ~η = Aξ~ + ~b: ~η = 1
+ . Тодi ~η ∼ N(d, ~ B), d~ =
1 3 ξ2 0
            
3 −2 0 1 −2 1 −1 Eη1
A~a + ~b = + = + = = , B = AKA∗ =
1 3 1 0 3 0 3 Eη2
     
3 −2 1 2 3 1 9 −19
= .
1 3 2 6n −2 3 −19o 67
~ ~t) − 1 B~t, ~t = exp i(−1t1 + 3t2 ) − 1 (9t2 − 38t1 t2 + 67t2 ) .
 
χη~ (t1 , t2 ) = exp i(d, 2 2 1 2
 
−1 67/142 19/142
B = , det B = 142.
19/142 9/142 n  o
fη~ (x1 , x2 ) = 2π·√1 142 · exp − 12 B −1 (~x − d), ~ (~x − d))
~ =
1
 1 67 2 38 9

= 2π·√142 · exp − 2 142 (x1 + 1) + 142 (x1 + 1)(x2 − 3) + 142 (x2 − 3)2 .
Знайдемо  розподiл η1 за допомогою характеристичної функцiї: χη1 (t) = χη~ (t, 0) =
= exp −it − 21 · 9t2 ⇒ η1 ∼ N(−1, 9).

4.3.3 Виродженi гауссiвськi вектори


Розглянемо випадок n-вимiрного нормального розподiлу ξ~ ∼ N(~a, K) з виродженою ма-
трицею K, у якої rangK = m < n. Iснує ортогональне перетворення U таке, що K = U DU ∗ ,
D = diag(λ1 , λ2 , ..., λm , 0, ..., 0). Знайдемо розподiл вектора ~η = U ∗ ξ~ за властивiстю характе-
ристичної функцiї:
   
1 1
χη~ (~t) = χξ~(U ∗∗~t) = χξ~(U ~t) = exp i(~a, U ~t) − (KU ~t, U ~t) = exp i(U ∗~a, ~t) − (U ∗ KU ~t, ~t) =
2 2
  ( n m
)
h
∗ ~ ∗
i
~ 1 X 1 X
2
= U ~a = b, U KU = D = exp i(b, ~t) − (D~t, ~t) = exp i bk t k − λk tk =
2 2
k=1 k=1
( n
) ( m m
)
X X 1X
= exp i bk tk · exp i bk tk − λk t2k
2
k=m+1 k=1 k=1

Перший множник — це характеристична функцiя сталого вектору, а другий — характери-


стична функцiя гауссiвського вектору меншої розмiрностi.
Позначимо ~c = (0, ..., 0, bm+1 , ..., bn )T , d~ =√(b1 , ..., ..., 0)T , ζ~ = (ζ1 , ..., ζm , 0, ..., 0)T , ζk ∼
√ bm , 0, √
N (0, 1) та незалежнi
 у сукупностi, Λ = diag( λ1 , λ2 , ..., λm , 1, ..., 1).
Тодi ~η = ~c + Λζ~ + d~ . Оскiльки ~η = U ∗ ξ, ~ то ξ~ = U ~η = U Λζ~ +U (~c + d) ~ = U Λζ~ +~a. Позначимо
U Λ = L. Остаточно: ξ~ = Lζ~ + ~a.

49
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

Що тепер можна сказати про розподiл такого вектора? Оскiльки першi m координат ζ~
можуть приймати довiльнi дiйснi значення, то можливi значення вектора Lζ~ — це точки з
лiнiйної оболонки векторiв {u1 , u2 , ..., um } (це власнi вектори, що вiдповiдають ненульовим
власним числам K). Оскiльки власнi вектори, що вiдповiдають нульовому власному числу,
утворюють базис KerK, то лiнiйна оболонка {u1 , u2 , ..., um } — це ImK.
Висновок: n-вимiрний гауссiвський вектор з виродженою кореляцiйною матрицею, що
має ранг m < n, можна представити у виглядi суми свого вектора математичного сподiвання
та вектора, першi m координат є незалежними у сукупностi та мають стандартний нормаль-
ний розподiл, а iншi координати нульовi, помноженого на невироджену матрицю.
Усi значення n-вимiрного гауссiвського вектора ξ~ ∼ N(~a, K) з виродженою кореляцiйною
матрицею, що має ранг m < n, зосередженi на m-вимiрному пiдпросторi Rn — ImK + ~a.

4.3.4 Нормальний розподiл на площинi


Розглянемо двовимiрний гауссiвський вектор ξ~ = (ξ1 , ξ2 )T ∼ N(~a, K).
σ12
 
a1 ρσ1 σ2
Нехай ~a = , K = , det K = σ12 σ22 − ρ2 σ12 σ22 = (1 − ρ2 )σ12 σ22 , K −1 =
a2 ρσ1 σ2 σ22
σ22
 
1 −ρσ1 σ2
. Окремо запишемо щiльнiсть:
2 2
(1−ρ2 )σ1 σ2 −ρσ1 σ2 σ12
( )
1 1 σ22 (x − a1 )2 − 2ρσ1 σ2 (x − a1 )(y − a2 ) + σ12 (y − a2 )2
fξ~(x, y) = exp − · =
σ12 σ22 (1 − ρ2 )
p
2πσ1 σ2 1 − ρ2 2
(x − a1 )2 (y − a2 )2
  
1 1 x − a1 y − a2
= exp − · − 2ρ +
2(1 − ρ2 ) σ12 σ22
p
2πσ1 σ2 1 − ρ2 σ1 σ2
(5)
(x−a1 )2 (y−a2 )2
1 − 1 2 − 2
При ρ = 0 отримуємо fξ~(x, y) = √2πσ e 2σ1 · √2πσ e 2σ2 = fξ1 (x) · fξ2 (y).
1 2
Поверхня, утворена графiком щiльностi, називається поверхнею або палаткою Гаусса.

Лiнiї рiвня цiєї поверхнi задають елiпси розсiювання:

(x − a1 )2 x − a1 y − a2 (y − a2 )2
fξ~(x, y) = C ⇔ − 2ρ + = λ2
σ12 σ1 σ2 σ22

tg2α = 2ρσ 1 σ2
σ12 −σ22
y
Осi елiпсiв називаються головними осями розсi-
ювання.
Якщо ρ = 0, то головнi осi розсiювання пара-
a2 лельнi осям координат.

α
a1 x
n 2
o
(y−a2 )2
Позначимо Eλ = (x; y) ∈ R2 : (x−a
σ12
1)
− 2ρ x−a
σ1
1 y−a2
σ2 + σ22
≤ λ2 та знайдемо ймовiр-
нiсть потрапляння в цю область у випадку ρ = 0:

50
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

1 (x − a1 )2 (y − a2 )2
o ZZ ZZ   
n 1
P ξ~ ∈ Eλ = fξ~(x, y)dxdy = exp − + dxdy =
2πσ1 σ2 2 σ12 σ22
Eλ Eλ
 
x − a1 = λσ1 r cos ϕ Z2π Z1 Z1
 y − a = λσ r sin ϕ  λ2
 2 2
2 2
− λ 2r
2 2
− λ 2r λ r λ2
2 2 = dϕ re dr = e d = 1 − e− 2
2π 2
 
|J | = λ2 σ1 σ2 r 0 0 0

2
− λ
n o
Вправа. Довести, що у випадку ρ > 0 P ξ~ ∈ Eλ = 1 − e 2(1−ρ2 ) .
   
~ −1 1 2
Приклад. ξ ∼ N , . Знайти рiвняння елiпса розсiювання, для якого
n o 1 2 16
P ξ~ ∈ Eλ = 0.93. З кореляцiйної матрицi ρ = 0.5. Розв’яжемо вiдносно λ2 рiвняння 1 −
λ2
− 2(1−0.5 λ2 (x+1)2 x+1 y−1 (y−1)2
e 2)
= 0.93 ⇔ e− 1.5 = 0.07 ⇒ λ2 ≈ 4. Тому рiвняння елiпса 1 − 1 4 + 16 =4
2 2
(x+1) (x+1)(y−1) (y−1)
або 4 − 16 + 64 = 1.

Розглянемо гауссiвський ~
 вектор
 ξ = (ξ
1 , ξ2 ) з незалежними
 координатами. Для нього
1 x−a1 1 y−a2
Fξ~(x, y) = Fξ1 (x)Fξ2 (y) = 2 + Φ σ1 2 +Φ σ2 . Тодi ймовiрнiсть потрапляння в
прямокутник

P i = (x; y) ∈ R2 : α ≤ x < β, γ ≤ y < δ дорiвнює
         
β − a1 α − a1 δ − a2 γ − a2
Φ −Φ · Φ −Φ
σ1 σ1 σ2 σ2
n o
Вправа. Довести формулу для P ξ~ ∈ P i .
Для гауссiвського вектору з незалежними координатами також має мiсце «правило 3σ»:
n o
P ξ~ ∈ (a1 − 3σ1 ; a1 + 3σ1 ) × (a2 − 3σ2 ; a2 + 3σ2 ) =
= P {ξ1 ∈ (a1 − 3σ1 ; a1 + 3σ1 )} · P {ξ2 ∈ (a2 − 3σ2 ; a2 + 3σ2 )} ≈ 0.99732 ≈ 0.9946

4.3.5 Колове розсiювання


Означення 2 4.3.2.
 Двовимiрний гауссiвський вектор маєnколове o розсiювання, якщо ~a =
~0, K = σ 0 1 x2
+y 2
. В цьому випадку fξ~(x, y) = 2πσ2 exp − 2σ2 , а елiпси розсiювання
0 σ2
стають колами.

Знайдемо ймовiрнiсть потрапляння такого ξ~ в коло KR = (x; y) ∈ R2 : x2 + y 2 ≤ R2 :




 
ZZ x = σr cos ϕ Z2π R/σ
Z
n o 1 2 +y 2
− x 2σ 1 r2
P ξ~ ∈ KR = re− 2 dr =
 y = σr sin ϕ 
e 2
dxdy =  = dϕ
2πσ 2 2π
KR |J | = σ 2 r 0 0

R/σ
r2
Z  
2 R2
− r2
= e d = 1 − e− 2σ2
2
0

~ η = kξk~ = ξ 2 + ξ 2 — випадкова величина,


p
Таким чином, тепер вiдомий розподiл
( норми ξ. 1 2
R2
− 2σ
1 − e 2
, R > 0
n o
~ <R =
для якої Fη (R) = P kξk — це розподiл Релея. Ця властивiсть
0, R≤0
переноситься й на довiльну скiнченну розмiрнiсть.
Вправа. Знайти основнi числовi характеристики розподiлу Релея.

51
Роздiл 4. Характеристичнi функцiї. Гауссiвськi випадковi вектори.

4.3.6 Умовний гауссiвський розподiл на площинi


Знайдемо одну з умовних щiльностей розподiлу:
n  o
(x−a1 )2 1 y−a2 (y−a2 )2
fξ~(x, y)
1√
2
exp − 2(1−ρ 1
2) · σ 2 − 2ρ x−a σ σ + σ 2
2πσ1 σ2 1−ρ 1 1 2 2
fξ1 (x/ξ2 = y) = = n o =
fξ2 (y) √ 1
exp − 1
(y − a ) 2
2πσ2 2σ2 2 2
2
(x − a1 )(y − a2 ) (y − a2 )2 (y − a2 )2
   
1 1 (x − a1 )
√ exp − − 2ρ + + =
2(1 − ρ2 ) σ12 σ22 2σ22
p
2πσ1 1 − ρ2 σ1 σ2
(y − a2 )2 (1 − ρ2 )(y − a2 )2 2
 
2 (y − a2 )
= − =ρ =
σ22 σ22 σ22
(  2 )
1 1 x − a1 y − a2
=√ exp − −ρ· =
2(1 − ρ2 )
p
2πσ1 1 − ρ2 σ1 σ2
(   2 )
1 1 ρσ1 (y − a2 )
=√ exp − 2 x − a1 +
2σ1 (1 − ρ2 )
p
2πσ1 1 − ρ2 σ2
   2 
1√ 1 ρσ2 (x−a1 )
Аналогiчно fξ2 (y/ξ1 = x) = √ exp − 2σ2 (1−ρ2) y − a2 + σ1 .
2πσ2 1−ρ2 2

Отже, обидвi умовнi щiльностi є щiльностями нормального розподiлу.


E (ξ1 /ξ2 = y) = a1 + ρσ1 (y−a
σ2
2)
, E (ξ2 /ξ1 = x) = a2 + ρσ2 (x−a
σ1
1)
. Лiнiї регресiї — прямi,
σ1 Kξ1 ξ2 σ2 Kξ1 ξ2
ρ σ2 = Dξ2 та ρ σ1 = Dξ1 — вiдповiднi кутовi коефiцiєнти прямих регресiї.
D (ξ1 /ξ2 = y) = σ12 (1 − ρ2 ), D (ξ2 /ξ1 = x) = σ22 (1 − ρ2 ). Умовнi дисперсiї є сталими, ця
властивiсть називається гомоскедастичнiстю.

52
Роздiл 5

Функцiї випадкових аргументiв

5.1 Функцiї одного випадкового аргументу


5.1.1 Функцiї вiд дискретного випадкового аргументу
ξ x1 x2 ... xn ...
Нехай ξ — ДВВ з рядом розподiлу , а ϕ — деяка вимiрна чи-
p p1 p2 ... pn ...
слова функцiя, область визначення якої мiстить можливi значення ξ. Можна розглядати
випадкову величину η = ϕ(ξ).
Очевидно, що η — теж ДВВ, що приймає значення yk = ϕ(xk ), k = 1, 2, ... з ймовiрностями
P{η = yk } = P{ξ = xk } = pk . Однак, можливо, що yk = ϕ(xk ) = ϕ(xs ) = ... = ϕ(xr ). Тодi
P{η = yk } = pk + ps + ... + pr .

ξ −2 −1 0 1 2
Приклад. . Знайти закон розподiлу η = ξ 2 .
p 1/9 2/9 1/9 2/9 3/9
З ряду розподiлу ξ видно, що ξ 2 приймає значення 0, 1, 4 з ймовiрностями 1/9, 2/9 + 2/9
η 0 1 4
та 1/9 + 3/9. Отже, маємо ряд розподiлу η:
p 1/9 4/9 4/9
З алгоритму побудови ряду розподiлу функцiї вiд дискретного випадкового аргументу
n(∞)
E(ϕ(ξ))k =
P k
ϕ (xi )P{ξ = xi }.
i=1

5.1.2 Розподiл монотонної функцiї вiд неперервного випадкового ар-


гументу
Нехай ξ — НВВ, fξ (x) — її щiльнiсть розподiлу, а ϕ — монотонна неперервна числова
функцiя. Розглянемо два випадки.
1. η = ϕ(ξ), де ϕ — монотонно зростаюча.
Fη (y) = P {η < y} = P {ϕ(ξ) < y}.
y Нехай y = ϕ(x), тодi з монотонностi ϕ маємо рiвнiсть
подiй {ϕ(ξ) < y} = {ξ < x}. Тому Fη (y) = Fξ (x) =
Rx
fξ (t)dt. ϕ має обернену, x = ϕ−1 (y).
−∞
x
ϕ−1
R (y) 0
fξ (t)dt, fη (y) = Fη0 (y) = fξ ϕ−1 (y) · ϕ−1 (y) .

Отже, Fη (y) =
−∞
2. η = ϕ(ξ), де ϕ — монотонно спадна.
Fη (y) = P {η < y} = P {ϕ(ξ) < y}.
y Нехай y = ϕ(x), тодi з монотонностi ϕ маємо рiвнiсть
подiй {ϕ(ξ) < y} = {ξ > x}. Тому Fη (y) = 1 − Fξ (x) =
Rx
1− fξ (t)dt. ϕ має обернену, x = ϕ−1 (y).
−∞
x

53
Роздiл 5. Функцiї випадкових аргументiв.

ϕ−1
R (y) 0
fξ (t)dt, fη (y) = Fη0 (y) = −fξ ϕ−1 (y) · ϕ−1 (y) .

Отже, Fη (y) = 1 −
−∞
Остаточно, для монотонної неперервної функцiї ϕ має мiсце формула:
 0
fη (y) = fξ ϕ−1 (y) · ϕ−1 (y) , η = ϕ(ξ)

При цьому обов’язково треба зазначити допустимi значення y.


Зауваження. Взагалi кажучи, на функцiю ϕ, окрiм неперервностi, треба накладати й умову
диференцiйовностi ϕ−1 майже скрiзь.
π π
Приклад.( ξ ∼ U(− 2 ; 2 ). Знайти розподiл η = sin ξ.
1 π
, |x| < 2 0
fξ (x) = π π
, ϕ(x) = sin x, ϕ−1 (y) = arcsin(y), ϕ−1 (y) = √ 1 2 , η може приймати
0, |x| ≥ 2 1−y
1
√ 2 , |y| < 1
(
значення вiд −1 до 1. Отже, fη (y) = π 1−y — це «закон арксинуса».
0, |y| ≥ 1

Приклад. Нехай ξ — довiльна НВВ, Fξ (x) — її функцiя розподiлу. Знайти закон розподiлу
η = Fξ (ξ). 
0, y ≤ 0

−1 −1
Fη (y) = P{η < y} = P{Fξ (ξ) < y} = P{ξ < Fξ (y)} = Fξ (Fξ (y)) = y, 0 < y ≤ 1 .

1, y > 1

Отже, Fξ (ξ) ∼ U h0; 1i. Ще раз зауважимо, що результат має мiсце для довiльної НВВ ξ.
Зауваження. Якщо ϕ не є неперервною, то η = ϕ(ξ) може не бути НВВ. Наведемо декiлька
прикладiв.
1. Нехай ξ ∼ Exp(1). Знайдемо розподiл η = [ξ], де [·] — цiла частина. Цiла частина приймає
значення 0, 1, 2, ..., знайдемо вiдповiднi ймовiрностi.
n+1
R −x
P {[ξ] = n} = P {ξ ∈ [n; n + 1)} = e dx = e−n − e−(n+1) = e−n (1 − e−1 ), n = 0, 1, 2, ...
n
Отже, η = [ξ] ∼ Geom(1 − e−1 ).
За цим прикладом можна зробити висновок: якщо ϕ — кусково стала, а ξ — НВВ, то
ϕ(ξ) — ДВВ.
2. Нехай ξ ∼ Exp(1). Знайдемо розподiл η = {ξ} = ξ − [ξ]. В цьому випадку ϕ є кусково
неперервною функцiєю та приймає значення з iнтервалу [0; 1).
Для 0 < y < 1 Fη (y) = P {η < y} = P {η ∈ [0; y)} = P {ξ ∈ [n; n + y), n = 0, 1, 2, ...}.
n+y
R −x
Для фiксованого n P {ξ ∈ [n; n + y)} = e dx = e−n (1 − e−y ). Отже, P {η ∈ [0; y)} =
n
∞ ∞
−y −n 1−e−y
P P
P {ξ ∈ [n; n + y)} = (1−e ) e = 1−e−1 . Отримали функцiю розподiлу η: Fη (y) =
n=0
 n=0

0,
 y≤0
1−e−y
, 0 < y ≤ 1 . Таким чином, η — НВВ.
 1−e−1
1, y>1

5.1.3 Розподiл немонотонної функцiї вiд неперервного випадкового


аргументу
Нехай ξ — НВВ, fξ (x) — її щiльнiсть розподiлу, а ϕ — немонотонна числова функцiя.
Тодi область можливих значень ξ можна розбити на промiжки, на яких ϕ буде монотонною.
Тодi, скориставшись результатом для монотонної функцiї, отримаємо формулу для щiльностi
η = ϕ(ξ):
m
X  −1 0
fη (y) = fξ ϕ−1
k (y) · ϕk (y)
k=1

де m — кiлькiсть промiжкiв монотонностi, а ϕ−1


k — вiдповiднi оберненi функцiї.

54
Роздiл 5. Функцiї випадкових аргументiв.

Приклад. 1. ξ ∼ U(− π2 , π2 ), знайти розподiл η = cos ξ.


На промiжках (− π2 ; 0] та [0; π2 ) cos x є монотонною функцiєю, вiдповiднi оберненi —
ϕ−1 −1
1 (y) = − arccos y, ϕ2 (y) = arccos y.
(2 √ 1
, y ∈ [0; 1)

π
Тодi fη (y) = π1 · − √ 1 2 + π1 · √ 1 2 = 1−y 2 .
1−y 1−y
0, y∈/ [0; 1)
2. ξ ∼ N(a, σ), знайти розподiл η = ξ 2 .
На промiжках (−∞; 0] та [0; +∞) x2 є монотонною функцiєю, вiдповiднi оберненi —
√ √ (x−a)2
ϕ−1 −1
1 (y) = − y, ϕ2 (y) = y. Щiльнiсть розподiлу ξ — fξ (x) = √2πσ 1
e− 2σ2 .
√ √
 2 ( y−a)2
 √ 1 − (− 2σy−a) 1 √ 1 e− 2σ2 1
e 2
· √
2 y + · 2√ y, y > 0.
Тодi fη (y) = 2πσ 2πσ
0, y≤0
(
1 −y/2
√ e ,y > 0
При ξ ∼ N(0, 1) fη (y) = 2πy , що означає ξ 2 ∼ Γ( 12 , 12 ).
0, y ≤ 0

5.1.4 Числовi характеристики функцiї неперервного випадкового ар-


гументу
+∞
Твердження. E(ϕ(ξ))k = ϕk (x)fξ (x)dx для всiх k ∈ N.
R
−∞

Доведення. Достатньо довести для монотонно зростаючої ϕ.


+∞ +∞ +∞
η = ϕ(ξ), Eη k = y fξ (ϕ−1 (y))(ϕ−1 (y))0 dy = y fξ (ϕ−1 (y))dϕ−1 (y) =
R k R k R k
y fη (y)dy =
−∞ −∞ −∞
 −1  +∞
R k
ϕ (y) = x, y = ϕ(x) = ϕ (x)fξ (x)dx. У випадку монотонно спадної ϕ пiд iнтегралом
−∞
отримаємо −(ϕ−1 (y))0 , а iнтеграл пiсля замiни змiнної буде вiд +∞ до −∞. У випадку немо-
нотонної ϕ треба буде скористатися адитивнiстю iнтеграла. N

Зауваження. Для знаходження числових характеристик функцiї неперервного випадкового


аргументу розподiл самої функцiї знаходити не потрiбно.
Вправа. Дослiдити, за яких умов на ϕ ця формула має мiсце.

5.2 Функцiї кiлькох випадкових аргументiв


5.2.1 Випадок довiльної функцiї
Нехай ϕ : Rn → R — задана числова функцiя.
Якщо ξ~ = (ξ1 , ..., ξn ) — дискретний випадковий вектор, тодi η = ϕ(ξ)
~ — ДВВ. Побудову
закону розподiлу η доцiльно розглянути на прикладi.
ξ1
0 1 2
ξ2
Приклад. ξ~ = (ξ1 , ξ2 ) задано таблицею розподiлу: .
−1 0.1 0.2 0.3
1 0.2 0.1 0.1
Знайти закони розподiлу η1 = ξ1 ξ2 та η2 = ξ1 + ξ2 . Для цього треба визначити значення, якi
приймають цi величини, та обчислити вiдповiднi ймовiрностi.
η1 приймає значення −2 (коли ξ1 = 2, ξ2 = −1), −1 (коли ξ1 = 1, ξ2 = −1), 0 (коли ξ1 = 0,
ξ2 = −1 або ξ2 = 1), 1 (коли ξ1 = 1, ξ2 = 1), 2 (коли ξ1 = 2, ξ2 = 1).
η2 приймає значення −1 (коли ξ1 = 0, ξ2 = −1), 0 (коли ξ1 = 1, ξ2 = −1), 1 (коли ξ1 = 0,
ξ2 = 1 або ξ1 = 2, ξ2 = −1), 2 (коли ξ1 = 1, ξ2 = 1), 3 (коли ξ1 = 2, ξ2 = 1). Вiдповiднi сумiснi
ймовiрностi отримуємо з таблицi розподiлу ξ. ~
η1 −2 −1 0 1 2 η2 −1 0 1 2 3
p 0.3 0.2 0.3 0.1 0.1 p 0.1 0.2 0.5 0.1 0.1

55
Роздiл 5. Функцiї випадкових аргументiв.

Якщо ξ~ = (ξ1 , ..., ξn ) — неперервний випадковий вектор iз щiльнiстю fξ~(~x), то можна


знайти функцiю розподiлу η = ϕ(ξ). ~
n o Z Z
Fη (y) = P {η < y} = P ξ~ ∈ Dy = ... fξ~(~x)d~x, де Dy = {~x ∈ Rn : ϕ(~x) < y}
Dy

Розглянемо тепер взаємно однозначне гладке перетворення ~ : Rn → Rn та знайдемо


ψ
n o n o
щiльнiсть розподiлу ~η = ψ( ~ ξ).
~ Для множини D ⊂ Rn P ψ( ~ ξ) ~ ∈ D = P ξ~ ∈ ψ ~ −1 (D) =
h i
~ ~ −1 −1 ~ −1 ~
R R
ψ
f
~ −1 (D) ξ~ (~
x )d~
x = замiна ~
y = ψ(~ x ) = f
D ξ~
( ψ (~y )) J ( ψ (~
y ) d~y , де J (~x) — якобiан ψ.
Отже,
fη~ (~y ) = fξ~(ψ~ −1 (~y )) J −1 (ψ ~ −1 (~y )

Приклад. Нехай A — невироджена матриця розмiру n × n, ~b ∈ Rn — деякий вектор, ξ~ —


неперервний випадковий вектор. Знайти щiльнiсть розподiлу ~η = Aξ~ + ~b.
~ x) = A~x + ~b, тому ψ
Тут ~y = ψ(~ ~ −1 (~y ) = A−1 (~y − ~b). Якобiан ψ
~ рiвний |det A|. Отже,
 
fη~ (~y ) = 1 f~ A−1 (~y − ~b)
|det A| ξ

5.2.2 Закон розподiлу мiнiмуму та максимуму


Нехай ξ1 , ..., ξn незалежнi та розподiленi однаково, як деяка випадкова величина ξ. Зна-
йдемо розподiл їх мiнiмуму та максимуму.
1. µ1 = min {ξ1 , ξ2 , ..., ξn }.
Fµ1 (x) = P {min{ξ1 , ξ2 , ..., ξn } < x} = 1 − P {min{ξ1 , ξ2 , ..., ξn } ≥ x} =
= 1 − P {ξ1 ≥ x, ξ2 ≥ x, ..., ξn ≥ x} = 1 − P {ξ1 ≥ x} · P {ξ2 ≥ x} · ... · P {ξn ≥ x} =
= 1 − (P {ξ ≥ x})n = 1 − (1 − Fξ (x))n .
0
Якщо ξ1 , ..., ξn — неперервнi, то fµ1 (x) = (Fµ1 (x)) = n(1 − Fξ (x))n−1 fξ (x).
2. µ2 = max {ξ1 , ξ2 , ..., ξn }.
Fµ2 (x) = P {max{ξ1 , ξ2 , ..., ξn } < x} = P {ξ1 < x, ξ2 < x, ..., ξn < x} =
= P {ξ1 < x} · P {ξ2 < x} · ... · P {ξn < x} = (P {ξ < x})n = (Fξ (x))n .
0
Якщо ξ1 , ..., ξn — неперервнi, то fµ2 (x) = (Fµ2 (x)) = n(Fξ (x))n−1 fξ (x).

Приклад. Нехай ξ1 , ..., ξn незалежнi та мають розподiл Exp(λ). Знайти розподiл їх мiнiмуму.
fmin (x) = n(1 − (1 − e−λx ))n−1 λe−λx = nλe−nλx при x ≥ 0 та 0 при x < 0.
Отже, min{ξ1 , ..., ξn } ∼ Exp(nλ).

5.2.3 Закон розподiлу добутку двох НВВ


Нехай ξ~ = (ξ1 , ξ2 ) — неперервний випадковий вектор, щiльнiсть fξ~(x, y) вiдома.
Задача: знайти розподiл η = ξ1 ξ2 .
РозпишемоRR функцiю розподiлу  за вже вiдомою схемою:

Fη (z) = fξ~(x, y)dxdy, Dz = (x, y) ∈ R2 : xy < z
Dz
Розглянемо два варiанти:
z > 0, тодi Dz = x < 0, y > xz ∪ x > 0, y < xz .
 
y z
R0 +∞
R +∞
R Rx
Fη (z) = dx fξ~(x, y)dy + dx fξ~(x, y)dy.
−∞ z 0 −∞
z x
y= x Продиференцiюємо обидвi частини по z:
1. R0 1 z
+∞
R 1 z
x fη (z) = − x fξ~(x, x )dx + x fξ~(x, x )dx.
−∞ 0

Dz

56
Роздiл 5. Функцiї випадкових аргументiв.

z < 0, тодi Dz = x < 0, y > xz ∪ x > 0, y < xz .


 
y z
R0 +∞
R +∞
R Rx
Fη (z) = dx fξ~(x, y)dy + dx fξ~(x, y)dy
−∞ z 0 −∞
z x
y= x Продиференцiюємо обидвi частини по z:
2. x R0 1 z
+∞
R 1 z
fη (z) = − x fξ~(x, x )dx + x fξ~(x, x )dx
−∞ 0

Dz
R0 1 z
+∞
R 1 z
Отже, fξ1 ξ2 (z) = − x fξ~(x, x )dx + x fξ~(x, x )dx.
−∞ 0

Зауваження. Якщо ξ1 та ξ2 незалежнi, то fξ~(x, xz ) = fξ1 (x)fξ2 ( xz ).

Приклад. Нехай ξ~ = (ξ1 , ξ2 ) рiвномiрно розподiлений в квадратi [0; 2] × [0; 2]. Знайти закон
розподiлу η = ξ1 ξ2 .
y

2 (
1
4, (x, y) ∈ K
fξ~(x, y) =
0, (x, y) ∈
/K

K
0 2 x
RR
Fη (z) = P{ξ1 ξ2 < z} = fξ~(x, y)dxdy. При z < 0 Fη (z) = 0, а при z ≥ 4 Fη (z) = 1.
{xy<z}∩K
!
2 2
Fη (z) = 41 SDz ∩K = 14 4 − dx dy =
R R
y z
2
z
x
z
!
y= x R2
= 14 4 − 2 − xz dx

2
z
2
1 2
=1− 4 (2x − z ln x)| z2 =
1
=1− 4 (4 − z ln 2 − z + zln z2 ) =
Dz ∩ K 1
= 4 (z + z ln 2 − z ln z + z ln 2) =
0 z 2 x = 41 (z + 2z ln 2 − z ln z) при z ∈ [0; 4).
2
(
0, z∈/ (0, 4]
Отже, fη (z) = 1
.
4 (2 ln 2 − ln z), z ∈ (0, 4]

5.2.4 Закон розподiлу частки двох НВВ


Нехай ξ~ = (ξ1 , ξ2 ) — неперервний випадковий вектор, щiльнiсть fξ~(x, y) вiдома.
Задача: знайти розподiл η = ξξ21 .
РозпишемоRR функцiю розподiлу  за вже вiдомою схемою:
fξ~(x, y)dxdy, Dz = (x, y) ∈ R2 : xy < z

Fη (z) =
Dz
z > 0, тодi Dz = {x < 0, y > zx} ∪ {x > 0, y < zx}
y R0 +∞
R +∞
R zx
R
y = zx Fη (z) = dx fξ~(x, y)dy + dx fξ~(x, y)dy
−∞ zx 0 −∞
Продиференцiюємо обидвi частини по z:
R0 +∞
R
1. fη (z) = − xfξ~(x, zx)dx + xfξ~(x, zx)dx
x −∞ 0

Dz

57
Роздiл 5. Функцiї випадкових аргументiв.

z < 0, тодi Dz = {x < 0, y > zx} ∪ {x > 0, y < zx}


y R0 +∞
R +∞
R zx
R
Fη (z) = dx fξ~(x, y)dy + dx fξ~(x, y)dy
−∞ zx 0 −∞
Продиференцiюємо обидвi частини по z:
R0 +∞
R
2. fη (z) = − xfξ~(x, zx)dx + xfξ~(x, zx)dx
x −∞ 0

y = zx

Dz
R0 +∞
R
Отже, f ξ2 (z) = − xfξ~(x, zx)dx + xfξ~(x, zx)dx.
ξ1
−∞ 0

Зауваження. Якщо ξ1 та ξ2 незалежнi, то fξ~(x, zx) = fξ1 (x)fξ2 (zx).


ξ1
Вправа. Перевiрити, що щiльнiсть розподiлу η = ξ2 має вигляд
R0 +∞
R
fη (z) = − yfξ~(zy, y)dy + yfξ~(zy, y)dy.
−∞ 0

Приклад. ξ1 та ξ2 — незалежнi випадковi величини, що мають розподiл N(0, σ).


Знайти закон розподiлу η = ξξ21 .
Скористаємося знайденою формулою, враховуючи незалежнiсть:

Z0 +∞
Z
fη (z) = − xfξ1 (x)fξ2 (zx)dx + xfξ1 (x)fξ2 (zx)dx =
−∞ 0

Z0 +∞
Z
1 x
− 2σ
2 2 1 x2 2
=− xe 2 (1+z )
dx + xe− 2σ2 (1+z ) dx =
2πσ 2 2πσ 2
−∞ 0

x2
Z0 +∞
−σ 2 σ2
  Z
2σ 2 (1 + z2) = t
= x = e−t dt + e−t dt =
σ 2 (1 + z 2 )dx = dt 2πσ (1 + z 2 )
2 2πσ (1 + z 2 )
2
+∞ 0
+∞
Z
1 1
= e−t dt = , z ∈ R — це щiльнiсть розподiлу Кошi.
π(1 + z 2 ) π(1 + z 2 )
0

5.2.5 Закон розподiлу суми двох НВВ


Нехай ξ~ = (ξ1 , ξ2 ) — неперервний випадковий вектор, щiльнiсть fξ~(x, y) вiдома.
Задача: знайти розподiл η = ξ1 + ξ2 .
РозпишемоRR функцiю розподiлу  за вже вiдомою схемою:

Fη (z) = fξ~(x, y)dxdy, Dz = (x, y) ∈ R2 : x + y < z
Dz
+∞
R z−x
R
Fη (z) = dx fξ~(x, y)dy
y −∞ −∞
Продиференцiюємо обидвi частини по z:
+∞
R
fη (z) = fξ~(x, z − x)dx
−∞
Dz y =z−x
x

+∞
R
Зауваження. Якщо ξ1 та ξ2 незалежнi, то fη (z) = fξ1 (x)fξ2 (z − x)dx = (fξ1 ∗ fξ2 )(z). Тут
−∞
∗ позначає операцiю згортки.

58
Роздiл 5. Функцiї випадкових аргументiв.

+∞
R
Вправа. Перевiрити, що щiльнiсть розподiлу η1 = ξ1 −ξ2 має вигляд fη1 (z) = fξ~(x, x−z)dx,
−∞
+∞
R
а η2 = ξ2 − ξ1 — fη2 (z) = fξ~(x, x + z)dx.
−∞

Приклад. ξ1 та ξ2 — незалежнi випадковi величини, ξi ∼ Exp(λi ), i = 1, 2, λ1 6= λ2 .


Знайти закон розподiлу η = ξ1 + ξ2 .
Скористаємося знайденою формулою, враховуючи незалежнiсть:
Zz Zz
−λ1 x −λ2 (z−x) −λ2 z
fη (z) = [z − x > 0 ⇒ x < z] = λ1 e λ2 e dx = λ1 λ2 e e−x(λ1 −λ2 ) dx =
0 0
  z
1 λ1 λ2 −λ2 z −z(λ1 −λ2 )
= λ1 λ2 e−λ2 z e−x(λ1 −λ2 ) =

e (e − 1) =
−(λ1 − λ2 ) 0 λ2 − λ1
λ1 λ2
= (e−λ1 z − e−λ2 z ), z ≥ 0 та 0 iнакше.
λ2 − λ1
Це щiльнiсть закону Ерланга 2-го порядку. При λ1 = λ2 = λ отримаємо fη (z) = λ2 ze−λz при
z ≥ 0 та 0 iнакше. Це вже буде щiльнiсть гамма-розподiлу Γ(2, λ).

5.2.6 Числовi характеристики функцiї багатьох випадкових аргумен-


тiв
Розглядаємо неперервний випадковий вектор ξ~ = (ξ1 , ξ2 , ..., ξn ) та випадкову величину
~
η = ϕ(ξ).
+∞
R
Вправа. Довести, що для НВВ η, що приймає невiд’ємнi значення, Eη = (1 − Fη (x))dx.
0

Твердження. Eη k = ϕk (~x)fξ~(~x)d~x для всiх k ∈ N.


R
Rn

Доведення. Доведемо у випадку n = 2, та ϕ(x, y) ≥ 0.


+∞
Z +∞ Z Z
Z !
Eη k =

1 − Fηk (z) dz = fξ~(x, y)dxdy dz =
ϕk (x,y)≥z
0 0
 
ZZ ϕkZ(x,y) ZZ
= dz  fξ~(x, y)dxdy = ϕk (x, y)fξ~(x, y)dxdy
 

R2 0 R2

N
Вправа. Довести твердження в бiльш загальному виглядi.

Приклад. ξ1 , ξ2 — НВВ, знайдемо E(ξ1 + ξ2 ) та Eξ1 ξ2 у випадку незалежностi цих НВВ.


ZZ ZZ ZZ
E(ξ1 + ξ2 ) = (x + y)fξ~(x, y)dxdy = xfξ~(x, y)dxdy + yfξ~(x, y)dxdy = Eξ1 + Eξ2
R2 R2 R2

Якщо ξ1 , ξ2 незалежнi, то fξ~(x, y) = fξ1 (x)fξ2 (y).


  
ZZ Z Z
Eξ1 ξ2 = xyfξ1 (x)fξ2 (y)dxdy =  xfξ1 (x)dx  yfξ2 (y)dy  = Eξ1 Eξ2
R2 R R

59
Роздiл 5. Функцiї випадкових аргументiв.

5.3 Деякi нерiвностi


5.3.1 Нерiвнiсть Єнсена
Твердження. Нехай ξ — деяка випадкова величина з E|ξ| < ∞, а ϕ(x) — опукла функцiя.
Тодi ϕ(Eξ) ≤ Eϕ(ξ).
Доведення. Оскiльки ϕ(x) — опукла, то ∀ y ∈ R ∃ C(y) : ∀ x ∈ R : ϕ(x) − ϕ(y) ≥ c(y)(x − y).
Покладемо y = Eξ, x = ξ (оскiльки ξ приймає дiйснi значення), i, взявши з обох сторiн
нерiвностi математичне сподiвання, отримаємо Eϕ(ξ) ≥ ϕ(Eξ). N
Зауваження. Для увiгнутої ϕ(x) нерiвнiсть виконується в iншу сторону: Eϕ(ξ) ≤ ϕ(Eξ).
t
Приклад. Нехай 0 < s < t. Розглянемо ϕ(x) = |x| s , яка є опуклою. Скористаємося нерiвнi-
s s t t s 1 t 1
стю Єнсена для η = |ξ| : ϕ(Eη) ≤ Eϕ(η) ⇔ (E |ξ| ) s ≤ E |ξ| ⇔ (E |ξ| ) s ≤ (E |ξ| ) t .
Маємо важливий наслiдок: якщо у випадкової величини ξ iснує скiнченний абсолютний
m
момент E |ξ| (m ∈ N), то
2 1 3 1 m 1
E |ξ| ≤ (E |ξ| ) 2 ≤ (E |ξ| ) 3 ≤ ... ≤ (E |ξ| ) m
m
Тобто, iснування скiнченного моменту E |ξ| гарантує iснування як початкових, так i цен-
k k
тральних моментiв нижчих порядкiв (оскiльки |Eξ| ≤ E |ξ| ).

5.3.2 Нерiвнiсть Гельдера


1 1 p
Твердження. Нехай 1 < p < ∞, p + q = 1. Якщо для випадкових величин ξ та η E |ξ| та
1 1
q p q
E |η| скiнченнi, то E |ξη| теж скiнченне, причому E |ξη| ≤ (E |ξ| ) · (E |η| ) . p q

p q p
Доведення. Якщо E |ξ| = 0 або E |η| = 0, то нерiвнiсть, очевидно, виконується. Нехай E |ξ| >
q |ξ| |η| p q
0 та E |η| > 0. Позначимо ξ0 = 1 , η0 = 1 , причому Eξ0 = Eη0 = 1. З опуклостi
(E|ξ|p ) p (E|η|q ) q  
p q p q p q
функцiї f (x) = − ln x маємо xy = exp{ln xy} = exp{ lnpx + lnqy } ≤ exp{ln xp + yq } = xp + yq ,
1 1
p q
тому E (ξ0 η0 ) ≤ p1 Eξ0p + 1q Eη0q = 1
p + 1
q = 1, звiдки E |ξη| ≤ (E |ξ| ) p · (E |η| ) q . N
Зауваження. При p p = qp= 2 отримуємо вже знайому нерiвнiсть Кошi-Буняковського:
|Eξη| ≤ E |ξη| ≤ Eξ 2 · Eη 2 .

5.3.3 Нерiвнiсть Мiнковського


p
Твердження. Нехай для випадкових величин ξ та η i 1 ≤ p < ∞ маємо скiнченнi E |ξ| та
p p 1 p 1 p 1
E |η| . Тодi (E |ξ + η| ) p ≤ (E |ξ| ) p + (E |η| ) p .

Доведення. Для p = 1 нерiвнiсть є наслiдком нерiвностi |x + y| ≤ |x| + |y| для дiйсних чисел.
p p−1
Нехай p > 1, тодi |ξ + η| = |ξ + η| · |ξ  + η| ≤ |ξ| · |ξ + η|p−1 + |η| · |ξ + η|p−1 . Покладемо
p 1 1 p−1 q
q = p−1 . Тодi p + q = 1, E |ξ + η| = E|ξ + η|p скiнченне, бо для дiйсних чисел викону-

ється нерiвнiсть |x + y|p ≤ C(p) · (|x|p + |y|p ). Тодi з нерiвностi Гельдера: E |ξ| · |ξ + η|p−1 ≤
1 1 1 1  1
(E|ξ|p ) p · E|ξ + η|(p−1)q q = (E|ξ|p ) p · (E|ξ + η|p ) q 
i, аналогiчно, E |η| ·|ξ + η|p−1 ≤ (E|η|p ) p ·
1 1 1 1
p
(E|ξ + η|p ) q . Отримуємо E |ξ + η| ≤ (E|ξ + η|p ) q · (E|ξ|p ) p + (E|η|p ) p .
p p
У випадку E |ξ + η| = 0 виконання нерiвностi очевидне, а якщо E |ξ + η| > 0, то, подiливши
1
p 1− 1 1 1
на (E|ξ + η|p ) q , отримаємо (E |ξ + η| ) q ≤ (E|ξ|p ) p + (E|η|p ) p . Залишилося зауважити, що
1 − 1q = p1 . N

60
Роздiл 6

Основнi розподiли математичної


статистики

У цьому роздiлi буде наведено виведення законiв розподiлу, що застосовуються в задачах


математичної статистики, та їх числових характеристик.

6.1 Розподiл χ2 (Пiрсона)


n  2
P ξk −ak
Означення: нехай ξk ∼ N(ak , σk ), k = 1, ..., n — незалежнi у сукупностi. Тодi ξ = σk
k=1
2
має розподiл χ (хi-квадрат, Пiрсона) з n ступенями вiльностi.
n
ξk = ξk −ak ∼ N(0, 1), тому можна ще записати ξ =
˚ (˚
ξk )2 .
P
σk
k=1
Коротке позначення: ξ ∼ χ2n , n ∈ N — кiлькiсть ступенiв вiльностi.
Щiльнiсть розподiлу: вiдомо, що якщо η ∼ N(0, 1), то η 2 ∼ Γ 21 , 12 . Гамма-розподiл стiйкий

n
при β1 = β2 = ... = βn , ˚ (˚
ξk )2 ∼ Γ n2 , 12 = χ2n .
P 
ξk незалежнi у сукупностi, тому ξ =
k=1

n x
 n
1
x 2 −1 e− 2 , x≥0
fχ2n (x) = 2 2 Γ( n
2 )
0, x<0

Крива розподiлу: графiки для рiзних значень n.

fχ2n (x)

0 x

Числовi характеристики:
1. Eχ2n = n/2
1/2 = n.
n/2
2. Dχ2n = 1/4 = 2n.

6.2 Розподiл χ

Означення: нехай випадкова величина ξ має розподiл χ2n . Тодi η = ξ має розподiл χ (хi) з
n ступенями вiльностi.
Коротке позначення: η ∼ χn , n ∈ N — кiлькiсть ступенiв вiльностi.

61
Роздiл 6. Основнi розподiли математичної статистики.

Щiльнiсть розподiлу: скористаємося√ формулою для визначення


√ щiльностi розподiлу
0 фун-
кцiї вiд випадкової величини. η = ξ, тому позначимо ϕ(x) = x, ϕ−1 (y) = y 2 , ϕ−1 (y) = 2y.
 2
 n 1 n−1 − y2
−1

−1

0 2 −1 y e , y≥0
fχn (y) = fχ2n ϕ (y) · ϕ (y) = fχ2n (y ) · 2y = 2 2 Γ( 2 )
n
 
0, y<0

Числовi характеристики:
√ Γ( n+1 )
1. Eχn = 2 · Γ n2 .
(2)
2
2. Dχn = n − (Eχn ) .
Зауваження. Нескладно помiтити, що χ2 — це розподiл Релея.
χn √ 0 √
Знайдемо ще розподiл ζ = √n
. ϕ(y) = √yn , ϕ−1 (z) = z n, ϕ−1 (z) = n.

n

nz 2

−1

−1

0 √ √  n n2
−1 z n−1 e− 2 , z ≥ 0
Γ( 2 )
n
 
f√
χn (z) = f
n
χn ϕ (z) · ϕ (y) = fχn (z n) · n = 2 2
0, z<0
χn
Вправа. Записати числовi характеристики випадкової величини, що має розподiл √
n
.

6.3 Розподiл Стьюдента (t-розподiл)


χn
Означення: якщо ξ ∼ N(0, 1) та η ∼ √n
незалежнi, то ζ = ηξ = χn /ξ√n має розподiл Стью-
дента з n ступенями вiльностi.
Коротке позначення: ζ ∼ Stn , n ∈ N — кiлькiсть ступенiв вiльностi.
Щiльнiсть розподiлу: скористаємося формулою для визначення щiльностi розподiлу час-
тки двох незалежних НВВ.
+∞
Z n
+∞
Z
1 n2 z 2 x2 nx2
fStn (z) = xfξ (zx)f √n (x)dx =
χn √ · n n xe− 2 xn−1 e− 2 dx =
2π 2 2 −1 Γ

2
0 0
n
+∞
Z "
2
√ √ #
n 2
− x2
2 2 x 2 t 1 dt
=√ n−1 xn e (z +n)
dx = (z 2 + n) = t, x = √ , dx = √ √ √ =
n 2 z2 + n 2 z2 + n t

π2 2 Γ 2 0
n n
+∞ n
n 2 Γ n+1
Z 
n2 22 1 n−1
−t 2 1
= √ n−1 n
· 2 n 1 1 t 2 e dt = √ n · n+1 , z ∈ R
π2 2 Γ 2 (z + n) 2 2 (z + n) 2
2 2 πΓ 2 2
(z + n) 2
0

Крива розподiлу: графiки для рiзних значень n, називаються кривими Стьюдента. Вони
схожi на криву гауссiвського розподiлу, але повiльнiше прямують до 0 на нескiнченностi.

fStn (x)

0 x

Числовi характеристики:
1. EStn = 0.
n
2. DStn = n−2 , n > 2.
Зауваження. Нескладно помiтити, що St1 — це розподiл Кошi.

62
Роздiл 6. Основнi розподiли математичної статистики.

6.4 Розподiл Фiшера-Снедекора (F -розподiл)


χ2 /n1
Означення: випадкова величина η = χn2 1 /n2 , чисельник та знаменник якої незалежнi, має
n2
розподiл Фiшера-Снедекора з n1 , n2 ступенями вiльностi.
Коротке позначення: η ∼ F(n1 , n2 ), n1 , n2 ∈ N — кiлькiсть ступенiв вiльностi.
Щiльнiсть розподiлу: скористаємося формулою для  визначення щiльностi розподiлу час-
 n 1 x n2 −1 e− x2 , x ≥ 0
тки двох незалежних НВВ. Нагадаємо, що fχ2n (x) = 2 2 Γ( 2 )
n
.
0, x<0
n

 nn 2 y n2 −1 e− ny
2 , y≥0
Тодi fχ2n /n (y) = fχ2n (ny) · n = 2 2 Γ( 2 )
n
.
0, y<0

+∞
Z
fF(n1 ,n2 ) (z) = xfχ2n /n1 (zx)fχ2n /n2 (x)dx =
1 2
0
n1 n2 +∞
Z
n2 n2 n1
−1
n1
−1 −
n1 zx n2
−1 −
n2 x
= n1 +n2 1 2 xz 2 x 2 e 2 x 2 e 2 dx =
2 2 Γ n21 Γ n2

2 0
n1 n2 +∞
Z  
n2 n2 n1
−1
n1 +n2
−1 − x (n1 z+n2 ) x 2t
= n1 +n2 1 2  ·z 2 x 2 e 2 dx = (n1 z + n2 ) = t, x = =
2 2 Γ n21 Γ n2 2 n1 z + n2
2 0
n1 n2 +∞
Z
n n 2 2 n1
−1
n1 +n2 1 n1 +n2
= n1 +n2 1 2  ·z 2 ·2 2 · n1 +n2 t 2 −1 e−t dt =
2 2 Γ n21 Γ n2
2 (n1 z + n2 ) 2
0
n1
n1 +n2

Γ −1
n1 n2
z 2
= n1 n2
2 2
n1
 2 n2  · n1 +n2 , z ≥ 0 та 0 iнакше.
Γ 2 Γ 2 (n1 z + n2 ) 2

Крива розподiлу: графiки для рiзних значень n1 , n2 , називаються кривими Фiшера.

fF(n1 ,n2 ) (x)

0 x

Числовi характеристики:
1. EF(n1 , n2 ) = n2n−2
2
, n2 > 2.
2n22 (n1 +n2 −2)
2. DF(n1 , n2 ) = n1 (n2 −2)2 (n2 −4) , n2 > 4.
1
Зауваження. Якщо η ∼ F(n1 , n2 ), то η ∼ F(n2 , n1 ).

63
Роздiл 7

Граничнi теореми теорiї


ймовiрностей

7.1 Послiдовностi випадкових величин


7.1.1 Нерiвностi Маркова та Чебишова
Теорема (нерiвнiсть Маркова). Нехай модуль випадкової величини ξ має скiнченне мате-
матичне сподiвання: E|ξ| < +∞. Тодi
E|ξ|
∀ ε > 0 : P {|ξ| ≥ ε} ≤ (1)
ε
Доведення. Запишемо випадкову величину |ξ| через подiї-iндикатори: |ξ| = |ξ| · I {|ξ| ≥ ε} +
|ξ| · I {|ξ| < ε} ≥ ε · I {|ξ| ≥ ε}. Звiдси E|ξ| ≥ E (ε · I {|ξ| ≥ ε}) = ε · P {|ξ| ≥ ε}. N
E|ξ|
Зауваження. Еквiвалентною нерiвнiстю є P {|ξ| < ε} ≥ 1 − ε .

Приклад. Багатьма спостереженнями з’ясовано, що середня кiлькiсть сонячних днiв у Києвi


складає 220. Оцiнити ймовiрнiсть того, що сонячних днiв за рiк буде не менше 300.
Позначимо ξ кiлькiсть сонячних днiв. За умовою ξ невiд’ємна та Eξ = 220, тому за нерiвнiстю
Маркова P {ξ ≥ 300} ≤ 220 11
300 = 15 .

Теорема (нерiвнiсть Чебишова). Нехай випадкова величина ξ має скiнченнi математичне


сподiвання та дисперсiю. Тодi

∀ ε > 0 : P {|ξ − Eξ| ≥ ε} ≤ (2)
ε2

Доведення. P {|ξ − Eξ| ≥ ε} = P (ξ − Eξ)2 ≥ ε2 . Застосуємо нерiвнiсть Маркова:
 2
P (ξ − Eξ)2 ≥ ε2 ≤ E(ξ−Eξ)
ε2 = Dξ
ε2 . N

Зауваження. Еквiвалентною нерiвнiстю є P {|ξ − Eξ| < ε} ≥ 1 − ε2 .

Приклад. Отримаємо «правило 3σ» для довiльної випадкової величини зi скiнченними ма-
Dξ σ2 8
тематичним сподiванням та дисперсiєю. P {|ξ − Eξ| < 3σ} ≥ 1 − 9σ 2 = 1 − 9σ 2 = 9 .

Розглянемо застосування нерiвностi Чебишова в схемi Бернуллi. Нехай ξ ∼ Bin(n, p),


ξ
Eξ=np, Dξ =npq.
 Вiдношення n називається вiдносною
n частотою
o появи успiху або частiстю.
ξ ξ pq ξ pq
E n = p, D n = n . З нерiвностi Чебишова P n − p ≥ ε ≤ n2 .

7.1.2 Послiдовностi випадкових величин


Розглядаємо фiксований ймовiрнiсний простiр {Ω, F, P} та послiдовнiсть випадкових ве-

личин {ξn (ω)}n=1 . Якщо для кожного n ∈ N випадковi величини ξ1 , ξ2 , ..., ξn незалежнi у

сукупностi, то послiдовнiсть {ξn (ω)}n=1 називається послiдовнiстю незалежних випадкових
величин.
Послiдовностi випадкових величин можна задавати рiзними способами:

64
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

1. Нехай ξ — деяка випадкова величина, можна задати ξn = fn (ξ), де fn — деяка числова


функцiя. Наприклад: ξn = ξ n , ξn = cos(nξ).
2. n може входити як параметр закону розподiлу ξn . Наприклад, ξn ∼ Exp(n), ξn ∼ N(0, n1 ).
3. Для послiдовностей ДВВ n може входити √ як в значення,
√ що приймає ξn , так i у вiдпо-
ξn − n 0 n
вiднi ймовiрностi. Наприклад:
p 1/n 1 − 2/n 1/n
В курсi функцiонального аналiзу вводяться рiзнi види збiжностi послiдовностi вимiрних фун-
кцiй та зв’язок мiж цими видами збiжностi.

7.1.3 Види збiжностi послiдовностi випадкових величин


Нагадаємо класичне означення границi числової послiдовностi. Число a називають грани-

цею послiдовностi {an }n=1 , якщо
∀ ε > 0 ∃ N (ε) ∈ N : ∀ n ≥ N (ε) |an − a| < ε

Оскiльки послiдовнiсть випадкових величин {ξn }n=1 є послiдовнiстю функцiй з Ω в R, то
це означення не є застосовним, бо |ξn − ξ| < ε є випадковою подiєю, що виконується, взагалi
кажучи, не для всiх елементарних подiй ω ∈ Ω. Тому ми маємо ввести iнше означення границi
(та збiжностi) послiдовностi випадкових величин. Виявляється, що таких означень можна
запропонувати декiлька, причому вони не є еквiвалентними одне одному.

1. Збiжнiсть майже напевно (сильна збiжнiсть, n збiжнiсть з ймовiрнiстю


o 1).

{ξn }n=1 збiгається до ξ майже напевно, якщо P ω : lim ξn (ω) = ξ(ω) = 1. Це еквi-
n o n→∞
валентно умовi P ω : lim ξn (ω) 6= ξ(ω) = 0.
n→∞
P1 м.н.
Позначення: ξn −→ ξ, n → ∞ або ξn −→ ξ, n → ∞.
P1
Вправа. Довести
 ∞ ∞ще одне еквiвалентне означення
 цiєї збiжностi: ξn −→ ξ, n → ∞, якщо
T S
∀ε>0:P {ω : |ξk (ω) − ξ(ω)| > ε} = 0.
n=1 k=n
Це найбiльш природний з iнтуїтивної точки зору вид збiжностi. Зауважимо, однак, що
вiн має доволi дивнi властивостi. Наприклад, можна навести приклад послiдовностi ξn ,
що не збiгається до деякої ξ, але будь-яка її пiдпослiдовнiсть ξnk мiстить свою пiдпослi-
довнiсть ξnkl , яка все ж таки збiгається до ξ.

Твердження (лема Бореля-Кантеллi).

∞ ∞  Якщо для послiдовностi подiй {An }n=1 ряд
P T S
P(An ) збiгається, то P Ak = 0. Це означає, що ймовiрнiсть того, що
n=1 n=1 k=n
вiдбудеться нескiнченна кiлькiсть цих подiй, є нульовою.

S
Доведення. Послiдовнiсть подiй Bn = Ak монотонно спадна, тому за теоремою непе-
∞ k=n ∞ ∞
 
T S P
рервностi 2 P Bn = lim P(Bn ). P(Bn ) = P Ak ≤ P(Ak ) → 0 при n → ∞
n=1 n→∞ k=n k=n
∞ ∞ 
T S
зi збiжностi ряду. Тому lim P(Bn ) = P Ak = 0. N
n→∞ n=1 k=n

Застосуванням цiєї леми до послiдовностi подiй An = {ω : |ξn (ω) − ξ(ω)| > ε} отримаємо
зручну для використання ознаку збiжностi з ймовiрнiстю 1 : якщо для будь-якого ε > 0

P P1
ряд P {|ξn − ξ| > ε} збiгається, то ξn −→ ξ, n → ∞.
n=1

Приклад. Довести, що послiдовнiсть ξn ∼ U(− n1 , n1 ) при n → ∞ збiгається до 0 майже


напевно.
Вiзьмемо довiльне ε > 0 та знайдемо P {|ξn | > ε}. Для ε ≥ 1 ця ймовiрнiсть, очевидно,
рiвна 0. В iншому випадку, для кожного ε ∈ (0; 1) можна знайти такий номер N , для
якого ε буде бiльше за n1 при n ≥ N . Тому для будь-якого ε > 0 ймовiрностi P {|ξn | > ε}

P
рiвнi 0, починаючи з якогось n. Отже, для будь-якого ε > 0 ряд P {|ξn | > ε} збiгається
n=1
P1
i ξn −→ 0, n → ∞.

65
Роздiл 7. Граничнi теореми теорiї ймовiрностей.


2. Збiжнiсть за ймовiрнiстю. {ξn }n=1 збiгається до ξ за ймовiрнiстю, якщо ∀ ε > 0 :
lim P {|ξn − ξ| ≥ ε} = 0. Це еквiвалентно умовi ∀ ε > 0 : lim P {|ξn − ξ| ≤ ε} = 1. У
n→∞ n→∞
функцiональному аналiзi така збiжнiсть називається «збiжнiстю за мiрою».
P
Позначення: ξn −→ ξ, n → ∞.
ξn 0 n7
Приклад. Нехай ξn — послiдовнiсть ДВВ: . Перевiрити збiжнiсть
p 1 − 1/n 1/n
P
ξn −→ 0, n → ∞.
Для ε > 0 P {|ξn − 0| ≥ ε} = P {ξn ≥ ε}. ∀ ε > 0 ∃ N : ∀n ≥ N : n7 > ε, тому з якогось
P
номера P {ξn ≥ ε} = P ξn = n7 = n1 → 0, n → ∞, тому ξn −→ 0, n → ∞.



3. Збiжнiсть в середньому. {ξn }n=1 збiгається до ξ в середньому, якщо lim E|ξn −ξ| = 0.
n→∞
С
Позначення: ξn −→ ξ, n → ∞.

4. Збiжнiсть в середньому квадратичному. {ξn }n=1 збiгається до ξ в середньому ква-
дратичному, якщо lim E(ξn − ξ)2 = 0.
n→∞
СК
Позначення: ξn −→ ξ, n → ∞.
5. Збiжнiсть за розподiлом (слабка збiжнiсть, збiжнiсть в основному).
∞ ∞
{ξn }n=1 збiгається до ξ за розподiлом, якщо функцiональна послiдовнiсть {Fξn (x)}n=1
збiгається до Fξ (x) в точках її неперервностi.
F
Позначення: ξn −→ ξ, n → ∞.
Ця збiжнiсть за характером вiдрiзняється вiд iнших тим, що не враховує залежнiсть
або незалежнiсть ξn . Є також еквiвалентне означення збiжностi за розподiлом: якщо
для будь-якої обмеженої неперервної функцiї ϕ : R → R lim Eϕ(ξn ) = Eϕ(ξ). Доведе-
n→∞
ння еквiвалентностi цих двох означень виходить за рамки курсу: його iдея полягає в
тому, що Fξ (x) = P {ξ < x} = E1(−∞,x) (ξ), де 1(−∞,x) — iндикатор множини (−∞, x), i
такi функцiї-iндикатори можна наблизити з будь-якою заданою точнiстю неперервними
функцiями та навпаки.
F
Приклад. Нехай ξn ∼ Exp( n1 ). Перевiрити ξn → 0, n → ∞. Тут пiд 0 розумiється ДВВ,
що приймає( значення 0 з ймовiрнiстю 1. (
x
−n
1−e , x>0 1, x > 0
Fξn (x) = . Видно, що при n → ∞ Fξn (x) → F0 (x) = —
0, x≤0 0, x ≤ 0
функцiя розподiлу 0.
Зауваження. Збiжностi в середньому та середньому квадратичному є частковими випадками
s 1
збiжностi порядку k, для якої lim E|ξn −ξ|k = 0. Оскiльки для 0 < s < t має мiсце (E |ξ| ) s ≤
n→∞
t 1
(E |ξ| ) t то збiжнiсть порядку k гарантує збiжнiсть порядкiв менше k.

Твердження. Нехай послiдовнiсть {ξn }n=1 збiгається за ймовiрнiстю до двох випадкових
величин ξ та η. Тодi P {ξ = η} = 1.

ε > 0 : {|ξ− η| > ε} ⊂ |ξ − ξn | > 2ε ∪ |η − ξn | > 2ε , тому


 
Доведення. Для будь-якого
P {|ξ − η| > ε} ≤ P |ξ − ξn | > 2ε + P |η − ξn | > 2ε → 0, n → ∞. Отже, P {|ξ − η| > ε} = 0, i


за довiльнiстю ε > 0 маємо P {ξ 6= η} = 0, або ж P {ξ = η} = 1. N

Вправа. Довести, що це твердження виконується для збiжностей з ймовiрнiстю 1, в середньо-


му та середньому квадратичному, але не виконується для збiжностi за розподiлом.
Можна довести, що усiм збiжностям, крiм збiжностi за розподiлом, притаманнi вiдомi
арифметичнi властивостi: збiжнiсть суми ξn + ηn та добутку ξn ηn до ξ + η та ξη вiдповiдно за
умови збiжностей ξn до ξ та ηn до η. Також, ϕ(ξn ) збiгається до ϕ(ξ) за умови неперервностi
ϕ.
В курсi функцiонального аналiзу встановлюється зв’язок мiж розглянутими видами збi-
жностi:

66
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

Збiжнiсть в середньому
квадратичному (СК)
Збiжнiсть з ймовiрнiстю 1
(P1)
Збiжнiсть в середньому
(С)
1

Збiжнiсть за ймовiрнiстю
(P)

Збiжнiсть за розподiлом
(F)


Штрихова лiнiя 1 означає, що у кожнiй послiдовностi {ξn }n=1 , що збiгається за ймовiр-

нiстю, мiститься пiдпослiдовнiсть {ξnk }k=1 , що збiгається з iмовiрнiстю 1. Штрих-пунктирна
лiнiя 2 показує, що вiдповiдний перехiд справедливий, коли гранична випадкова величина ξ
є константою. Доведемо деякi з цих тверджень.
Твердження. Зi збiжностi в середньому квадратичному випливає збiжнiсть в середньому.
p
Доведення. E|ξn − ξ| ≤ E(ξn − ξ)2 , як було сказано вище, тому з E(ξn − ξ)2 → 0 випливає
E|ξn − ξ| → 0, n → ∞. N
Твердження. Зi збiжностi в середньому випливає збiжнiсть за ймовiрнiстю.
E|ξn −ξ|
Доведення. З нерiвностi Маркова (1) ∀ ε > 0 : P {|ξn − ξ| ≥ ε} ≤ ε , тому з E|ξn − ξ| → 0
маємо P {|ξn − ξ| ≥ ε} → 0, n → ∞. N
Твердження. Зi збiжностi за розподiлом до константи випливає збiжнiсть за ймовiрнi-
стю.
F
Доведення. Нехай ξn −→ c, c ∈ R. Вiзьмемо ε > 0. P {|ξn − c| ≤ ε} = P {c − ε ≤ ξn ≤ c + ε} ≥
P {c − ε ≤ ξn < c + ε} = Fξn (c + ε) − Fξn (c − ε), тому lim P {|ξn − c| ≤ ε} ≥ lim Fξn (c + ε) −
n→∞ n→∞
P
lim Fξn (c − ε) = Fc (c + ε) − Fc (c − ε) = 1, звiдки ξn −→ c. N
n→∞

ξn −n 1 2n
Приклад. Нехай ξn — послiдовнiсть ДВВ: .
p 1/2n 1 − 1/n 1/2n
Зi збiльшенням n ξn все з бiльшою ймовiрнiстю набувають значення 1. Водночас, iншi два
можливi значення (−n та 2n) розбiгаються до нескiнченностi. Цi два процеси спричиняють
протилежнi ефекти — перший наближає ξn до 1, а другий — вiддаляє. Тому з точки зору
одних видiв збiжностi, бiльш чутливих до «аномальних викидiв», послiдовнiсть ξn не буде
мати границi, а з точки зору iнших, менш чутливих, границя дорiвнюватиме 1. Дiйсно:
 
1 1 1 3
E |ξn − 1| = | − n − 1| + 1 − |1 − 1| + |2n − 1| →
2n n 2n 2
 
2 1 1 1
E (ξn − 1) = (−n − 1)2 + 1 − (1 − 1)2 + (2n − 1)2 → ∞
2n n 2n
Отже, збiжностi до 1 нi в середньому, нi в середньому квадратичному немає. Зауважимо, що
якби «викиди» прямували до нескiнченностi повiльнiше або вiдповiднi ймовiрностi прямували
до нуля швидше,
√ √ цi збiжностi могли б бути: наприклад, якщо замiсть −n та 2n ξn набували
то
значення n та 2 n з ймовiрностями 2n1 2 , то послiдовнiсть збiгалася б до 1 i в середньому,
i в середньому квадратичному. З iншого боку, для будь-якого ε > 0 значення −n та 2n рано
P
чи пiзно вийдуть за межi вiдрiзку [1 − ε; 1 + ε], i тому ξn −→ 1. Тепер стає зрозумiло, чому
перевiряли збiжнiсть в середньому та середньому квадратичному лише до 1: якби якась з цих
границь iснувала, то вона була б i границею за ймовiрнiстю.

67
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

СК
Зауваження. Для збiжностi ξn −→ C (C — стала) необхiдно i достатньо, щоб lim Eξn = C
n→∞
та lim Dξn = 0. lim Eξn = C ⇔ lim (Eξn − EC) = 0, E(ξn − C)2 = Dξn + (E(ξn − C))2 , звiдки
n→∞ n→∞ n→∞
отримуємо твердження при n → ∞, оскiльки Dξn ≥ 0 та (E(ξn − C))2 ≥ 0. Зауважимо, що цi
P
двi умови є достатнiми для збiжностi ξn −→ C.
P
Приклад. Нехай ξn ∼ N 5 + n1 , σ = n1 . Перевiрити ξn −→ 5.


1 1 СК P
Оскiльки Eξn = 5 + n → 5, Dξn = n2 → 0 при n → ∞, то ξn −→ 5 ⇒ ξn −→ 5.
Наведемо без доведення важливу теорему, що стосується збiжностi за розподiлом.
Теорема (теорема неперевностi Левi). Збiжнiсть за розподiлом послiдовностi випадкових

величин {ξn }n=1 еквiвалентна поточковiй збiжностi їх характеристичних функцiй:
F
ξn −→ ξ ⇐⇒ χξn (t) → χξ (t) ∀ t ∈ R (3)

7.2 Закон великих чисел


Закон великих чисел (ЗВЧ) — загальна назва низки теорем та фактiв, якi встановлюють
умови, за яких середнє арифметичне випадкових величин зi зростанням кiлькостi доданкiв
втрачає свою «випадковiсть» i може бути передбачено з наперед заданою точнiстю.

7.2.1 Теорема Чебишова (ЗВЧ у формi Чебишова).



Теорема. Нехай {ξn }n=1 — послiдовнiсть незалежних випадкових величин, таких, що iсну-
ють скiнченнi Eξk = ak та Dξk = σk2 для кожного k ∈ N, причому дисперсiї рiвномiрно
обмеженi: тобто ∃ C < +∞ : Dξk ≤ C ∀ k ∈ N. Тодi:
( n n
)
1 X 1X
∀ ε > 0 lim P ξk − Eξk ≥ ε = 0 (у випадку < ε — рiвна 1) (1)

n→∞ n n
k=1 k=1

Це означає
n n
1X 1X P
ξk − Eξk −→ 0, n → ∞ (2)
n n
k=1 k=1

n
 n  n
Доведення. Позначимо ηn = n1 ξk , тодi Eηn = E n1 ξk = n1
P P P
Eξk ,
 n  k=1 k=1 k=1
n
Dηn = D n1 ξk = [ξk — незалежнi] = n12 Dξk ≤ C
P P
n . Тепер скористаємося нерiвнiстю
k=1 k=1
Dηn C
Чебишова (2): ∀ ε > 0 : P {|ηn − Eηn | ≥ ε} ≤ ε2 ≤ nε2 → 0, n → ∞ — що i треба було
довести. N

Наслiдок. Припустимо, що всi ВВ ξn розподiленi однаково i виконуються всi умови теоре-


n n
P
ми. Тодi n1 Eξk = a i n1
P P
ξk −→ a, n → ∞. Розглянемо природну iнтерпретацiю цього
k=1 k=1
факту. Нехай невипадкову величину a може бути вимiряно за допомогою деякого пристрою.
Внаслiдок наявностi похибок вимiрювання цей пристрiй вимiрює не точне значення a, а лише
деяку випадкову величину ξ, в якомусь сенсi близьку до a. Будемо, однак, вважати, що в
середньому пристрiй повертає правильний результат: Eξ = a (iнодi в прикладних науках це
називають вiдсутнiстю систематичних похибок). Як в цiй ситуацiї отримати якомога бiльш
точне значення a? Отриманий наслiдок теореми Чебишова обґрунтовує iнтуїтивну вiдповiдь
на це питання: провести декiлька вимiрювань i обчислити їх середнє арифметичне.
Зауваження. Для однаково розподiлених ξn припущення щодо дисперсiї, виявляється, є зай-
вим. Для спрощення розглянемо випадок Eξn = 0. Нехай χ(t) — характеристична функцiя
n
розподiлу всiх ξn , тодi для ηn = n1 ξk маємо характеристичну функцiю χηn (t) = χn nt .
P 
k=1

Тепер |χηn (t) − 1| = χn nt − 1 ≤ n χ nt − 1 . Нерiвнiсть отримано з простого факту: для
 

68
Роздiл 7. Граничнi теореми теорiї ймовiрностей.


z, w ∈ C з |z| ≤ 1 та |w| ≤ 1 |z n − wn | = |z − w| · z n−1 + z n−2 w + ... + zwn−2 + wn−1 ≤
n · |z − w|. Оскiльки 1 — це характеристична функцiя нульової випадкової величини, а
F P
lim n χ( nt ) − 1 = t · χ0 (0) = [Eξn = 0] = 0, то за теоремою Левi ξn −→ 0, а тому й ξn −→ 0.

n→∞
Залишилося зауважити, що у випадку Eξn = a 6= 0 можемо розглядати послiдовнiсть ξn − a,
P P
i ξn − a −→ 0 ⇔ ξn −→ a.
Наведемо ще один варiант формулювання закону великих чисел.

Теорема (теорема Маркова). Нехай {ξn }n=1 — послiдовнiсть випадкових величин (можли-
во, залежних),
 n таких,
 що iснують скiнченнi Eξk = ak та Dξk = σk2 для кожного k ∈ N,
n n
P
ξk = o(n2 ) при n → ∞. Тодi n1 ξk − n1
P P P
причому D Eξk −→ 0, n → ∞.
k=1 k=1 k=1

Вправа. Довести теорему Маркова.


Приклад. 1. Скiльки вимiрювань величини a треба провести, щоб з ймовiрнiстю 0.998
стверджувати, що похибка середнього арифметичного результатiв вимiрювань не пе-
1
ревищує 100 , якщо середньоквадратичне вiдхилення кожного вимiрювання σ = 0.03?
n n
Позначимо ηn = n1 ξk , де ξk — результат k-того випробування. Dηn = n12
P P
Dξk =
k=1 k=1
1 σ2 1 0.032 9
n2 · nσ 2 = n . 0.01} ≥ 1 −
P{|ηn − a| ≤ |{z} 0.012 · Dηn = 1 − n·0.012 = 0.998 ⇒ n = 0.002, тому
ε
n = 4500.
2. Нехай ξn — послiдовнiсть випадкових величин, що мають розподiл U[−1; 1]. Знайти
n
границю за ймовiрнiстю послiдовностi ηn = n1 e ξk .
P
k=1
P 1
R1 P
За ЗВЧ ηn −→ Eeξ , де ξ ∼ U[−1; 1]. Eeξ = 2 ex dx = sinh 1, тому ηn −→ sinh 1.
−1

n
Вправа. Знайти границю за ймовiрнiстю послiдовностi ηn = ξ1 · ... · ξn , де ξn незалежнi та
мають розподiл U[0; 1].

7.2.2 Посилений закон великих чисел


Посилений закон великих чисел — це загальна назва ЗВЧ, що стосуються збiжностi з
ймовiрнiстю 1. Наведемо без доведення приклад такого закону.

Теорема (теорема Колмогорова). Нехай {ξn }n=1 — послiдовнiсть незалежних однаково роз-
подiлених випадкових величин, що мають скiнченне математичне сподiвання a. Тодi без
припущень щодо дисперсiї
n
1X P1
ξk −→ a, n → ∞ (3)
n
k=1

7.2.3 Закон великих чисел у схемi Бернуллi


Розглянемо частковий випадок ЗВЧ Чебишова для схеми Бернуллi.
Теорема (теорема Бернуллi). Нехай ξn задає кiлькiсть успiхiв в схемi Бернуллi з n випро-
P
буваннями зi сталою ймовiрнiстю успiху p, ξn ∼ Bin(n, p). Тодi ξnn −→ p, n → ∞, тобто
 
ξn
∀ ε > 0 : lim P − p ≥ ε = 0
(4)
n→∞ n
n
P
Доведення. Зведемо до теореми Чебишова. ξn = ηk , де ηk — iндикатор появи успiху в
k=1
k-тому випробуваннi, ηk ∼ Bin(1, p). ηk — незалежнi та однаково розподiленi, Eηk = p тому за
n
P
наслiдком ЗВЧ Чебишова для однаково розподiлених ВВ ξnn = n1
P
ηk −→ p, n → ∞. N
k=1

69
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

ξn
Зауваження. Для практичного використання цiєї теореми важливою є оцiнка збiжностi n
до p:  
ξn Dηk p(1 − p) 1
P − p ≥ ε ≤

2
= 2

n nε nε 4nε2
Остання нерiвнiсть пояснюється тим, що максимальне значення функцiї f (t) = t(1 − t) =
2
− t − 12 + 14 на вiдрiзку [0; 1] дорiвнює 41 .
Приклад. Оцiнити ймовiрнiсть того, що при 104 пiдкиданнях симетричної монети частiсть
випадiння герба вiдхилиться вiд 12 на 0.01 i бiльше. n o
Нехай ξn задає кiлькiсть гербiв, що випали за n пiдкидань. Тодi P ξ10000 − 21 ≥ 0.01 ≤
10000
1
4·104 ·0.012 = 14 .
Наведемо узагальнення теореми Бернуллi.
Теорема. Нехай ξn задає кiлькiсть успiхiв в схемi Бернуллi з n випробуваннями та ймо-
n
P
вiрнiстю успiху pn , ξn ∼ Bin(n, pn ). Тодi ξnn − n1
P
pk −→ 0, n → ∞.
k=1

Вправа. Довести це узагальнення.

7.2.4 Методи Монте-Карло


Методом (або методами) Монте-Карло називають широкий клас пiдходiв, що дозволя-
ють наближено розв’язувати детермiнованi («невипадковi») задачi ймовiрнiсними методами.
Iсторично одним з перших застосувань такого пiдходу було наближене обчислення числа π
за допомогою голки — задача Бюффона. Проiлюструємо метод Монте-Карло задачi набли-
женого iнтегрування.
Нехай g [a, b] → [0, +∞) — деяка неперервна невiд’ємна функцiя, для якої потрiбно набли-
Rb
жено обчислити значення g(x)dx. Запропонуємо два способи такого обчислення.
a
Спочатку розглянемо послiдовнiсть випадкових величин ξn , що мають спiльний розподiл
1
Rb Rb
U[a; b]. Eg(ξ1 ) = b−a g(x)dx, тому g(x)dx = (b − a) · Eg(ξ1 ). З теореми Колмогорова (3)
a a
n
1
P P1
n g(ξk ) −→ Eg(ξ1 ), n → ∞, тому при достатньо великих n виконується наближена рiвнiсть:
k=1

Zb n
b−a X
g(x)dx ≈ g(ξk )
n
a k=1

Другий спосiб розв’язання цiєї задачi заснований на iнтерпретацiї iнтеграла як площi пiд
графiком функцiї. Оскiльки g є неперервною функцiєю на вiдрiзку, вона також є обмеженою:
iснує таке M > 0, що g(x) ≤ M для будь-якого x ∈ [a, b]. Тому, кидаючи випадковi точки
в прямокутник Π = [a; b] × [0; M ], ми будемо потрапляти у пiдграфiк G функцiї g якраз з
ймовiрнiстю
Rb
g(x)dx
площа G a
p= =
площа Π M (b − a)

70
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

y
M
Π
g(x)
(ξ2 , η2 )

G
(ξ1 , η1 )

(ξ3 , η3 )

a b x

Для формалiзацiї введемо двi незалежнi послiдовностi незалежних випадкових величин ξn та


ηn , де ξn ∼ U[a; b], ηn ∼ U[0; M ] для всiх n ∈ N. Розглянемо схему Бернуллi, де «успiхом» в
n-тому випробуваннi будемо вважати потрапляння точки (ξn , ηn ) в область G, причому його
ймовiрнiсть рiвна заданому вище p. Знову за теоремою Колмогорова вiдношення кiлькостi
успiхiв до загальної кiлькостi проведених випробувань з ймовiрнiстю 1 прямує до p. Тому при
достатньо великих n виконується наближена рiвнiсть
Zb
g(x)dx ≈ M · (b − a) · νn
a

де νn — вiдношення кiлькостi успiхiв до загальної кiлькостi проведених випробувань. Зро-


зумiло, що такий пiдхiд узагальнюється на кратнi iнтеграли.

7.3 Центральна гранична теорема



Як було показано вище, для послiдовностi незалежних ВВ {ξn }n=1 зi скiнченними ма-
n
P
тематичними сподiваннями та обмеженими в сукупностi дисперсiями n1
P
(ξk − Eξk ) −→ 0.
k=1
Виявляється, що якщо знаменник цих сум буде прямувати до 0 повiльнiше, то границя (хоча
й в слабшому сенсi) вже не буде нульовою.

7.3.1 Теорема Ляпунова



Теорема (теорема Ляпунова). Нехай {ξn }n=1 — послiдовнiсть незалежних випадкових ве-
3
личин таких, що iснують скiнченнi Eξk = ak , Dξk = σk2 та mk = E |ξk − ak | i виконується
умова Ляпунова:
Pn
mk
k=1
lim  3/2 = 0
n→∞ n
2
P
σk
k=1

Тодi рiвномiрно вiдносно x:


 
 Pn 
(ξk − ak )
 

 
 Zx

k=1
 1 1 t2 1
lim P s < x = FN(0,1) (x) = Φ(x) + = √ e− 2 dt + (1)
n→∞  n  2 2π 2
σk2
 P 

 
 0
 
k=1

або:
n
P
(ξk − ak )
k=1 F
s −→ ξ ∼ N(0, 1), n → ∞
n
σk2
P
k=1

71
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

n
P s
(ξk −ak ) n
ξk − ak = ξ˚k (Eξ˚k = 0), Bn = σk2 . Тодi ηn =
k=1
P
Доведення. Позначимо ηn = s
n
,
2 k=1
P
σk
k=1
n n h i
1
ξ˚k . Eηn = 0, Dηn = 1
Dξ˚k = Dξk = Dξ˚k = 1.
P P
Bn Bn2
k=1 k=1
Доведення ґрунтується на теоремi Левi (3): збiжнiсть за розподiлом послiдовностi випад-

кових величин {ξn }n=1 еквiвалентна поточковiй збiжностi їх характеристичних функцiй.
Нехай χk (t) — характеристична функцiя ξ˚k , а Fk (x) — функцiя розподiлу ξ˚k . За власти-
n 2
χk ( Btn ). Доведемо, що χηn (t) → e−t /2 =
Q
востями характеристичних функцiй χηn (t) =
k=1
χN(0,1) (t) при n → ∞.
+∞ +∞
t2 2 t3 3
  Z Z 
t t t
χk = ei Bn x dFk (x) = 1+i x− x − i x + ... dFk (x) =
Bn Bn 2Bn2 6Bn3
−∞ −∞
2
it ˚ t 2 |t|3 t2 2 |t|3
= [θk ∈ (0; 1)] = 1 + Eξk − 2
Eξ˚k + θk 3 E|ξ˚k |3 = 1 − 2
σk + θk 3 mk
Bn 2Bn 6Bn 2Bn 6Bn
n   X n  2 3

X t t |t|
ln χηn (t) = ln χk = ln 1 − σ 2 + θk 3 mk
Bn 2Bn2 k 6Bn
k=1 k=1

n
P
mk
k=1
З умови Ляпунова lim 3
Bn = 0, тому з вiдомої властивостi ln(1 + αn ) ∼ αn , де αn
n→∞
n
P 2
n  σk
t2 σ 2 3
 2
|t|
− t2
P k=1
— нескiнченно мала при n → ∞, маємо ln χηn (t) ∼ − 2B 2k + θk 6B 3 mk = Bn2 +
n n
k=1
n 3 2
n 3 2
P |t| t
P |t| t
θk 6B 3 mk = − 2 + θk 6B 3 mk → − 2 при n → ∞.
n n
k=1 k=1
t2 F
Таким чином, χηn (t) → e− 2 при n → ∞ i з теореми Левi маємо, що ηn −→ ξ ∼ N(0, 1). N
Зауваження. Можна довести, що для послiдовностi неперервних випадкових величин також
x2
має мiсце збiжнiсть щiльностей розподiлу ηn до √12π e− 2 — щiльностi розподiлу N(0, 1).
3
Наслiдок. Нехай всi ξn однаково розподiленi, Eξk = a, Dξk = σ 2 , mk = E |ξk − a| = m. Тодi
умова Ляпунова виконується автоматично:
n
P
mk
k=1 n·m
lim  3/2 = n→∞
lim =0
n→∞ n (n · σ 2 )3/2
σk2
P
k=1

В цьому випадку
n
P
(ξk − ak ) n  
k=1 1 X ξk − a F
s =√ −→ ξ ∼ N(0, 1), n → ∞
n n σ
k=1
σk2
P
k=1

Це твердження означає, що яким би не був розподiл ξn , ζn = ξ1 + ... + ξn матиме «приблизно


нормальний» розподiл N(na, nσ 2 ). Проiлюструємо це на прикладi рiвномiрного розподiлу. На
рисунку нижче зображено графiки щiльностей розподiлiв U[−1; 1] та N 0, 31 . Зауважимо, що
1
3 — це дисперсiя U[−1; 1].

72
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

−4 −2 0 2 4 x

Розглянемо тепер щiльностi розподiлу сум двох (злiва) та трьох (справа) незалежних ВВ,
кожна з яких має розподiл U[−1; 1], i щiльностi нормальних розподiлiв N 0, 32 та N (0, 1)


вiдповiдно.

−4 −2 0 2 4 x −4 −2 0 2 4 x

Видно, що графiк щiльностi суми трьох ВВ дуже схожий на графiк щiльностi нормального
розподiлу N (0, 1).
Вправа. Записати в явному виглядi щiльностi розподiлу ζ2 = ξ1 + ξ2 та ζ3 = ξ1 + ξ2 + ξ3 , де
ξk ∼ U[−1; 1], k = 1, 2, 3.
n
E|ξk −Eξk |3
P
k=1
Варто пояснити практичне значення умови Ляпунова lim  n 3/2 = 0 в доведеннi
n→∞ P
Dξk
k=1
теореми. Вона означає, що дисперсiї величин у послiдовностi мають бути приблизно однако-
вого порядку. Можна навести приклад з життя: якщо в багатоквартирному будинку не буде
квартири, що використовує значно бiльше електроенергiї, нiж iншi, то сумарний розподiл
кiлькостi використаної електроенергiї буде приблизно нормальним.

7.3.2 Умова Лiндеберга


Замiсть умови Ляпунова в доведеннi однойменної теореми можна вимагати виконання
умови Лiндеберга:
n
1 X  2

∀ ε > 0 : lim 2
E (ξk − ak ) · 1{|ξk −ak |>ε·Bn } = 0
n→∞ Bn
k=1
s
n
P
Тут ak = Eξk , Bn = Dξk , 1A — iндикатор подiї A. Ймовiрнiсний змiст цiєї умови такий:
k=1
нехай Ak = {|ξk − ak | > ε · Bn }, тодi
n
! n n Z n Z
[ X X X (x − ak )2
P Ak ≤ P(Ak ) = dFk (x) ≤ dFk (x) =
ε2 Bn2
k=1 k=1 k=1 |x−ak |>ε·Bn k=1 |x−ak |>ε·Bn
n
1 1 X  2

= · E (ξk − ak ) · 1{|ξk −ak |>ε·Bn } → 0, n → ∞
ε2 Bn2
k=1
n
ξk −ak 1
P
Це означає, що кожний доданок Bn має рiвномiрно малий внесок в суму Bn (ξk − ak ).
k=1
Повне доведення ЦГТ з умовою Лiндеберга виходить за рамки курсу.

73
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

7.4 Застосування ЦГТ до схеми Бернуллi


7.4.1 Iнтегральна теорема Муавра-Лапласа
Теорема. Нехай ξn задає кiлькiсть успiхiв в схемi Бернуллi з ймовiрнiстю успiху p, тобто
ξn ∼ Bin(n, p), q = 1 − p. Тодi рiвномiрно вiдносно x:
  Zx
ξn − np 1 1 t2 1
lim P √ < x = F N(0,1) (x) = Φ(x) + = √ e− 2 dt + (1)
n→∞ npq 2 2π 2
0

n
P
Доведення. ξn = ηk , де ηk — iндикатор появи успiху в k-тому випробуваннi, ηk ∼ Bin(1, p).
k=1
ηk — незалежнi та однаково розподiленi, Eηk = p, Dηk = pq, тому до них можна застосувати
ЦГТ:
n
X n
X
(ηk − Eηk ) = ξn − np, Dηk = npq
k=1 k=1
n
P
(ηk − Eηk )
k=1 ξn − np F
s = √ −→ ξ ∼ N(0, 1), n → ∞
Pn npq
Dηk
k=1

N
Робочinформули.oПри великих n:
n −np
1. P ξ√ npq < x ≈ Φ(x) + 2 .
1
n o
n −np
2. ∀ a, b ∈ R, a < b : P a < ξ√ npq < b ≈ Φ(b) − Φ(a).
n o
−np n −np m2 −np
3. ∀ m1 , m2 ∈ R, m1 < m2 : P {m1 < ξn < m2 } = P m√1npq < ξ√ npq < √
npq ≈
   
m2 −np m1 −np
≈ Φ √npq − Φ √npq .
n o n o n q q o
4. ∀ ε > 0 : P ξnn − p < ε = P −ε < ξn −np < ε = P −ε pq n n −np
< ξ√ npq < ε
n


n pq
 q   q   q 
n n n
≈ Φ ε pq − Φ −ε pq = 2Φ ε pq .
Зауваження. В усiх наведених наближених рiвностях будь-яку строгу нерiвнiсть можна замi-
нити на нестрогу. На практицi у формулi 3 iнодi застосовують «поправку на неперервнiсть»,
використовуючи m2 + 21 та m1 − 12 замiсть m2 та m1 вiдповiдно. Емпiрично з’ясовано, що
це дозволяє пiдвищити точнiсть наближення. Також важливо зауважити, що на практицi цi
формули застосовують при n ≥ 50 та npq ≥ 10 (як i для наступних формул, рiзнi джерела
можуть давати iншi межi, наприклад npq ≥ 20).
Приклад. Стрiлець робить 100 пострiлiв по мiшенi з ймовiрнiстю влучення 0.7, ξ — кiлькiсть
влучень. Знайти наближено P {67 ≤ ξ ≤ 72} та порiвняти з точним
 значенням.
  
Маємо np = 70, npq = 100 · 0.7 · 0.3 = 21 ≥ 10, P {67 ≤ ξ ≤ 72} ≈ Φ √221 − Φ − √321 ≈ 0.4124.
   
З поправкою на неперервнiсть отримаємо P {67 ≤ ξ ≤ 72} ≈ Φ √2.5 21
− Φ − 3.5

21
≈ 0.4848.
72
k
0.7k 0.3100−k дає значення 0.4829.
P
Пiдрахунок за точною формулою C100
k=67

7.4.2 Локальна теорема Муавра-Лапласа


Теорема. Нехай проводиться n незалежних випробувань з ймовiрнiстю успiху p, q = 1 − p,
причому n досить велике. Тодi ймовiрнiсть отримання m успiхiв

(m − np)2
 
1
Pn (m) ≈ √ exp − (2)
2πnpq 2npq

74
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

Доведення. Нехай ξ задає кiлькiсть успiхiв у заданiй схемi Бернуллi, тодi


 за iнтегральною
m+ 12 −np m− 12 −np
 
теоремою Муавра-Лапласа Pn (m) = P m − 21 < ξ < m + 21 ≈ Φ


npq −Φ √
npq . За
n 2o
означенням похiдної Φ(x+ε)−Φ(x−ε) ≈ 2εΦ0 (x) при малих ε, причому Φ0 (x) = √12π exp − x2 .
m+ 21 −np m− 12 −np
    n o
(m−np)2
Звiдси Φ √ − Φ √ ≈ √ 1 exp − . N
npq npq 2πnpq 2npq

Зауваження. Так само, як iнтегральна теорема, локальна теорема Муавра-Лапласа на пра-


ктицi застосовується при n ≥ 50 та npq ≥ 10 (або npq ≥ 20).

Приклад. Стрiлець робить 100 пострiлiв по мiшенi з ймовiрнiстю влучення 0.7, ξ — кiлькiсть
влучень. Знайти наближено P {ξ = 69} тапорiвняти з точним значенням.
1 1

Маємо npq = 21, P {ξ = 69} ≈ √42π exp − 42 ≈ 0.085. Пiдрахунок за точною формулою
69
C100 0.769 0.331 дає значення 0.084.

7.4.3 Гранична теорема Пуассона


Розглянемо граничу теорему для схеми Бернуллi, яка застосовується для наближених
обчислень, коли умова npq ≥ 10 для застосування локальної теореми Муавра-Лапласа не
виконується.
Теорема. Задано нескiнченну серiю схем Бернуллi: перша складається з одного випробува-
ння B1 з iмовiрнiстю успiху p1 , друга — з двох випробувань B21 та B22 з iмовiрнiстю успiху
p2 , третя — з трьох випробувань B31 , B32 та B33 з iмовiрнiстю успiху p3 i так далi. Випад-
кова величина ξn ∼ Bin(n, pn ) — кiлькiсть успiхiв в n-тiй схемi Бернуллi. Iснує таке a > 0,
що lim npn = a. Тодi для будь-якого цiлого m ≥ 0:
n→∞

am −a
P {ξn = m} → e , n→∞ (3)
m!
F
Доведення. Нехай ξ ∼ Poiss(a). Покажемо ξn −→ ξ, n → ∞, скориставшись твердженням n
теореми Левi (3). Характеристичнi функцiї ξn та ξ рiвнi, вiдповiдно, χξn (t) = pn eit + 1 − pn
it
та χ (t) = ea(e −1) . З умови lim np = a та нерiвностi |z n − wn | ≤ n · |z − w| для z, w ∈ C,
ξ n
n→∞
|z| ≤ 1, |w| ≤ 1:
n  a it a n a
pn eit + 1 − pn − ≤ n · pn − eit − 1 → 0, n → ∞

e +1−

n n n
Тому маємо
a a n  a it  n it
lim χξn (t) = lim eit + 1 − = lim 1 + e −1 = ea(e −1) = χξ (t)
n→∞ n→∞ n n n→∞ n
F
Отже, ξn −→ ξ, n → ∞. Функцiя розподiлу ξ неперервна в будь-якiй нецiлiй точцi, тому для
цiлих m ≥ 0:
     
1 1 1 1
P m − ≤ ξn < m + = Fξn m + − F ξn m − →
2 2 2 2
am −a
     
1 1 1 1
→ Fξ m + − Fξ m − =P m− ≤ξ <m+ = P {ξ = m} = e , n→∞
2 2 2 2 m!

що i треба було довести. N

Вправа. Довести цю теорему без використання характеристичних функцiй, показавши


am −a
Cnm pm
n (1 − pn )
n−m
→ e ,n → ∞
m!
На практицi цiєю теоремою користуються, якщо n ≥ 50 та np ≤ 10 (або n — достатньо
велике, p — достатньо мале, причому 1 < np < 20): ймовiрнiсть отримати m успiхiв у схемi
m
Бернуллi з n випробуваннями та ймовiрнiстю успiху p Pn (m) ≈ (np)
m! e
−np
, m = 0, ..., n.

75
Роздiл 7. Граничнi теореми теорiї ймовiрностей.

Приклад. Стрiлець робить 100 пострiлiв по мiшенi. Ймовiрнiсть влучення при одному по-
стрiлi становить 0.98. Знайти наближено ймовiрнiсть того, що вдалих пострiлiв буде не бiльше
97, та порiвняти з точним значенням.
Щоб звести задачу до використання теореми Пуассона, шукатимемо ймовiрнiсть, що промахiв
буде щонайменше 3 (ймовiрнiсть промаху — 0.02). ξ — кiлькiсть  промахiв, P {ξ ≥ 3} = 1 −
20 21 22
P {ξ ≤ 2} = 1 − p100 (0) − p100 (1) − p100 (2) ≈ 1 − 0! + 1! + 2! e−2 = 1 − 5e−2 ≈ 0.32332.
2
k
0.02k 0.98100−k дасть значення 0.32331. Нескладно
P
Пiдрахунок за точною формулою 1− C100
k=0
перевiрити, що застосування локальної теореми Муавра-Лапласа дало б менш точну вiдповiдь
0.36049.

7.5 Збiжнiсть та граничнi теореми для послiдовностей ви-


падкових векторiв
В цьому роздiлi наведемо без доведення деякi означення та факти, що стосуються збiжно-
стi послiдовностей, закону великих чисел та центральної граничної
n o∞теореми для випадкових
векторiв. Розглядаємо послiдовностi випадкових векторiв ξ~n (ω) на фiксованому ймо-
n=1
вiрносному просторi.

7.5.1 Збiжнiсть випадкових векторiв


На послiдовностi випадкових векторiв цiлком природно переносяться означення збiжностi
за ймовiрнiстю, за розподiлом таз ймовiрнiстю 1.  n o 
P1 ~
1. Збiжнiсть з ймовiрнiстю 1: ξ~n −→ ξ, n → ∞ ⇔ P ω : lim ξ~n (ω) = ξ(ω)~ =1 .
   n→∞ n o 
P ~
2. Збiжнiсть за ймовiрнiстю: ξ~n −→ ξ, n → ∞ ⇔ ∀ ε > 0 : lim P ξ~n − ξ~ ≥ ε = 0 .

n→∞
3. 
Збiжнiсть за розподiлом:
  
F ~
ξ~n −→ ξ, n → ∞ ⇔ lim Fξ~n (~x) = Fξ~(~x) для точок неперервностi Fξ~ .
n→∞
Зв’язки мiж цими видами збiжностi такi ж, як у випадку випадкових величин.

7.5.2 Граничнi теореми


Для простоти розглядаємо лише випадок незалежних однаково розподiлених ξ~n .
n o∞
Теорема (посилений закон великих чисел). Нехай ξ~n — послiдовнiсть незалежних
n=1
однаково розподiлених випадкових векторiв, що мають скiнченне математичне сподiвання
~a (тобто k~ak < ∞). Тодi
n
1 X ~ P1
ξk −→ ~a, n → ∞
n
k=1
n o∞
Теорема (центральна гранична теорема). Нехай ξ~n — послiдовнiсть незалежних одна-
n=1
ково розподiлених випадкових векторiв, що мають скiнченнi математичне сподiвання ~a та
кореляцiйну матрицю K. Тодi
n
! n
√ 1 X~ 1 X~ 
F
 
n ξk − ~a = √ ξk − ~a −→ ~η ∼ N ~0, K , n → ∞
n n
k=1 k=1

76
Частина II

Математична статистика

77
Роздiл 8

Вибiрка, точкове та iнтервальне


оцiнювання

8.1 Вибiрка та її первинний аналiз


8.1.1 Поняття вибiрки
Математична статистика вивчає випадковi величини за певними дослiдними даними, якi
отримано в ходi експерименту. Коротко кажучи, методами математичної статистики можна
оцiнювати (але не визначати точно) числовi характеристики та розподiл деякої випадкової
величини, якщо вiдомо деякий набiр значень, яких ця величина набула в ходi дослiду. При
цьому, зазвичай, апрiорних вiдомостей про цю випадкову величину майже немає.
Означення 8.1.1. Генеральною сукупнiстю (ГС) називають як випадкову величину ξ, що
дослiджується, так i множину всiх її можливих значень.
Означення 8.1.2. Випадковою вибiркою обсягу n називається випадковий вектор (ξ1 , ..., ξn ),
координати якого є однаково розподiленими, як ГС, i незалежними в сукупностi. Пiдмножи-
на G ⊆ Rn , що складається з усiх можливих значень визначеної вище випадкової вибiрки,
називається вибiрковим простором, а вектори ~x ∈ G — реалiзацiями вибiрки. Конкретною
реалiзацiєю вибiрки iнколи називають саме ту реалiзацiю, з якою працюють пiсля проведення
експерименту.
×n
Приклад. Нехай ξ ∼ Bin(N, p), N = 3. В цьому випадку G = {0, 1, 2, 3} — множина
n-вимiрних векторiв, всi координати яких набувають лише значень 0, 1, 2 та 3.
Зауваження. В прикладнiй статистицi зазвичай не користуються таким рiзноманiтним на-
бором означень. Там пiд вибiркою розумiють як i будь-якi отриманi внаслiдок експерименту
спостереження, так i процес їх отримання. Варто навести два означення, якi, хоч i не будуть
застосовуватися далi в курсi, але зустрiчаються в прикладнiй статистицi. Репрезентативна
вибiрка — така, яка має всi властивостi генеральної сукупностi. Iнакше кажучи, всi можливi
значення (або промiжки значень) ГС мають однакову ймовiрнiсть потрапити до конкретної
реалiзацiї вибiрки. Стратифiкована вибiрка — така, що гарантує збереження пропорцiй, на-
явних у ГС. Наприклад, якщо мова йде про результати якогось опитування, то репрезента-
тивна вибiрка має мiстити результати всiх категорiй населення, а стратифiкована ще й має
мiстити їх в тих пропорцiях, якi цi категорiї складають в усьому населеннi країни. На пра-
ктицi поняття репрезентативної та стратифiкованої вибiрки залежать вiд ГС, структуру та
природу якої дослiдник попередньо вивчає, та вiд мети самого дослiдження: наприклад, на-
селення всiєї країни може грати роль ГС у багатьох статистичних дослiдженнях, але його
подiл на категорiї може вiдрiзнятися.

8.1.2 Розподiл випадкової вибiрки


Нехай ξ~ = (ξ1 , ..., ξn ) — випадкова вибiрка, а Fξ (x) — функцiя розподiлу ГС. Тодi для
n
~x ∈ Rn визначено функцiю розподiлу Fξ~(~x) = P {ξ1 < x1 , ..., ξn < xn } =
Q
Fξ (xk ). Для дослi-
k=1
джень вибiрок, однак, зручно користуватися iншою функцiєю.

78
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Означення 8.1.3. Функцiєю правдоподiбностi випадкової вибiрки обсягу n з ГС ξ називає-


ться
n
Y
L(~x) = P {ξ = xk } , якщо ξ — ДВВ (1)
k=1
n
Y
L(~x) = fξ (xk ) якщо ξ — НВВ (2)
k=1

Часто аргументами функцiї правдоподiбностi вважають параметри закону розподiлу ГС.


В такому випадку при фiксованому значеннi ~x ця функцiя фактично показує, як в залежностi
вiд параметрiв розподiлу змiнюється ймовiрнiсть отримати саме таку реалiзацiю вибiрки —
(x1 , ..., xn ). Отримаємо функцiї правдоподiбностi для основних законiв розподiлу. В подаль-
шому будуть бiльш корисними не самi функцiї правдоподiбностi, а їх логарифми.
1. ξ ∼ Bin(N, p) — бiномiальний розподiл, ∀ k ∈ N xk ∈ {0, 1, ..., N }:
n
Y n
Y Pn Pn
LBin (~x, N, p) = CN p (1 − p)N −xk =
xk xk xk
CN ·p k=1 xk
· (1 − p)N ·n− k=1 xk

k=1 k=1
n n n
!
X xk
X X
ln LBin (~x, N, p) = ln CN + ln p · xk + ln (1 − p) · N ·n− xk
k=1 k=1 k=1

2. ξ ∼ Geom(p) — геометричний розподiл, ∀ k ∈ N xk ∈ {1, 2, 3, ...}.


n
Y Pn
LGeom (~x, p) = p(1 − p)xk −1 = pn · (1 − p) k=1 xk −n

k=1
n
!
X
ln LGeom (~x, p) = n ln p + ln (1 − p) · xk − n
k=1

3. ξ ∼ Pas(a) — розподiл Паскаля, ∀ k ∈ N xk ∈ {0, 1, 2, 3, ...}.


n Pn
Y axk a k=1 xk
LPas (~x, a) = = n+ n
P
(1 + a)xk +1 (1 + a) k=1 xk
k=1
n n
!
X X
ln LPas (~x, a) = ln a · xk − ln (1 + a) · n+ xk
k=1 k=1

4. ξ ∼ Poiss(a) — розподiл Пуассона, ∀ k ∈ N xk ∈ {0, 1, 2, 3, ...}.


n
P
n k x
Y axk −a −na a
k=1
LPoiss (~x, a) = e =e · Q
n
(xk )!
k=1 xk !
k=1
n
X n
X
ln LPoiss (~x, a) = −na + ln a · xk − ln xk !
k=1 k=1

5. ξ ∼ U ha; bi — рiвномiрний розподiл, ∀ k ∈ N xk ∈ ha; bi:


n
Y 1 1
LU (~x, a, b) = =
b−a (b − a)n
k=1
ln LU (~x, a, b) = −n ln (b − a)

6. ξ ∼ Exp(λ, b) — експоненцiйний розподiл зi зсувом, ∀ k ∈ N xk ≥ b:


 n 
n P
Y −λ xk −nb
LExp (~x, λ, b) = λe−λ(xk −b) = λn e k=1

k=1
n
!
X
ln LExp (~x, λ, b) = n ln λ − λ xk − nb
k=1

79
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

7. ξ ∼ N(a, σ 2 ) — нормальний розподiл, ∀ k ∈ N xk ∈ R:


n
( n
)
(xk − a)2
 
Y 1 1 1 X 2
LN (~x, a, σ) = √ exp − = n · exp − 2 (xk − a)
2πσ 2σ 2 (2π) 2 σ n 2σ
k=1 k=1
n
n 1 X
ln LN (~x, a, σ) = − ln 2π − n ln σ − 2 (xk − a)2
2 2σ
k=1

8.1.3 Дискретний варiацiйний ряд


Нехай (x1 , ..., xn ) — конкретна реалiзацiя вибiрки, що мiстить небагато (порiвняно з обся-
гом вибiрки) унiкальних значень, якi називаються варiантами та позначаються x∗i .
Означення 8.1.4. Дискретним варiацiйним рядом (ДВР) називається таблиця вигляду
варiанти x∗1 x∗2 ... x∗r
частоти ni n1 n2 ... nr
n1 n2 nr
частостi ωi n n ... n

Тут x∗1 < x∗2 < ... < x∗r , частоти — кiлькiсть входжень вiдповiдної варiанти до реалiзацiї
r
P Pr
вибiрки, ni = n, ωi = 1. Частостi ще називають вiдносними частотами. Iнодi до ДВР
i=1 i=1
n1 n1 +n2
вносять накопиченi частостi ωiнак : ω1нак = n = ω1 , ω2нак = n i т.д., wrнак = 1.
Геометричною iнтерпретацiю ДВР є полiгон вiдносних частот з вершинами (x∗i , ωi ):
ω
1
ωr
...
ω2
ω3
ω1

... x
x∗1 x∗2 x∗3 x∗r

Якщо в конкретнiй реалiзацiї вибiрки унiкальних значень досить мало, то можна висунути
припущення, що ГС має дискретний розподiл. В такому випадку вигляд полiгону частостей
може допомогти висунути припущення про закон розподiлу. Перевiрку таких припущень буде
розглянуто пiзнiше.

8.1.4 Iнтервальний варiацiйний ряд


Нехай (x1 , ..., xn ) — конкретна реалiзацiя вибiрки, майже всi значення якої є унiкальними.
В такому випадку дискретний варiацiйний ряд будувати недоцiльно.
Означення 8.1.5. Iнтервальний варiацiйним рядом (IВР) називається таблиця вигляду
iнтервал ∆i [xmin ; t1 ) [t1 ; t2 ) ... [tr , xmax ]
частоти ni n1 n2 ... nr+1
n1 n2 nr+1
частостi ωi n n ... n

Тут xmin та xmax — мiнiмальне та максимальне значення цiєї реалiзацiї вибiрки (R = xmax −
xmin називається розмахом вибiрки), а ti — деякi точки всерединi вiдрiзка [xmin ; xmax ]. Немає
унiверсальної рекомендацiї для вибору значень та кiлькостi ti . На практицi часто користу-
ються правилом Стерджеса: вiдрiзок [xmin ; xmax ] дiлиться на k = 1 + [3.322 lg n] iнтервалiв
рiвної довжини. Iнодi можна зустрiти формулу k = 1 + [log2 n], яка еквiвалентна попереднiй,
оскiльки log2 n = log2 10 · lg n ≈ 3.322 lg n.
Геометричною iнтерпретацiю IВР є гiстограма, що складається з прямокутникiв, що по-
будованi на ∆i та мають висоти hi = ωdii , де di — довжина ∆i :

80
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

...

xmin t1 t2 t3 tr xmax

Якщо в конкретнiй реалiзацiї вибiрки багато унiкальних значень, то можна висунути при-
пущення, що ГС має неперервний розподiл. В такому випадку вигляд гiстограми може до-
помогти висунути припущення про закон розподiлу. Нескладно помiтити, що сумарна площа
r+1
di · ωdii = 1, тому в деякому сенсi гiстограма є аналогом графiка
P
прямокутникiв у гiстограмi
i=1
щiльностi розподiлу. Зауважимо, що в разi невдало вибраної кiлькостi iнтервалiв (забагато
чи замало) гiстограма буде погано вiдображати характер отриманої реалiзацiї вибiрки.

8.1.5 Емпiрична функцiя розподiлу


Користуючись варiацiйними рядами, для конкретної реалiзацiї вибiрки можна побудувати
емпiричну функцiю розподiлу Fn∗ (x), яка визначається наступним чином:
 



 0, x ≤ x1 0,

 x ≤ xmin
нак n1 ∗ ∗ нак n1
ω = , x < x ≤ x ω = , x min < x ≤ t1

 

 1
 n 1 2  1
 n
∗ нак n1 +n2 ∗ ∗ ∗ нак n1 +n2
Fn (x) = ω2 = n , x2 < x ≤ x3 Fn (x) = ω2 = n , t1 < x ≤ t2
 
...

 ...


 


1, 
x > xr 1, x > tr
для ДВР для IВР
Iснує й iнше означення, бiльш коректне з теоретичної точки зору та унiверсальне.
Означення 8.1.6. Емпiричною функцiєю розподiлу (ЕФР), побудованою за випадковою ви-
бiркою ξ~ = (ξ1 , ..., ξn ), називається випадкова функцiя Fn∗ : R × Ω → [0; 1], що задана як
n
1X
Fn∗ (x) = 1{ξk < x} (3)
n
k=1

Тут 1{ξk < x} — iндикатор подiї {ξk < x}, що дорiвнює 1 з ймовiрнiстю p = P {ξk < x} = Fξ (x)
та 0 з ймовiрнiстю 1 − p.

Зауваження. Поняття випадкової функцiї тут, по сутi, не є новим — це випадкова величина,


що залежить вiд дiйсного параметру (в цьому випадку x).
Таким чином, означення ЕФР, наведенi спочатку, є значеннями цiєї випадкової функцiї
~ Наступна теорема iлюструє важливiсть означення ЕФР саме як
при фiксованих значеннях ξ.
випадкової функцiї.

Теорема (теорема Глiвенко-Кантеллi).


P1
∀ x ∈ R : Fn∗ (x) −→ Fξ (x), n → ∞

Доведення. Для всiх k ∈ N та x ∈ R : E1{ξk < x} = Fξ (x), причому при будь-якому x ∈ R цi


iндикатори є незалежними випадковими величинами. Тому згiдно посиленого закону великих
чисел отримуємо бажану збiжнiсть з ймовiрнiстю 1 до Fξ (x). N
Вправа. Довести теорему Глiвенко-Кантеллi безпосередньо, скориставшись достатньою озна-

P
кою збiжностi з ймовiрнiстю 1: якщо для будь-якого ε > 0 ряд P {|ξn − ξ| > ε} збiгається,
n=1
P1
то ξn −→ ξ, n → ∞. Пiдказка: треба оцiнити P {|Fn∗ (x) − Fξ (x)| > ε} членами збiжного ряду.

81
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

8.1.6 Вибiрковi характеристики ГС


Означення 8.1.7. Статистикою називається випадкова величина, що є функцiєю вiд ви-
~
падкової вибiрки h = h(ξ).
Розглянемо деякi статистики, якi в деякому сенсi є аналогами числових характеристик
для ГС. Пiзнiше буде розглянуто застосування цих статистик для висування та перевiрки
припущень про розподiл ГС.
n
1. Емпiричнi початковi моменти k-того порядку E∗ ξ k = n1 ξik . Значення на конкретнiй
P
i=1
n
∗ k 1
xki .
P
реалiзацiї вибiрки позначається як (E ξ )зн = n Окремим випадком емпiричних
i=1
n
1
P
початкових моментiв є вибiркове середнє ξ = n ξi , значення якого позначається як
i=1
n
1
P
x= n xi . Пiсля складання варiацiйного ряду можна записати значення вибiркового
i=1
середнього як  r
1
P ∗


n xi ni для ДВР
i=1
x= r+1
 n1 x∗i ni
P
для IВР


i=1

У випадку IВР за x∗i береться довiльний представник i-того iнтервалу.


2. Емпiричнi центральнi моменти k-того порядку E∗˚ ξ k можуть вводитися двома спосо-
n n k
k
бами: як n1 (ξi − Eξ) , якщо Eξ вiдоме, або як n1
P P
ξi − ξ , якщо Eξ невiдоме.
i=1 i=1
Окремим випадком є вибiркова дисперсiя D∗ ξ при k = 2. Її значення позначається як
n n
2 2
(D∗ ξ)зн = n1 (xi − Eξ) або n1
P P
(xi − x) .
i=1 i=1
3. Вибiркова мода M o∗ ξ у випадку побудови ДВР визначається як варiанта з найбiльшою
ni −ni−1
частiстю, а у випадку IВР — за формулою (M o∗ ξ)зн = yi + hi · (ni −ni−1 )+(ni −ni+1 ) , де yi
— початок iнтервалу, якому вiдповiдає найбiльша частiсть (модальний iнтервал), а hi
— довжина цього iнтервалу, а ni — частоти.
4. Вибiркова медiана M e∗ ξ у випадку побудови ДВР визначається як середня за розташу-
ванням варiанта (або середнє арифметичне таких варiант,
 якщоїх парна кiлькiсть), а
i−1
у випадку IВР — за формулою (M e∗ ξ)зн = yi + nhii · n2 −
P
nk , де yi — початок iн-
k=1
тервалу, на якому накопичена частiсть перевищила 0.5 (медiанний iнтервал), hi — його
довжина, ni — частоти.
n 3
1
(ξi −ξ)
P
n
∗ i=1
5. Вибiркова асиметрiя та вибiрковий ексцес визначаються як As ξ = (D∗ ξ)3/2
та
n 4
1
(ξi −ξ)
P
n
∗ i=1
Ex ξ = (D∗ ξ)2 − 3 з замiною ξ на Eξ, якщо воно вiдоме.

8.1.7 Дiаграми розмаху


Розглянемо спосiб вiзуалiзацiї реалiзацiй вибiрки, який часто застосовується на практицi
через свою iнформативнiсть.

Для спрощення опису в межах цього пункту називатимемо конкретну реалiзацiю вибiрки
просто вибiркою. Горизонтальна вiсь такої дiаграми вiдповiдає дiапазону значень вибiрки.
Межами прямокутника (через який цю дiаграму ще називають коробковою) є 1 та 3 квар-
тилi вибiрки, що позначаються Q1 та Q3 — це медiани першої та другої половини вiдсор-
тованої вибiрки (якi у випадку непарного обсягу роздiляються медiаною вибiрки). Рiзниця
IQR = Q3 − Q1 (довжина прямокутника) називається мiжквартильним розмахом. Вiдрiзок

82
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

всерединi прямокутника позначає положення медiани. Вертикальнi вiдрiзки за межами пря-


мокутника (якi ще називають вусами) позначають «майже мiнiмум i максимум»: зазвичай
вони знаходяться в положеннях Q1 − 1.5 · IQR та Q3 + 1.5 · IQR. Усi значення, що менше «мiнi-
муму» та бiльше «максимуму», називаються викидами та позначаються окремими точками.
На практицi для подальшої обробки викиди прибирають з вибiрки, оскiльки такi значення
можуть з’являтися через помилки вимiрювань.
Приклад. Побудувати дiаграму розмаху для вибiрки (n = 20):
−0.005 −0.111 0.384 0.413 −0.152 −0.453 −0.273 0.366 0.331 1.147
0.425 0.166 0.512 0.789 0.686 −0.205 0.175 0.092 1.72 1.43
Пiсля сортування за зростанням отримаємо
−0.453 −0.273 −0.205 −0.152 −0.111 −0.005 0.092 0.166 0.175 0.331
0.366 0.384 0.413 0.425 0.512 0.686 0.789 1.147 1.43 1.72

Медiана дорiвнює 0.331+0.366


2 = 0.3385, а квартилi — Q1 = −0.111−0.005
2 = −0.058, Q3 =
0.512+0.686
2 = 0.599. Мiжквартильний розмах IQR = Q3 − Q1 = 0.657, далi обчислимо Q1 −
1.5 · IQR = −1.0435 та Q3 + 1.5 · IQR = 1.5845. Отже, значення 1.72 є викидом. Нарештi,
побудуємо дiаграму розмаху:

−1.0435 −0.058 0.3385 0.599 1.5845 1.72

8.2 Точковi оцiнки


Нехай ξ — ГС, а Fξ (x, θ1 , θ2 , ..., θk ) — її функцiя розподiлу, де θ1 , θ2 , ..., θk — набiр пара-
метрiв. Тип самої функцiї розподiлу у випадку точкового оцiнювання вважається вiдомим,
невiдомими є параметри: наприклад, λ в експоненцiйному законi чи a та σ в нормальному.
Означення 8.2.1. Точковою оцiнкою θ∗ невiдомого параметру θ називається деяка стати-
стика θ∗ (ξ1 , ..., ξn ), значення якої на конкретнiй реалiзацiї вибiрки приймається за наближене
значення θ. Iнодi вводиться позначення θn∗ , щоб вказати залежнiсть оцiнки вiд обсягу вибiрки.
Зрозумiло, що точкова оцiнка θ∗ , на вiдмiну вiд параметру θ, є випадковою величиною,
яка залежить вiд закону розподiлу ξ та обсягу вибiрки. Безумовно, можна ввести багато фун-
кцiй вiд результатiв спостережень, якi можна брати в якостi θ∗ . Наприклад, якщо параметр
θ є математичним сподiванням ξ, то за оцiнку математичного сподiвання за результатами
спостережень можна взяти середнє арифметичне, моду, медiану, пiвсуму найбiльшого та най-
меншого значень вибiрки тощо. Отже, яку статистику краще обрати? Назвати «найкращою»
оцiнкою ту, яка найбiльш близька до iстинного значення оцiнюваного параметру, неможливо,
оскiльки точкова оцiнка — випадкова величина. Таким чином, робити висновки про якiсть
оцiнки варто не по її конкретним значенням, а по її розподiлу. В зв’язку з цим розглянемо
вимоги, що висувають до точкових оцiнок.

8.2.1 Незмiщенiсть оцiнки


Означення 8.2.2. Точкова оцiнка θ∗ параметру θ називається незмiщеною, якщо

Eθn∗ = θ для всiх n ∈ N (1)

i асимптотично незмiщеною, якщо lim Eθn∗ = θ.


n→∞

Приклад. Розглянемо деякi важливi незмiщенi оцiнки.

83
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

n
1
P
1. Вибiркове середнє — незмiщена оцiнка математичного сподiвання: ξ = n ξk , Eξ =
k=1
n
1 1
P
n Eξk = n · n · Eξ = Eξ, оскiльки всi ξk однаково розподiленi.
k=1
2. Вибiркова дисперсiя — незмiщена оцiнка дисперсiї у випадку вiдомого математичного
n n
2 2
сподiвання Eξ: D∗ ξ = n1 (ξk − Eξ) , E (D∗ ξ) = n1
P P
E (ξk − Eξ) = Dξ знову через
k=1 k=1
однаковий розподiл ξk .
3. Дослiдимо вибiркову дисперсiю, але у випадку невiдомого математичного сподiвання.
n n
1X 2 1X 2
D∗ ξ = ξk − ξ = (ξk − Eξ) − (ξ − Eξ) =
n n
k=1 k=1
n n
1X 2  1X 2
= (ξk − Eξ) − 2 ξ − Eξ · (ξk − Eξ) + ξ − Eξ =
n n
k=1 k=1
| {z }
ξ−Eξ
n
1X 2 2
= (ξk − Eξ) − ξ − Eξ
n
k=1

Перший доданок — це формула для вибiркової дисперсiї при вiдомому математичному


сподiваннi, а Eξ = Eξ, тому
2
E (D∗ ξ) = Dξ − E ξ − Eξ = Dξ − Dξ
n
! n
1X 1 X 1
Dξ = D ξk = 2 Dξk = Dξ
n n n
k=1 k=1

Двi останнi рiвностi одержанi через незалежнiсть та однаковий розподiл ξk . Отже, ма-
ємо E (D∗ ξ) = 1 − n1 Dξ, тому ця оцiнка є лише асимптотично незмiщеною. Проте,


оцiнка D∗∗ ξ = n−1


n
D∗ ξ буде незмiщеною. Таким чином, якщо Eξ невiдоме, то виправлена
n 2
вибiркова дисперсiя D∗∗ ξ = n−11
P
ξk − ξ є незмiщеною оцiнкою дисперсiї.
k=1
4. Нехай ξ ∼ U ha; bi, перевiримо незмiщенiсть a∗n = min ξk . Знайдемо Ea∗n . Як вiдомо,
1≤k≤n
 n−1
n−1 x−a 1 (b−x)n−1
fmin (x) = n (1 − Fξ (x)) fξ (x) = n 1 − b−a b−a = n · (b−a)n , якщо x ∈ ha; bi, та
0 iнакше.
Z b Z b−a
n n
Ea∗n = x(b − x)n−1
dx = [b − x = t] = (b − t)tn−1 dt =
(b − a)n a (b − a)n 0
 n  b−a
tn+1 b(b − a)n (b − a)n+1
 
n bt n
= − = − =
(b − a)n n n + 1 0 (b − a)n n n+1
n(b − a) bn + b − nb + na n b
=b− = =a· + 6= a
n+1 n+1 n+1 n+1
Але lim Ea∗n = a, тому a∗n є асимптотично незмiщеною оцiнкою.
n→∞

Вправа. Перевiрити, що b∗n = max ξk є асимптотично незмiщеною оцiнкою для параметра b


1≤k≤n
у випадку ξ ∼ U ha; bi. Користуючись вже дослiдженими оцiнками a∗n та b∗n , знайти незмiщенi
оцiнки для параметрiв a i b (пiдказка: це будуть деякi лiнiйнi комбiнацiї a∗n та b∗n ).

8.2.2 Конзистентнiсть оцiнки


Означення 8.2.3. Точкова оцiнка θ∗ параметру θ називається конзистентною, якщо
P
∀ ε > 0 : lim P {|θn∗ − θ| ≥ ε} = 0 ⇐⇒ θn∗ −→ θ, n → ∞ (2)
n→∞

Конзистентнiсть оцiнки можна перевiряти за означенням. Але для незмiщених та асим-


птотично незмiщених оцiнок є достатня умова конзистентностi.

84
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Твердження. Якщо θn∗ — незмiщена чи асимптотично незмiщена оцiнка та Dθn∗ → 0,


n → ∞, то ця оцiнка є конзистентною.
Dθ ∗
Доведення. Якщо θn∗ незмiщена, то P {|θn∗ − θ| ≥ ε} = P {|θn∗ − Eθn∗ | ≥ ε} ≤ ε2n → 0, n → ∞.
Якщо θn∗ асимптотично незмiщена, то lim Eθn∗ = θ, звiдки за критерiєм збiжностi в середньо-
n→∞
СК P
му квадратичному до константи маємо θn∗ −→ θ ⇒ θn∗ −→ θ, n → ∞. N
Зауваження. Також є поняття сильно конзистентної оцiнки, де збiжнiсть за ймовiрнiстю
замiнюється збiжнiстю майже напевно. Такi оцiнки надалi розглядати не будемо через скла-
днiсть дослiдження такої збiжностi в загальному випадку.
Приклад. Перевiримо конзистентнiсть оцiнок, незмiщенiсть чи асимптотичну незмiщенiсть
яких вже дослiдили.
n
1. Вибiркове середнє ξ = n1
P
ξk є конзистентною оцiнкою за законом великих чисел (i
k=1
навiть сильно конзистентною).
n
2
2. Вибiркова дисперсiя D∗ ξ = 1
P
n (ξk − Eξ) є незмiщеною оцiнкою дисперсiї в разi вi-
k=1
n
∗ 1
P 2 1 2
домого Eξ. D (D ξ) = n2 D (ξk − Eξ) = n D (ξ − Eξ) → 0, n → ∞, тому ця оцiнка
k=1
конзистентна.
3. Виправлена вибiркова дисперсiя D∗∗ ξ = n−1 n
D∗ ξ є незмiщеною оцiнкою дисперсiї в разi
 2
невiдомого Eξ. D (D∗∗ ξ) = n−1
n
· D (D∗ ξ) → 0, n → ∞, тому ця оцiнка конзистентна.
4. Нехай ξ ∼ U ha; bi, a∗n = min ξk — асимптотично незмiщена оцiнка a. Перевiрятимемо
1≤k≤n
конзистентнiсть за означенням:
Z a+ε
ε > 0, P {|a∗n − a| < ε} = P {a − ε < a∗n < a + ε} =
fmin (x)dx =
a
Z a+ε a+ε
n n−1 n (b − x)n
= (b − x) dx = − · =
(b − a)n a (b − a)n n
a
 n
1 n n ε
= · ((b − a) − (b − a − ε) ) = 1 − 1 − → 1, n → ∞
(b − a)n b−a

Отже, оцiнка є конзистентною.


Вправа. Перевiрити конзистентнiсть оцiнки b∗n = max ξk для ξ ∼ U ha; bi.
1≤k≤n

Зауваження. Конзистентнiсть та незмiщенiсть вибiркового середнього, виправленої та зви-


чайної вибiркових дисперсiй було встановлено для будь-якого розподiлу ξ.

8.2.3 Ефективнiсть оцiнки


Основне питання задачi оцiнювання параметрiв розподiлу — наскiльки великою є похибка.
Введенi означення незмiщеної та конзистентної оцiнки показують, вiдповiдно, чи правильнi
в середньому значення цiєї оцiнки, та чи покращується точнiсть оцiнювання зi збiльшенням
обсягу вибiрки. Зрозумiло, що для оцiнювання параметру θ можна запропонувати декiлька
незмiщених оцiнок, значення яких за визначенням зосередженi навколо справжнього значен-
ня θ. Природно вимагати вiд «найкращої» такої оцiнки найменшої можливої дисперсiї.
Означення 8.2.4. Нехай Θn — множина усiх незмiщених оцiнок параметру θ за вибiрками

фiксованого обсягу n. Оцiнка θеф називається ефективною, якщо

Dθеф = ∗inf Dθ∗ (3)
θ ∈Θn

Означення ефективностi не надто сприяє дослiдженню оцiнки. По-перше, не завжди легко


обчислити дисперсiю оцiнки. По-друге, навiть якщо її вдасться обчислити, то немає гарантiї,
що ця дисперсiя буде найменшою серед дисперсiй усiх оцiнок з Θn . Перевiряти ефективнiсть
оцiнок допомагає нерiвнiсть Рао-Крамера.

85
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Теорема (нерiвнiсть Рао-Крамера). Якщо θ∗ — незмiщена оцiнка, то Dθ∗ ≥ I(θ) 1


, де I(θ) =
 ~
 2
∂ ln L(ξ,θ)
E ∂θ — «кiлькiсть iнформацiї за Фiшером». Для ефективної оцiнки досягається
рiвнiсть. Тут L(ξ, ~ θ) — функцiя правдоподiбностi, що залежить вiд випадкової вибiрки ξ~
та невiдомого параметру θ.
Доведення. Доведемо цю нерiвнiсть у випадку неперервної ГС. За припущенням про незмi-
щенiсть Z
Eθ∗ = θ∗ (~x)fξ~(~x, θ)d~x = θ
Rn
З iншого боку, Z
θ =θ·1=θ· fξ~(~x, θ)d~x
Rn
Отже, маємо рiвнiсть, яку продиференцiюємо по θ:
Z
(θ∗ (~x) − θ)fξ~(~x, θ)d~x = 0
Rn
∂fξ~(~x, θ)
Z  Z Z
∂ ∗
(θ (~x) − θ)fξ~(~x, θ)d~x = − fξ~(~x, θ)d~x + (θ∗ (~x) − θ) d~x = 0
∂θ Rn n Rn ∂θ
|R {z }
1
Z ∂fξ~(~x, θ) Z ∂fξ~(~x, θ) fξ~(~x, θ)
(θ∗ (~x) − θ) d~x = (θ∗ (~x) − θ) d~x = 1
Rn ∂θ Rn ∂θ fξ~(~x, θ)

∂fξ~(~
x,θ) ∂ ln fξ~(~
x,θ) n
Оскiльки 1
= , ~ θ) =
а у випадку неперервної ГС L(ξ,
Q
fξ (ξk , θ) =
∂θ fξ~(~
x,θ) ∂θ
k=1
~
∂ ln L(ξ,θ)
~ θ), останню рiвнiсть можна записати у виглядi 1 = Eη1 η2 , де η1 = θ∗ (ξ)−θ,
fξ~(ξ, ~ η2 = .
∂θ
2
Оскiльки (Eη1 η2 ) ≤ Eη12 · Eη22 , маємо 1 ≤ Dθ∗ · I(θ), що i треба було довести. N
2
Наслiдок. В нерiвностi (Eη1 η2 ) ≤ Eη12 · Eη22 рiвнiсть досягається тодi i тiльки тодi, коли η1
та η2 лiнiйно залежнi. Оскiльки для ефективної оцiнки досягається рiвнiсть, то маємо такий
критерiй ефективностi незмiщеної оцiнки: незмiщена оцiнка θ∗ є оптимальною тодi й тiльки
тодi, коли

~ θ)
∂ ln L(ξ,  
~ −θ
= C(n, θ) · θ∗ (ξ) (4)
∂θ
Тут C(n, θ) — деяке значення, що залежить лише вiд n та θ.
Зауваження. В умовi теореми необхiдно накладати деякi умови, виконання яких припуска-
лися при доведеннi: додатнiсть та диференцiйовнiсть функцiї правдоподiбностi на областi
визначення, iснування (скiнченнiсть) I(θ) та можливiсть диференцiювання вiдповiдного iн-
тегралу по параметру.
n
1
P
Приклад. Нехай ГС ξ ∼ Poiss(a). Eξ = a, тому ξ = n ξk — незмiщена оцiнка a. Перевiримо
k=1
її ефективнiсть.
n
X n
X
ln L(~x, a) = −na + ln a · xk − ln xk !
k=1 k=1
n
∂ ln L(~x, a) 1 X n n
= −n + · xk = −n + · x = · (x − a)
∂a a a a
k=1

~
∂ ln L(ξ,a)
Перейдемо до випадкової вибiрки: ∂a = C(n, a)·(a∗ −a). Отже, ця оцiнка є ефективною.
Розглянемо ще одну важливу теорему, що стосується ефективних оцiнок.
~ — ефективна
Теорема (єдинiсть ефективної незмiщеної точкової оцiнки). Якщо θ∗ = θ∗ (ξ)
незмiщена оцiнка, то вона єдина.

86
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Доведення. Нехай θ1∗ — iнша ефективна незмiщена оцiнка, Eθ∗ = Eθ1∗ = θ, Dθ∗ = Dθ1∗ = σ 2 .
θ ∗ +θ ∗
Розглянемо оцiнку θ2∗ = 2 1 , яка теж є незмiщеною. Dθ2∗ = 14 (Dθ∗ + Dθ1∗ + 2cov(θ∗ , θ1∗ )) =
∗ ∗ ∗ ∗
1
Dθ∗ · Dθ1∗ = σ 2 . Отже, Dθ2∗ ≤ σ 2 . Але за умовою дисперсiя
2
 p
2 σ + cov(θ , θ1 ) . |cov(θ , θ1 )| ≤
ефективної оцiнки θ рiвна σ , тому Dθ2∗ = σ 2 . Це означає, що в cov(θ∗ , θ1∗ ) ≤ σ 2 досягається
2

рiвнiсть, тому θ∗ та θ1∗ є лiнiйно залежними, тобто θ1∗ = k · θ∗ + b. Тепер θ = Eθ1∗ = k · Eθ∗ + b =
k · θ + b, звiдки b = (1 − k)θ. θ1∗ = k · θ∗ + (1 − k)θ ⇔ θ1∗ − θ = k · (θ∗ − θ). Скориставшись
2
cov(θ∗ , θ1∗ ) = σ 2 , отримаємо σ 2 = E (θ∗ − θ) (θ1∗ − θ) = k · E (θ∗ − θ) = k · σ 2 , звiдки k = 1, тому
b = 0 i θ1∗ = θ∗ . N
Також вводитися поняття асимптотично ефективної оцiнки. Це означає, що Dθ∗ ·I(θ) → 1
при n → ∞. Оскiльки за нерiвнiстю Рао-Крамера для незмiщених оцiнок виконується Dθ∗ ·
I(θ) ≥ 1, то, якщо треба порiвняти декiлька незмiщених оцiнок, якi не є ефективними, кращою
обирається та, у якої добуток Dθ∗ · I(θ) менше.

8.2.4 Асимптотична нормальнiсть оцiнки


Означення 8.2.5. Оцiнка θn∗ = θ∗ (ξ1 , ..., ξn ) називається асимптотично нормальною, якщо
θn∗ − θ F
p −→ η ∼ N(0, 1), n → ∞ (5)
Dθn∗
Це поняття в подальшому дозволить наближувати розподiл точкових оцiнок нормальним
n
розподiлом. Наприклад, для вибiркового середнього ξ = n1
P
ξk згiдно ЦГТ маємо
k=1
n
1
P
n (ξk − Eξ) n  
ξ − Eξ k=1 1 X ξk − Eξ F
p = p =√ √ −→ η ∼ N(0, 1), n → ∞
Dξ Dξ/n n Dξ
k=1
 
Таким чином, при великих n можна вважати розподiл ξ приблизно рiвним N Eξ, Dξ
n .

8.3 Методи отримання точкових оцiнок


Розглянемо методи, якi допомагають знаходити точковi оцiнки параметрiв розподiлу ГС.

8.3.1 Метод моментiв


Метод моментiв базується на тому, що часто деякi моменти ξ функцiонально залежать
вiд параметрiв розподiлу. В такому випадку, в разi «хорошої» залежностi можна виразити па-
раметри розподiлу як функцiї вiд моментiв i отримати точковi оцiнки параметрiв, замiнивши
в отриманих виразах моменти на їх вибiрковi аналоги.
Приклад. Знайдемо декiлька оцiнок методом моментiв.
1. ξ ∼ U ha; bi. Вiдомо, що Eξ = a+b
2 , але щоб виразити через моменти обидва параметри,
2
необхiдне ще одне рiвняння: Dξ = (b−a)
12 . Отримали систему:
( ( √
a∗ + b∗ = 2ξ b∗ = ξ + 3D∗∗ ξ
√ ⇒ √
b∗ − a∗ = 2 3D∗∗ ξ a∗ = ξ − 3D∗∗ ξ
2
2. Нехай тепер ξ ∼ U h−a; ai. Оскiльки Eξ = 0, скористаємося моментом Eξ 2 = a3 . В
p
такому випадку отримаємо оцiнку a∗ = 3E∗ ξ 2 .
3. ξ ∼ Bin(N, p). Вiдомо, що Eξ = N p, Dξ = N p(1 − p). В цьому випадку маємо систему

N ∗ = (ξ)2
(
N ∗ p∗ = ξ ξ−D∗∗ ξ
⇒ ∗∗
N ∗ p∗ (1 − p∗ ) = D∗∗ ξ p∗ = ξ∗ = ξ−D ξ
N ξ

Незважаючи на формально правильний результат, застосовувати цi оцiнки недоречно:


немає жодної гарантiї, що N ∗ прийматиме лише натуральнi значення. Але якщо пара-
метр N вiдомий, то можна користуватися оцiнкою p∗ = Nξ .

87
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

4. ξ ∼ Exp(λ). Оскiльки Eξ = λ1 i Dξ = λ12 , за допомогою методу моментiв можна отримати



двi оцiнки λ∗ : λ∗1 = 1/ξ та λ∗2 = 1/ D∗∗ ξ. В такому випадку порiвнюють властивостi
отриманих оцiнок та обирають кращу.
Вправа. Перевiрити, що оцiнка λ∗1 є асимптотично незмiщеною. Чи можна зробити з неї не-
змiщену оцiнку, i, якщо так, що можна сказати про її ефективнiсть?
Як видно з цих прикладiв, розподiл оцiнок, отриманих за допомогою методу моментiв,
може бути досить складним. Це, в свою чергу, ускладнює дослiдження таких оцiнок. Єдина
характеристика, з якою майже не виникає складнощiв — конзистентнiсть. Оскiльки оцiнки з
методу моментiв є функцiями вiд вибiркових моментiв, якi є конзистентними, то за власти-
востями збiжностi за ймовiрнiстю оцiнки також є конзистентними.
Зауваження. В подальшому будемо позначати оцiнки, отриманi за допомогою методу момен-

тiв, через θММ , якщо це матиме значення.

8.3.2 Метод максимальної правдоподiбностi


Метод максимальної правдоподiбностi полягає в знаходженнi таких оцiнок невiдомих
параметрiв розподiлу ГС, що максимiзують значення функцiї правдоподiбностi. Пояснення
цього методу таке: якщо провести декiлька спостережень однiєї ГС, то найчастiше будемо
спостерiгати тi значення, при яких щiльнiсть розподiлу близька до свого максимуму (у ви-
падку неперервної ГС) або ж яким вiдповiдає найбiльша ймовiрнiсть появи (у випадку дис-
кретної ГС). Тому й шукаються такi статистики для оцiнки невiдомих параметрiв, за яких
функцiя правдоподiбностi набуватиме максимального значення. Тобто, в якостi оцiнки θ∗ бе-
~ θ), або ж, у випадку двох або бiльше параметрiв,
реться значення θ∗ (ξ1 , ..., ξn ) = argmax L(ξ,
θ
~ θ1 , ..., θk ). Оскiльки логарифм — монотонна функцiя, то ln L(ξ,
argmax L(ξ, ~ θ1 , ..., θk ) досягає
θ1 ,...,θk
~ θ1 , ..., θk ). Таким чином, в методi максимальної прав-
максимуму по θ1 , ..., θk одночасно з L(ξ,
~
доподiбностi шукають argmax ln L(ξ, θ1 , ..., θk ).
θ1 ,...,θk
Надалi для спрощення сприйняття випадкову вибiрку в аргументi функцiї правдоподiбно-
стi замiнимо на реалiзацiю вибiрки. В такому випадку спочатку отримаємо точки максимуму,
що залежать вiд x1 , x2 , ..., xn (i це фактично буде значенням оцiнки), а саму оцiнку, як фун-
кцiю вiд випадкової вибiрки, отримаємо зворотною замiною xk на ξk .
Приклад. Знайдемо декiлька оцiнок методом максимальної правдоподiбностi.
n
1. ξ ∼ N(a, σ 2 ). Вiдомо, що ln L(~x, a, σ 2 ) = − n2 ln 2π − n2 ln σ 2 − 2σ1 2 (xk − a)2 . Позначимо
P
k=1
для зручностi s = σ 2 та шукатимемо максимум функцiї двох змiнних:
 n
ln L
 ∂ ∂a = 1s (xk − a) = ns (x − a) = 0
P 
aкр. = x


k=1 n
n ⇒
sкр. = n1 (xk − a)2 = (D∗ ξ)зн
P
∂ ln L n 1 2
P


 ∂s = − 2s + 2s2 (x k − a) = 0 k=1
k=1

− ns − sn2 (x − a)
!  
∂ 2 ln L ∂ 2 ln L
∂a2 ∂a∂s n
= n n
∂ 2 ln L ∂ 2 ln L − s13 (xk − a)2
P 
− s2 (x − a) 2s2
∂a∂s ∂s2 k=1

При a = aкр. та s = sкр. матриця других похiдних дорiвнює


 n
− sкр.

0 n
!
n
!
  − sкр. 0 − sкр. 0
n = =
 sкр. nsкр. n
n 1
(xk − a∗ )2 − 2(sкр. − 2(sкр.
P
0 (sкр. )3 2 − n
0 )3 0 )2
k=1

Ця матриця є вiд’ємно визначеною, тому ln L(~x, a, σ 2 ) дiйсно досягає максимуму при


a = x та σ 2 = (D∗ ξ)зн . Отже, отримали оцiнки a∗ = ξ та (σ 2 )∗ =D∗ ξ. 
Pn
2. ξ ∼ Exp(λ, b), вважатимемо λ вiдомим. ln L(~x, b) = n ln λ − λ xk − nb , але сама
k=1
функцiя правдоподiбностi приймає нульовi значення при xk < b. Якщо просто продифе-
L(~
ренцiювати функцiю правдоподiбностi, отримаємо ∂ ln ∂b x,b)
= λn — цей вираз завжди

88
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

бiльше 0 та не залежить вiд вибiрки. Отже, ln L(~x, b) монотонно зростає вiдносно b.


За змiстом самого параметру xk ≥ b для всiх k = 1, ..., n. Таким чином, максимальне
можливе значення b — це min xk . Отже, b∗ = min ξk .
1≤k≤n 1≤k≤n
(
1, x ∈ [θ; θ + 1]
3. ξ ∼ U[θ; θ + 1], θ ∈ R. Спочатку запишемо щiльнiсть: fξ (x) = . От-
0, x ∈/ [θ; θ + 1]
(
1, xk ∈ [θ; θ + 1], k = 1, ..., n
же, функцiя правдоподiбностi має вигляд L(~x, θ) = =
0, iнакше
( (
1, θ ≤ min xk ≤ max xk ≤ θ + 1 1, max xk − 1 ≤ θ ≤ min xk
1≤k≤n 1≤k≤n = 1≤k≤n 1≤k≤n . Вона досягає
0, iнакше 0, iнакше
 
максимуму по θ в кожнiй точцi з вiдрiзка max xk − 1; min xk . Таким чином, отри-
1≤k≤n 1≤k≤n
 

муємо незлiченну множину оцiнок θα = (1 − α) · max ξk − 1 + α · min ξk , де α ∈ [0; 1].
1≤k≤n 1≤k≤n

Вправа. 1. Знайти значення α, за якого θα∗


з останнього прикладу буде незмiщеною.
2. Показати, що оцiнки a∗ = min ξk та b∗ = max ξk для ξ ∼ U ha; bi можна знайти за
1≤k≤n 1≤k≤n
допомогою методу максимальної правдоподiбностi.
З розглянутих прикладiв видно, що на вiдмiну вiд методу моментiв, метод максимальної
правдоподiбностi може дати оцiнки не тiльки у виглядi функцiй вiд емпiричних моментiв,
а кiлькiсть оцiнок може бути навiть незлiченною. Iнодi застосовування методу максималь-
ної правдоподiбностi є досить складним: наприклад, якщо розглядати ξ ∼ Bin(N, p) з обома
невiдомими параметрами, то треба буде шукати максимум функцiї правдоподiбностi за пара-
метром N , що приймає лише скiнченну кiлькiсть значень та входить в саму функцiю у складi
бiномiальних коефiцiєнтiв.
Зауваження. В подальшому будемо позначати оцiнки, отриманi за допомогою методу макси-

мальної правдоподiбностi, через θММП , якщо це матиме значення.

8.4 Iнтервальне оцiнювання


Нехай ξ — ГС, θ — якийсь параметр її розподiлу. Задача iнтервального оцiнювання θ —
~ θ∗ (ξ)
це пошук за заданим рiвнем надiйностi γ статистик θ1∗ (ξ), ~ таких, що:
2

P {θ ∈ (θ1∗ , θ2∗ )} = γ ⇔ P {θ1∗ < θ < θ2∗ } = γ

Iнодi в цих спiввiдношеннях пишуть ≥ γ, оскiльки у випадку дискретного розподiлу цих


статистик рiвностi можуть не мати сенсу.

Означення 8.4.1. (θ1∗ , θ2∗ ) називається довiрчим iнтервалом з рiвнем надiйностi γ. Бiльш
точно — маємо справу з послiдовнiстю таких iнтервалiв, що залежать вiд обсягу вибiрки.
Зауваження. Оскiльки межi iнтервалу є випадковими, то запис θ ∈ (θ1∗ , θ2∗ ) правильно читати
не як «θ потрапляє в iнтервал (θ1∗ , θ2∗ )», а як «iнтервал (θ1∗ , θ2∗ ) накриває θ».
Зручно шукати довiрчi iнтервали конкретного вигляду, наприклад, симетричнi вiдносно θ
з умови P {|θ − θ∗ | < ε} = γ, де ε — точнiсть довiрчого iнтервалу, або однобiчнi з умов P{θ >
θ∗ } = γ чи P{θ < θ∗ } = γ. У випадку симетричного довiрчого iнтервалу зазвичай одразу
обирається сама статистика θ∗ (наприклад, якась «хороша» точкова оцiнка). В такому разi
пошук ε — це пошук ширини довiрчого iнтервалу, що забезпечує заданий рiвень надiйностi.
Якщо розглядається конкретна реалiзацiя вибiрки, то можна обчислити межi знайденого
iнтервалу як значення вiдповiдних статистик.

8.4.1 Побудова довiрчих iнтервалiв для гаусciвської ГС


Нехай ГС ξ ∼ N(a, σ 2 ). Розглянемо чотири випадки побудови довiрчих iнтервалiв для
параметрiв a та σ 2 (нагадаємо, що це математичне сподiвання та дисперсiя).
Довiрчий iнтервал для математичного сподiвання при вiдомiй дисперсiї.

89
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Шукатимемо симетричний довiрчий iнтервал P {|a − a∗ | < ε} = γ, де в якостi оцiнки a∗ бу-


n
ξk ∼ N(na, nσ 2 ),
P
де вибiркове середнє ξ. З властивостей незалежних гаусciвських ВВ маємо
  k=1
 √ 
2
тому ξ ∼ N a, σn . Отже, P{|a − a∗ | < ε} = P{a − ε < ξ < a + ε} = 2Φ ε σ n = γ, де Φ(x) —
функцiя Лапласа. З таблицi їїзначень знайдемо вiдповiдне значення ε i отримаємо шуканий
довiрчий iнтервал ξ − ε, ξ + ε .
Довiрчий iнтервал для математичного сподiвання при невiдомiй дисперсiї.
Шукатимемо симетричний довiрчий iнтервал P {|a − a∗ | < ε} = γ. В умовах попереднього
√ n
прикладу n · ξ−a ∗ 1
P
σ ∼ N(0, 1), але σ тепер невiдоме. Розглянемо статистику D ξ = n (ξk −
k=1
n ∗ n  2 √ 2
ξk −a
ξ)2 = n1 (ξk −a)2 −(ξ−a)2 . nD ξ
− n · ξ−a
P P
σ2 = σ σ . В теоремi нижче буде доведено
k=1 k=1
nD∗ ξ
незалежнiсть доданкiв, що дасть право сказати, що σ2 ∼ χ2n−1 . Як наслiдок,
√ ξ−a √
n· σ n · (ξ − a)
q = √ ∗∗ ∼ Stn−1
1
· nD∗ ξ D ξ
n−1 σ2
n√ o
n·|ξ−a|
Тепер з рiвностi P √ ∗∗
D ξ
< tγ = γ знайдемо значення tγ . Шуканим значенням ε буде
t p
ε = √γn · (D∗∗ ξ)зн .

Теорема (теорема Фiшера). Статистики стандартної гаусciвської ГС ξ та D∗ ξ — незале-


жнi випадковi величини.
Доведення. ξ~ — випадкова вибiрка, ξ~ ∼ N(~0, I). Нехай C — деяка ортогональна матриця, тодi
~η = C ξ~ теж має розподiл N(~0, I), причому k~η k = kξk.
~ Розглянемо матрицю
 
c1,1 c1,2 ... c1,n
 c2,1 c2,2 ... c2,n 
 
 .. .
.. .. .. 
C= . . . 
 
cn−1,1 cn−1,2 . . . cn−1,n 
√ √ √
1/ n 1/ n . . . 1/ n
  T ⊥
першi n − 1 рядкiв якої — це елементи ортонормованого базису л.о. ... . √1 √1
n n

~ ηn = √1 (ξ1 + ξ2 + ... + ξn ) = n · ξ. Вище у прикладi побудови довiрчого iнтервалу
~η = C ξ, n
n
було показано, що D∗ ξ = n1 (ξk − a)2 − (ξ − a)2 . В умовах теореми ця рiвнiсть спрощується
P
k=1
n 2 n n−1
1 ~ 2
до D∗ ξ = 1
ξk2 − ξ = 1 2 1
η k2 − n1 ηn2 1
ηk2 − n1 ηn2 = 1
ηk2 . Таким чином,
P P P
n n kξk − n ηn = n k~ = n n
k=1 k=1 k=1
D∗ ξ залежить вiд перших n − 1 координат ~η , а отже — не залежить вiд ξ = √1 ηn .
n
N

Приклад. Побудувати 95% довiрчий iнтервал для математичного сподiвання гаусciвської


∗∗
ГС, якщо x = 2, n = 25, а дисперсiя вiдома i рiвна 6, а потiм
 —якщо невiдома i (D ξ)зн = 5.78.
 √
ε n √5
1. Dξ = 6. За умовою γ = 0.95, тому ε шукаємо з 2Φ σ = γ. Φ ε · 6
= 0.475, звiдки

6
ε= · 1.96 ≈ 0.96. Отже, шуканий довiрчий iнтервал — (1.04, 2.96).
5 √
2. (D∗∗ ξ)зн = 5.78. Спочатку знайдемо tγ = 2.064, звiдки ε = 2.064

25
· 5.78 ≈ 2.386. Отже,
шуканий довiрчий iнтервал — (−0.386, 4.386).
Довiрчий iнтервал для дисперсiї при вiдомому математичному сподiваннi.
n ∗ n  2
ξk −a
В якостi точкової оцiнки дисперсiї вiзьмемо D∗ ξ = n1 (ξk −a)2 , тодi nD ξ
P P
σ 2 = σ ∼
n k=1 o k=1

χ2n . Шукатимемо довiрчий iнтервал з умови P t1 < nD ξ
σ 2 < t2 = γ, де t1 та t2 задоволь-
n ∗ o n ∗ o
няють P nD ξ
σ 2 > t1 = 1+γ
2 та P nD ξ
σ 2 ≥ t2 = 1−γ
2 . Шуканим довiрчим iнтервалом буде
 
n ∗ n ∗
t2 (D ξ)зн , t1 (D ξ)зн .

90
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Довiрчий iнтервал для дисперсiї при невiдомому математичному сподiваннi.


n ∗
Як було показано ранiше, для D∗ ξ = n1 (ξk −ξ)2 статистика nD ξ 2
P
σ 2 має розподiл χn−1 , тому
k=1
(n−1)D∗∗ ξ ∗∗
n o
σ2 ∼ χ2n−1 . Як i в попередньому випадку, шукаємо t1 та t2 з умов P (n−1)D σ2
ξ
> t1 =
(n−1)D∗∗ ξ
n o  
1+γ 1−γ n−1 ∗∗ n−1 ∗∗
2 та P σ2 ≥ t 2 = 2 . Шуканий довiрчий iнтервал — t2 (D ξ) ,
зн t1 (D ξ) зн .

8.4.2 Наближенi довiрчi iнтервали


Якщо статистика θ∗ , що оцiнює невiдомий параметр, є асимптотично нормальною, то роз-
θ ∗ −θ
подiл √ Dθ ∗
можна вважати приблизно рiвним N(0, 1) (звiсно, при достатньо великих n). В
n ∗ o
такому випадку довiрчий iнтервал можна будувати з рiвностi P |θ√Dθ −θ|

< tγ = γ, де tγ зна-
ходимо з таблицi значень функцiї Лапласа. Щоб тепер отримати довiрчий iнтервал, треба

розв’язати вiдносно θ нерiвнiсть |θ√Dθ−θ|

< tγ .
Приклад. Побудуємо наближений довiрчий iнтервал n ∗для a у oвипадку ξ ∼ Poiss(a). Вважа-
|a −a|
тимемо, що значення tγ вже знайдено з рiвностi P √
Da∗
< tγ = γ, де a∗ = ξ. Розв’яжемо
нерiвнiсть:
|a∗ − a| (a∗ − a)2 1 1
√ < tγ ⇔ ∗
< t2γ , Da∗ = Dξ = Dξ = a
Da∗ Da n n
!
2 2

tγ ∗ 2 ∗
tγ ∗
t2γ
2
(a − a) < a · 2
⇔ (a ) − 2a a + a < a · 2
⇔ a − 2a a + + (a∗ )2 < 0
n n 2n
t2γ
Позначимо a∗ + 2n = b:
 p p 
a2 − 2ab + (a∗ )2 < 0, D/4 = b2 − (a∗ )2 ⇒ a ∈ b − D/4, b + D/4
s
t2γ 2
r
2
t t2γ t2γ t4γ
 
γ
p ∗ ∗
b ± D/4 = a + ± ∗
a + ∗ 2
− (a ) = a + ± a∗ · + 2
2n 2n 2n n 4n
Отже, шуканий довiрчий iнтервал:
r r !
t2γ t2γ t4γ t2γ t2γ t4γ
ξ+ − ξ· + 2,ξ + + ξ· + 2
2n n 4n 2n n 4n

8.4.3 Довiрчий iнтервал для ймовiрностi появи подiї


За точкову оцiнку ймовiрностi p появи подiї A в схемi Бернуллi беруть частiсть p∗ = m n,
де n — загальна кiлькiсть незалежних випробувань, m — кiлькiсть появ подiї A в цих випро-
буваннях. Задамо рiвень надiйностi γ i знайдемо такi величини p1 та p2 , щоб виконувалось
спiввiдношення P {p1 < p < p2 } = γ. Iнтервал (p1 , p2 ) буде шуканим довiрчим iнтервалом.
Розглянемо два випадки.
Кiлькiсть випробувань досить велика.
В цьому випадку розподiл величини m в силу граничної теореми Муавра-Лапласа мо-
√ p pq
жна наближено замiнити N(np, npq), тому розподiл p∗ = m

n приблизно рiвний N p, n .
∗ √
−p) n
Таким чином, статистика (p √ pq має наближено розподiл N(0, 1). Користуючись таблицею
значень функцiїoЛапласа, для заданої довiрчої ймовiрностi γ знайдемо таке tγ , при якому

|p∗ −p| n
n
P √
pq < tγ = γ. Розв’яжемо вiдносно p нерiвнiсть пiд знаком ймовiрностi:

|p∗ − p| n (p∗ − p)2 n  t2γ
√ < tγ ⇔ < t2γ ⇔ (p∗ )2 − 2p∗ p + p2 < p − p2 · ⇔
pq p(1 − p) n
! !
t2γ t2γ
⇔ 1+ p2 − 2p∗ + p + (p∗ )2 < 0 ⇔
n n
q
t2γ t2
  ∗ ∗)
p∗ + 2n ± tγ · p (1−pn + 4nγ2
⇔ p ∈ (p1 , p2 ), p1,2 = t2
1 + nγ

91
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Цей результат має геометричну iнтерпретацiю. Розглянемо систему координат, по осi аб-
сцис якої вiдкладаємо частiсть p∗ , а по осi ординат — ймовiрнiсть p. Повернемося до нерiв-
ностi, яку вже розв’язали:
!
t2γ t2γ
1+ p2 − 2p∗ p + (p∗ )2 − p < 0
n n

Ця нерiвнiсть задає внутрiшню частину деякого елiпса. Таким


p чином, довiрчим iнтервалом для p при вiдомому значеннi часто-
1 стi p∗зн буде множина точок всерединi цього елiпса з абсцисою,
p2 що дорiвнює p∗зн . Важливо зауважити, що навiть якщо p∗зн = 1,
то немає пiдстав казати, що справжнє значення
 p дорiвнює 1. В
1
цьому випадку отримаємо довiрчий iнтервал 1+t2 /n , 1 . Анало-
p1 γ
t2γ /n


гiчно, при pзн = 0 отримаємо довiрчий iнтервал 0, 1+t 2 /n .
γ

0 p∗зн 1 p ∗

t2
Якщо обсяг вибiрки n доволi великий, то величиною nγ можна знехтувати. Тодi межi довiр-
чого iнтервалу набувають наближених значень
r
∗ p∗ (1 − p∗ )
p1,2 ≈ p ± tγ
n
Приклад. Деяка подiя в серiї з n = 100 незалежних випробувань вiдбулась m = 78 разiв.
Побудувати довiрчий iнтервал для ймовiрностi p появи цiєї подiї з надiйнiстю γ = 0.9.
За умовою p∗зн = 0.78, а вiдповiдне значення tγ з таблицi функцiї Лапласа дорiвнює 1.65.
Отже,
2
q
1.652
0.78 + 1.65
200 ± 1.65 0.78·0.22
100 + 4·100 2
p1,2 = 1.652
⇒ p1 ≈ 0.7047, p2 ≈ 0.8404
1 + 100
Якщо обчислити межi довiрчого iнтервалу за наближеними формулами для великих n, отри-
маємо
r
0.78 · 0.22
p1,2 ≈ 0.78 ± 1.65 ⇒ p1 ≈ 0.7116, p2 ≈ 0.8483
100
Кiлькiсть випробувань мала. В цьому випадку граничними теоремами скористатися не
вийде. Згадаємо формулу для ймовiрностi появи подiї A в схемi Бернуллi з n iспитами k
разiв: P {ξ = k} = Cnk pk (1 − p)n−k , де ξ ∼ Bin(n, p). Задамо рiвень надiйностi γ та знайдемо
такi p1 та p2 , що P {p1 < p < p2 } = γ. Приймемо без доведення, що p1 — розв’язок рiвняння
m−1 m
Cn p1 (1 − p1 )n−k = 1+γ Cnk pk2 (1 − p2 )n−k = 1−γ
P k k P
2 , а p2 — розв’язок рiвняння 2 . В цих
k=0 k=0
формулах m є конкретним числом (а не випадковою величиною), кiлькiстю випробувань,
в яких сталася подiя A. Iснують спецiальнi таблицi для знаходження значень p1 та p2 , що
задовольняють цим рiвнянням.

8.4.4 Довiрчi iнтервали для параметрiв рiвномiрної ГС


Як вiдомо, асимптотично незмiщеними та конзистентними оцiнками параметрiв a та b рiв-
номiрної ГС є, вiдповiдно, a∗ = min ξk та b∗ = max ξk . З огляду на характер цих параметрiв,
1≤k≤n 1≤k≤n
шукатимемо довiрчi iнтервали з рiвностей P {a ≤ a∗ ≤ a + ε1 } ≥ γ та P {b − ε2 ≤ b∗ ≤ b} ≥ γ,
де γ — заданий рiвень надiйностi. Користуючись щiльностями розподiлу a∗ та b∗ , обчислимо
цi ймовiрностi:
Z a+ε1  n
n ε1
P {a ≤ a∗ ≤ a + ε1 } = (b − x) n−1
dx = 1 − 1 −
a (b − a)n b−a
Z b  n
∗ n n−1 ε2
P {b − ε2 ≤ b ≤ b} = n
(x − a) dx = 1 − 1 −
b−ε2 (b − a) b−a

92
Роздiл 8. Вибiрка, точкове та iнтервальне оцiнювання.

Для рiзницi b−a з умов a∗ ≤ a+ε1 та b∗ ≥ b−ε2 маємо оцiнку b−a ≤ max ξk +ε2 − min ξk +ε1 .
1≤k≤n 1≤k≤n
Далi для зручностi позначатимемо max ξk = M , min ξk = m. Отримуємо систему:
1≤k≤n 1≤k≤n
  n  n
1 − 1 − ε1 ε1
b−a ≥1− 1− M −m+ε2 +ε1 =γ
 n  n
1 − 1 − ε2 ε2
b−a ≥1− 1− M −m+ε2 +ε1 =γ

Розв’яжемо її вiдносно ε1 та ε2 .
n


ε1
(
 1− =1−γ ε1
1 − M −m+ε
n
= 1−γ
M −m+ε2 +ε1 +ε
 n ⇔ ε2
2 1

n ⇔
 1− ε2
=1−γ 1 − M −m+ε 2 +ε1
= 1−γ
M −m+ε2 +ε1
( √n

ε1 = (M − m + ε2 + ε1 ) 1 − 1 − γ
⇔ √n

ε2 = (M − m + ε2 + ε1 ) 1 − 1 − γ

Отже, ε1 = ε2 , тому далi розв’язуємо лише одне рiвняння:


   p   
n n n
p p
ε1 = (M − m + 2ε1 ) 1 − 1 − γ ⇔ 2 1 − γ − 2 + 1 ε1 = (M − m) 1 − 1 − γ

n
(M −m)(1− 1−γ )
Таким чином, ε1 = ε2 = √n
2 1−γ−1
. Оскiльки ε1 , ε2 > 0, то на γ треба накладати вимогу
γ < 1 − 2−n . Шуканi довiрчi iнтервали матимуть вигляд (a∗ − ε1 , a∗ ) та (b∗ , b∗ + ε2 ).

93
Роздiл 9

Перевiрка статистичних гiпотез

9.1 Поняття статистичних гiпотез та їх перевiрки


9.1.1 Статистичнi гiпотези. Помилки першого та другого роду
Iнформацiя, що отримана при обробцi вибiрки з деякої генеральної сукупностi, може бу-
ти використана для отримання висновкiв про всю генеральну сукупнiсть. Подiбнi висновки
називають статистичними. Завдяки їх ймовiрнiсному характеру завжди можна знайти ймо-
вiрнiсть того, що прийняте рiшення буде помилковим, тобто оцiнити ризик того чи iншого
прийнятого рiшення.
Означення 9.1.1. Статистичною непараметричною гiпотезою H називається припущен-
ня про вигляд розподiлу генеральної сукупностi, яке перевiряється за вибiркою. Часто розпо-
дiл генеральної сукупностi вiдомий i за вибiркою треба перевiрити припущення щодо значень
параметрiв цього розподiлу. Такi статистичнi гiпотези називають параметричними.
Гiпотези бувають простi та складнi. Гiпотеза називається простою, якщо вона однозначно
визначає розподiл генеральної сукупностi, в iншому випадку гiпотеза називається складною.
Наприклад, простою гiпотезою є припущення, що ГС має нормальний розподiл з параметрами
0 та 1. Якщо висувається гiпотеза про те, що ГС має нормальний розподiл з параметрами
1 та σ, де σ ∈ (1, 2), то ця гiпотеза є складною. Теж саме стосується гiпотез про значення
невiдомого параметру розподiлу ГС: гiпотеза виду H : θ = 1 є простою, а H : θ ∈ (1, 2) —
складною.
Означення 9.1.2. Гiпотеза, що перевiряється, називається нульовою (основною) гiпотезою
й позначається H0 . Решта гiпотез називається альтернативними (конкуруючими) вiдносно
нульової гiпотези й позначаються H1 , H2 тощо.
Наприклад, якщо перевiряється проста гiпотеза про рiвнiсть параметра θ деякому значен-
ню θ0 , тобто, H0 : θ = θ0 , то в якостi альтернативної гiпотези можна розглядати одну з таких:
H1 : θ 6= θ0 , H2 : θ > θ0 , H3 : θ < θ0 , H4 : θ = θ1 (де θ1 6= θ0 ).
Зазначимо, що математична статистика не дає нiяких рекомендацiй щодо вибору нульової
та альтернативної гiпотези. Цей вибiр повнiстю визначається дослiдником i залежить вiд
поставленої задачi.
Означення 9.1.3. Правило, за яким приймається чи вiдхиляється гiпотеза на основi вибiр-
ки, називається статистичним критерiєм для перевiрки гiпотези H. Якщо перевiряється
гiпотеза про належнiсть розподiлу генеральної сукупностi до якогось класу розподiлiв (нор-
мального, рiвномiрного, Пуассона тощо), то зазначене правило називається критерiєм згоди.
Оскiльки висновок щодо прийняття або вiдхилення гiпотези приймається за реалiзацiєю
вибiрки, то вибране рiшення може бути помилковим. Розрiзняють типи таких помилок.
Означення 9.1.4. Помилка, яка полягає в тому, що правильна гiпотеза H0 , згiдно з вибра-
ним критерiєм, вiдхиляється, називається помилкою першого роду — це так званий «хибно
позитивний висновок». Помилка другого роду вiдбувається тодi, коли справджується деяка
альтернативна гiпотеза, але приймається основна гiпотеза H0 — це так званий «хибно нега-
тивний висновок».

94
Роздiл 9. Перевiрка статистичних гiпотез.

Цi помилки iстотно рiзнi за своєю суттю. Проiлюструємо вiдмiннiсть мiж названими по-
милками на прикладi перевiрки медичного препарату на дiєвiсть. В ролi ГС тут ξ — кiлькiсть
випадкiв, коли препарат не подiяв. Висунемо двi гiпотези: H0 — «препарат недiєвий» та H1
— «препарат дiєвий». Помилка першого роду тут полягає в тому, що препарат дiйсно не є
дiєвим, але ця гiпотеза вiдхиляється (i це є тим самим хибно позитивним висновком, що пре-
парат дiєвий), а помилка другого роду — в тому, що насправдi дiєвий препарат таким не
вважають (це хибно негативний висновок про те, що препарат недiєвий). Наслiдком помилки
першого роду є випуск у виробництво недiєвого (а може, й шкiдливого) препарату, а помилки
другого роду — «непомiчання» його дiєвостi та проведення наступних спроб вдосконалити
препарат. Отже, помилка першого роду —- це помилка, якої важливiше уникнути.
Слiд зазначити, що статистичний критерiй, за яким перевiряється певна гiпотеза, не вiдпо-
вiдає на питання, правильна гiпотеза чи нi. За критерiєм ми лише вирiшуємо, чи суперечать
вибiрковi данi висунутiй гiпотезi, чи нi. Висновок «данi суперечать гiпотезi» вважаються
бiльш вагомим, нiж «данi не суперечать гiпотезi».

9.1.2 Методика перевiрки статистичних гiпотез


Нехай ξ~ = (ξ1 , ξ2 , ..., ξn ) — випадкова вибiрка, ξ — ГС, а G ⊆ Rn — вибiрковий простiр. В
залежностi вiд задачi формулюємо основну гiпотезу H0 та альтернативну H1 . Сформулюємо
загальний принцип побудови критерiїв перевiрки гiпотез за певною реалiзацiєю вибiрки ~x =
(x1 , x2 , ..., xn ). Критерiй задають за допомогою критичної множини W , що є пiдмножиною
вибiркового простору. Множину W = G \ W назвемо областю прийняття гiпотези. Рiшення
приймають так:
1. Якщо вибiрка ~x = (x1 , x2 , ..., xn ) належить критичнiй множинi W , то вважають, що данi
суперечать основнiй гiпотезi, тобто H0 вiдхиляють.
2. Якщо вибiрка ~x = (x1 , x2 , ..., xn ) належить областi прийняття гiпотези G \ W , то вiдхи-
ляють альтернативну гiпотезу й приймають основну H0 . В цьому випадку вважають,
що данi не суперечать основнiй гiпотезi.
Знайдемо ймовiрностi помилок першого та другого роду. Нехай гiпотези Hi , i = 0, 1 поля-
гають в тому, що щiльнiсть розподiлу ξ дорiвнює fi (x), якщо ξ — неперервна, або P {ξ = xk } =
pi (xk ), якщо ξ — дискретна.
Ймовiрнiсть помилки першого роду вiдносно нульової n гiпотезиo H0 дорiвнює ймовiрно-
~ ~
стi того, що ξ потрапить в критичну множину W , тобто, P ξ ∈ W/H0 = α. Величина α нази-
вається рiвнем значущостi критерiю. Якщо LH0 (~x) — функцiя правдоподiбностi, R побудована
згiдно висунутiй гiпотезi H0 , то ймовiрнiсть помилки першого роду дорiвнює W LH0 (~x)d~x.
Рiвень значущостi, як правило, задається.
Ймовiрнiсть помилки другого роду вiдносно нульової гiпотези H0 nдорiвнює ймовiр- o
ностi того, що ξ~ потрапить в W , якщо насправдi вiрна гiпотеза H1 , тобто, P ξ~ ∈ W /H1 = β.
Якщо LH1 (~x) — функцiя правдоподiбностi, побудована
R згiдно альтернативнiй гiпотезi H1 , то
ймовiрнiсть помилки другого роду дорiвнює W LH1 (~x)d~x.
Одночасно взяти якомога малими α та β неможливо, тому критерiй будують таким, щоб
величина 1−β, яка називається потужнiстю критерiю, була найбiльшою при заданому рiвнi
значущостi α. Потужнiсть критерiю — це ймовiрнiсть вiдхилити основну гiпотезу, якщо вона
є хибною.

9.2 Критерiй Пiрсона (χ2 ) та критерiй Колмогорова


Перейдемо до найважливiшої задачi математичної статистики: перевiрки гiпотези про за-
кон розподiлу генеральної сукупностi за певною реалiзацiю вибiрки. Припущення про вид
закону генеральної сукупностi варто висувати тiльки пiсля первинної обробки статистичних
даних. Параметри розподiлу, як правило, невiдомi, тому їх замiнюємо на найкращi точковi
оцiнки. Очевидно, що мiж теоретичними та емпiричними розподiлами iснують розходження.
Важливо зрозумiти, чи пояснюються цi розходження тiльки випадковими обставинами (на-
приклад, обмеженiсть кiлькостi спостережень), чи суттєвими (наприклад, гiпотетичний закон
пiдiбрано невдало).

95
Роздiл 9. Перевiрка статистичних гiпотез.

9.2.1 Критерiй Пiрсона та алгоритм його використання


Висунемо гiпотезу H0 : ξ має функцiю розподiлу F (x, θ1 , θ2 , ..., θm ). Згiдно з цiєю гiпоте-
зою ξ може приймати значення з множини X, яку розiб’ємо на r пiдмножин Xi , що попарно
Sr
не перетинаються: X = Xi (рекомендацiї щодо вибору цих множин та їх кiлькостi роз-
i=1
глянемо пiзнiше). В припущеннi, що гiпотеза H0 справджується, можемо обчислити ймовiр-
r
pi = 1. Якщо H0 справджується, то частостi nni , де
P
ностi pi = P {ξ ∈ Xi /H0 }, причому
i=1
n
P
ni = 1{ξk ∈ Xi } (кiлькiсть значень, що потрапили в Xi ), мають прямувати за ймовiрнi-
k=1
стю до pi . Критерiй Пiрсона з’ясовує, чи можна вважати розходження мiж теоретичними
ймовiрностями pi та практичними значеннями nni випадковими, а не систематичними.
Розглядається статистика
r r 2
X n  ni 2 X (ni − npi )
η= − pi = (1)
p
i=1 i
n i=1
npi
За теоремою Пiрсона, доведення якої буде наведено далi, якщо складна гiпотеза H0 про
закон розподiлу генеральної сукупностi справджується, то статистика η прямує за розподiлом
до розподiлу χ2r−s−1 , де s — кiлькiсть невiдомих параметрiв гiпотетичного закону розподiлу,
якi оцiнюємо, а r — кiлькiсть множин, за якими рахувалися теоретичнi ймовiрностi pi .
Алгоритм використання критерiю Пiрсона.
1. Пiсля висування гiпотези про закон розподiлу ξ розбиваємо множину X можливих зна-
чень ξ на r пiдмножин, що попарно не перетинаються.
r
P
2. Згiдно висунутiй гiпотезi обчислюємо pi = P {ξ ∈ Xi /H0 }, перевiряємо pi = 1. Якщо
i=1
r ≥ 20, то потрiбно, щоб виконувалося npi ≥ 5, i = 1, ..., r, а якщо r < 20 — npi ≥ 10, i =
1, ...r. Це пов’язано з тим, що замiна розподiлу η на χ2r−s−1 є наближеною. Якщо цi
умови не виконуються, то сусiднi пiдмножини об’єднують, зменшуючи r та збiльшуючи
вiдповiднi pi .
3. Обчислюємо ηзн (з, можливо, новим значенням r) та порiвнюємо з критичним значен-
ням tкр , яке для заданого рiвня значущостi α шукається як значення tα,r−s−1 з таблицi
на ст. 123. Формально, tкр — це квантиль рiвня 1 − α для розподiлу χ2r−s−1 .
4. Критична область в критерiї Пiрсона є правосторонньою: якщо ηзн < tкр , то данi не
суперечать висунутiй гiпотезi H0 , а якщо ηзн ≥ tкр , то суперечать на рiвнi значущостi α.
Це означає, що вiдхилення частостей вiд теоретичних ймовiрностей pi не можна вважати
випадковими.
Наведемо декiлька прикладiв застосування критерiю Пiрсона.
Приклад. 1. Спостереження ГС наведенi в iнтервальному варiацiйному рядi. Перевiрити
гiпотезу про нормальний розподiл ГС на рiвнi значущостi α = 0.05.
iнтервал [−4; 0) [0; 2) [2; 4) [4; 6]
ni 20 40 30 10
За реалiзацiєю вибiрки знайдемо значення найкращих оцiнок параметрiв гауссiвсько-
∗∗
го розподiлу: вибiркового середнього x = 1.4 та виправленої вибiркової дисперсiї Dзн =
4.48. Висунемо гiпотезу H0 : ξ ∼ N(1.4, 4.48). Оскiльки ξ за цим припущенням може при-
ймати довiльнi дiйснi значення, то розiб’ємо дiйсну вiсь на iнтервали (−∞; −4), [−4; 0),
[0; 2), [2; 4), [4; 6) та (6; +∞), для яких обчислимо теоретичнi ймовiрностi pi :
Xi (−∞; −4) [−4; 0) [0; 2) [2; 4) [4; 6] (6; +∞)
pi 0.005 0.249 0.3575 0.2787 0.0948 0.015
npi 0.5 24.9 35.75 27.87 9.48 1.5
Умова npi ≥ 10 не виконується для (−∞; −4) та (6; +∞), тому об’єднаємо їх з сусiднiми
iнтервалами:
Xi (−∞; 0) [0; 2) [2; 4) [4; +∞)
pi 0.254 0.3575 0.2787 0.1098
npi 25.4 35.75 27.87 10.98
ni 20 40 30 10
ni − npi −5.4 4.25 2.13 −0.98

96
Роздiл 9. Перевiрка статистичних гiпотез.

Тепер можемо обчислити ηзн ≈ 1.904. За таблицею розподiлу χ2 знаходимо tкр для
4 − 2 − 1 = 1 степенi свободи, воно рiвне 3.84. Отже, ηзн < tкр , тому на рiвнi значущостi
0.05 данi не суперечать гiпотезi про розподiл ГС N(1.4, 4.48).
2. Серед 2020 дводiтних сiмей 527 мають двох хлопчикiв, 476 — двох дiвчаток, а у ре-
шти 1017 сiмей дiти рiзної статi. Чи можна на рiвнi значущостi 0.05 вважати кiлькiсть
хлопчикiв у сiм’ї, яка має двох дiтей, бiномiально розподiленою випадковою величиною?
Розглянемо випадкову величину ξ, яка для кожної дводiтної сiм’ї набуває значення
i = 0, 1, 2, якщо в сiм’ї i хлопчикiв, та висунемо гiпотезу H0 : ξ ∼ Bin(2, p). Параметр
p розподiлу невiдомий, але його точковою оцiнкою є p∗ = 12 ξ, p∗зн = 0·476+1·1017+2·527
2·2020 ≈
0.513. Вибiрковий простiр складається з трьох елементiв, X = {0, 1, 2}, тому роздiлимо
його на три множини:
Xi {0} {1} {2}
pi 0.2371 0.4997 0.2632
npi 478.942 1009.394 531.664
ni 476 1017 527
ni − npi −2.942 7.606 −4.664
2 2 2
Обчислимо ηзн = (−2.942) 7.606 (−4.664)
478.942 + 1009.394 + 531.664 ≈ 0.116. r = 3, s = 1, за таблицею
знаходимо tкр = 3.84. Отже, ηзн < tкр , тому на рiвнi значущостi 0.05 данi не суперечать
гiпотезi про розподiл ξ ∼ Bin(2, 0.513).
Окремим, бiльш простiшим, випадком застосування критерiю χ2 є його застосування до
схеми Бернуллi, тобто при перевiрцi гiпотези про ймовiрнiсть появи деякої подiї в послiдов-
ностi незалежних випробувань. Нехай у послiдовностi n незалежних випробувань подiя A
вiдбулася m разiв. Потрiбно на рiвнi значущостi α перевiрити гiпотезу, що P(A) = p. Данi
можна розглядати як вибiрку з n значень випадкової величини ξ, що є iндикатором подiї
2 2
A у випробуваннi. В цьому випадку статистика η запишеться як η = (m−np) np + (n−m−nq)
nq ,
де q = 1 − p, m — кiлькiсть появ подiї A у n випробуваннях. Можна дещо перетворити цю
статистику:
2
(m − np)2 (n(1 − q) − m)2 (m − np)2 1 1 (m − np)2
  
m − np
η= + = + = = √
np nq n p q npq npq

Згiдно ЦГТ m−np


√ 2
npq прямує за розподiлом до N(0, 1), тому η прямує в такому ж сенсi до χ1 .
Далi перевiрка основної гiпотези проводиться аналогiчно загальному випадку.
Приклад. При n = 4040 пiдкиданнях монети «герб» випав m = 2048 разiв. Чи узгоджується
на рiвнi значущостi 0.1 з цими даними гiпотеза, що монета симетрична?
2 2
ηзн = (2048−4040/2)
4040/2 + (1992−4040/2)
4040/2 ≈ 0.776. За таблицею знайдемо tкр = 2.71, тому на рiвнi
значущостi 0.1 данi не суперечать гiпотезi про ймовiрнiсть випадання «герба» 21 .

9.2.2 Доведення теореми Пiрсона


Нагадаємо «пiдготовчу роботу» для застосування критерiю Пiрсона. Висуваємо гiпотезу
H0 : ξ має функцiю розподiлу F (x, θ1 , θ2 , ..., θm ). Згiдно з цiєю гiпотезою ξ може приймати
значення з множини X, яку розiб’ємо на r пiдмножин Xi , що попарно не перетинаються:
r
S
X= Xi , та обчислимо ймовiрностi pi = P {ξ ∈ Xi /H0 } , i = 1, ..., r.
i=1

r r 2
X n  ni 2 X (ni − npi )
η= − pi =
p
i=1 i
n i=1
npi

Теорема (теорема Пiрсона). В позначеннях, введених вище:


1. Якщо проста гiпотеза H0 щодо закону розподiлу ГС справджується, то статистика
η прямує за розподiлом до розподiлу χ2r−1 (розподiл χ2 з r − 1 ступенями вiльностi)
при n → ∞.
2. Якщо складна гiпотеза H0 щодо закону розподiлу ГС справджується, то статистика
η прямує за розподiлом до розподiлу χ2r−s−1 (розподiл χ2 з r−s−1 ступенями вiльностi)
при n → ∞. Тут s — кiлькiсть невiдомих параметрiв розподiлу, якi оцiнюються.

97
Роздiл 9. Перевiрка статистичних гiпотез.

n o∞
Перед доведенням цiєї теореми нагадаємо ЦГТ для випадкових векторiв: нехай ξ~n
n=1
— послiдовнiсть незалежних однаково розподiлених випадкових векторiв, що мають скiнченнi
математичне сподiвання ~a та кореляцiйну матрицю K. Тодi
n
! n
√ 1 X~ 1 X~ 
F
 
n ξk − ~a = √ ξk − ~a −→ ~η ∼ N ~0, K , n → ∞ (2)
n n
k=1 k=1

n    
2 F 2
√1 ξ~k − ~a , ~η ∼ N ~0, K .
P
Наслiдком ЦГТ є k~ηn k −→ k~η k , n → ∞, де ~ηn = n
k=1
Також зауважимо, що у випадку r = 2 теорему вже фактично було доведено, коли роз-
глядалося застосування критерiю Пiрсона до схеми Бернуллi.
Доведення. З огляду на технiчну складнiсть, проведемо доведення лише для випадку простої
гiпотези. План доведення: покажемо, що статистика η є квадратом норми деякого вектора,
що за ЦГТ збiгається за розподiлом до r − 1-вимiрного стандартного гауссiвського вектора,
квадрат норми якого, в свою чергу, має розподiл χ2r−1 , звiдки отримаємо твердження теореми
за наслiдком ЦГТ.
Нехай H0 справджується, гiпотетичну область значень ξ розбиваємо на r > 2 пiдмножин,
r
Xi , pi = P {ξ ∈ Xi /H0 } , i = 1, ..., r. ξ~ = (ξ1 , ξ2 , ..., ξn )
S
що попарно не перетинаються: X =
i=1 (
1, ξj ∈ Xi
— випадкова вибiрка, введемо iндикатори IXi (ξj ) = . Оскiльки розподiл усiх ξj
0, ξj ∈ / Xi
такий самий, як у ξ, то E (IXi (ξj )) = pi , D (IXi (ξj )) = pi (1 − pi ) = pi qi .
Введемо r-вимiрнi вектори:
 I (ξ )−p   I (ξ )−p   I (ξ )−p 
X1 1 1 X1 2 1 X1 n 1
√ √ √
 (ξp1 )−p
1
 (ξp2 )−p
1 p1
−−→  IX2 √ −−→  IX2 √ −−→  IX2 (ξ n )−p2 

2

2
 
(1) (2) (n) √
µ = p p p
2
, µ =  2
 , ..., µ =  2
     
 ···   ···   ··· 

IXr (ξ1 )−pr IXr (ξ2 )−pr IXr (ξn )−pr
√ √ √
pr pr pr

−−→
Внаслiдок однакового розподiлу та незалежностi усiх ξj всi µ(j) теж мають однаковий роз-
−−→ −−→ −−→
подiл та незалежнi. Оскiльки E (IXi (ξj )) = pi , то Eµ(1) = Eµ(2) = ... = Eµ(n) = ~0. Знайдемо
−−→
кореляцiйну матрицю K вектора µ(1) :
IXi (ξ1 ) − pi IXj (ξ1 ) − pj
 
1 
cov √ , √ =√ E (IXi (ξ1 ) − pi ) IXj (ξ1 ) − pj =
pi pj pi pj
(
1
1   D (IXi (ξ1 )) = 1 − pi , i = j
=√ E IXi (ξ1 )IXj (ξ1 ) − pi pj = pi√
pi pj − pi pj , i 6= j

Випадок i 6= j тут пояснюється тим, що множини Xi та Xj не перетинаються.


 √ √   √ 
1 − p1 − p1 p2 · · · − p1 pr − p1
−√p2 p1 1 − p2 · · · −√p2 pr  −√p2 
 √ √ √ 
K=  = Ir −  ..  − p1 − p2 · · · − pr
  
.. .. .. ..
 . . . .   . 
√ √ √
− pr p1 − pr p2 · · · 1 − pr − pr
−−→
Тут Ir — одична матриця розмiрностi r ×r. Виявляється, що координати µ(1) лiнiйно залежнi:
r r r
X √ (1)
X X
pi µi = (IXi (ξ1 ) − pi ) = IXi (ξ1 ) − 1 = 0 з ймовiрнiстю 1
i=1 i=1 i=1

Це означає, що матриця K вироджена i має ранг n−1: одночасно бiльше нiж одну координату
виразити через iншi неможливо, оскiльки X1 , X2 , ..., Xr попарно не перетинаються.
−−→
Отже, можна знайти таку ортогональну матрицю U , що вектор µd (1) = U µ(1) матиме нульо-

ву останню координату. З мiркувань про лiнiйну залежнiсть координат вихiдного вектора ба-
√ √ √
чимо, що такою матрицею може бути та, останнiй рядок якої дорiвнює p1 p2 · · · pr

98
Роздiл 9. Перевiрка статистичних гiпотез.

(його норма, очевидно, рiвна 1), а iншi складаються з ортонормованого базису ортогонально-
го доповнення до лiнiйної оболонки цього рядка. Покажемо, що якими б не булипершi r − 1
T (1) Ir−1 0
рядкiв матрицi U , кореляцiйна матриця K = U KU вектора µ матиме вигляд
b d .
0 0
U = (uij )i,j=1,...n , її ортогональнiсть означає, що для всiх m 6= r, l 6= m
r r r r
X X √ X X
umj urj = umj pj = 0, u2mj = 1, umj ulj = 0
j=1 j=1 j=1 j=1

Позначимо i, j-тий елементи матриць K та K b через σij та σ


bij , тодi
    
r r r
X X X X √
σ
bml =  umj σji  uli =  −umj pi pj  + umi (1 − pi ) uli =
i=1 j=1 i=1 i6=j
   
r
√ √ √ 
X X
= pi − umj pj − umi pi + umi  uli =
i=1 j6=i
r
( (  
X umi , m 6= r 1, m 6= r та m = l Ir−1 0
= uli · = =⇒ K
b=
0, m=r 0, m = r або m 6= l 0 0
i=1

−−→ n −
−→
Розглянемо r-вимiрний випадковий вектор η (n) = √1 µ(i) . Його перша координата дорiв-
P
n
i=1
нює
 
(n) 1 IX1 (ξ1 ) − p1 IX (ξ2 ) − p1 IX (ξn ) − p1 n1 − np1
η1 =√ √ + 1√ + ... + 1 √ = √
n p1 p1 p1 np1

Аналогiчно
(n) n2 − np2 (n) n3 − np3 nr − npr
η2 = √ , η3 = √ , ..., ηr(n) = √
np2 np3 npr

Застосуємо до цього вектора матрицю U :


−−→ n n
(n) = U η (n) = √
1 X −−→ 1 Xd
ηd U µ(i) = √ µ(i)
n i=1 n i=1

−−→
Оскiльки усi µ(i) незалежнi та однаково розподiленi, то усi µ (i) — теж, причому математичнi
d
−−→
 
(i) (i) ~ Ir−1 0
сподiвання Eµ = U Eµ = 0, а кореляцiйнi матрицi дорiвнюють K =
d b .
  0 0
F
Отже, за ЦГТ для випадкових векторiв (2) ηd (n) −→ ~η ∼ N ~0, K
b , n → ∞, а за наслiдком з
2
(n) F 2
неї ηd −→ k~η k ∼ χ2r−1 . Залишилося зауважити, що ортогональне перетворення зберiгає
−−→ 2 r
(n) 2

(ni −npi )2
= η (n) = збiгається за розподiлом до χ2r−1 , що i треба
P
норму, тому ηd

npi
i=1
було довести. N
Зауваження. Можна навести нестроге пояснення того, що у випадку складної гiпотези гра-
ничним розподiлом статистики η є χ2r−s−1 , а не χ2r−1 . Кiлькiсть ступенiв свободи у випадку
−−→
простої гiпотези дорiвнює r − 1 через те, що одну з координат кожного вектора µ(j) можна
було лiнiйно виразити через iншi, але двi чи бiльше координат одночасно так виразити вже
неможливо — це, власне, пояснює термiн «степенi свободи» в цьому випадку: значення однiєї
фiксованої координати цих векторiв «автоматично» визначається, коли вiдомi значення iнших
r −1. У випадку складної гiпотези, коли s невiдомих параметрiв розподiлу оцiнюються, додає-
ться ще s подiбних обмежень, що зменшує кiлькiсть ступенiв свободи у граничного розподiлу.
Дещо подiбне вiдбувалося при побудовi довiрчих iнтервалiв для дисперсiї гауссiвської ГС (ст.
90): там використання вибiркового середнього замiсть точного значення математичного спо-
дiвання теж зменшувало на 1 кiлькiсть ступенiв свободи у розподiлi вибiркової дисперсiї.

99
Роздiл 9. Перевiрка статистичних гiпотез.

9.2.3 Критерiй незалежностi χ2


Наведемо без доведення ще один напрям застосування розподiлу χ2 для перевiрки ста-
тистичних гiпотез. Нехай є n спостережень двох випадкових величин ξ та η, що позначимо
вiдповiдно (x1 , x2 , ..., xn ) та (y1 , y2 , ..., yn ). Перевiрятимемо гiпотезу H0 : ξ та η незалежнi .
Як побачимо далi, розподiли ξ та η знати непотрiбно, тому будемо вважати, що вони прийма-
ють скiнченну кiлькiсть значень {X1 , X2 , ..., Xl } та {Y1 , Y2 , ..., Yk } — iнакше спостереження
можна згрупувати в деякi iнтервали.
Якщо гiпотеза H0 справджується, то P {ξ = Xi , η = Yj } = P {ξ = Xi } · P {η = Yj }. Позначи-
мо νij кiлькiсть таких спостережень обох величин, що одночасно спостереження ξ дорiвнює
Xi i спостереження η дорiвнює Yj , νiξ — кiлькiсть спостережень ξ, рiвних Xi , νjη – кiль-
νiξ P νjη P
кiсть спостережень η, рiвних Yj . Оскiльки за ЗВЧ n −→ P {ξ = Xi }, n −→ P {η = Yj } та
νij P
n −→ P {ξ = Xi , η = Yj } при n → ∞, то вже можна здогадатися, що критерiй незалежностi
νij νiξ νjη
базуватиметься на рiзницi мiж n та n · n . Має мiсце теорема:
Теорема. Якщо наведена гiпотеза H0 справджується, то статистика
 2
Xl X k νij − νiξ · νjη /n
ζ= (3)
i=1 j=1 νiξ · νjη /n

прямує за розподiлом до розподiлу χ2(l−1)(k−1) при n → ∞.


Усi спостереження вносять до так званої таблицi спряженостi, застосування якої роз-
глянемо на прикладi. Прийняття чи вiдхилення основної гiпотези вiдбувається на основi по-
рiвняння значення статистики критерiю з критичним значенням, як i у випадку звичайного
критерiю χ2 .
Приклад. Проведено 300 спостережень одночасно над випадковими величинами ξ та η, якi
набувають значень 1, 2 та 1, 2, 3 вiдповiдно.
η
1 2 3 νiξ
ξ
1 32 68 50 150
2 40 70 40 150
νjη 72 138 90 300
Перевiрити за критерiєм χ2 гiпотезу про незалежнiсть ξ та η на рiвнi значущостi 0.01.
Спочатку знайдемо величини mij = νiξ · νjη /n:
150 · 72 150 · 138 150 · 90
m11 = m21 = = 36, m12 = m22 = = 69, m13 = m23 = = 45
300 300 300
2
Обчислимо квадрати вiдхилень (νij − mij ) :
m11 = (32 − 36)2 = 16, m12 = (68 − 69)2 = 1, m13 = (50 − 45)2 = 25
m21 = (40 − 36)2 = 16, m22 = (70 − 69)2 = 1, m23 = (40 − 45)2 = 25
Значення статистики критерiю:
 
16 1 25
ζзн = 2 · + + ≈ 2.029
36 69 45
Кiлькiсть ступенiв вiльностi дорiвнює 2, тому за таблицею знаходимо tкр = 9.21. Отже, ζзн <
tкр i на рiвнi значущостi 0.01 данi не суперечать гiпотезi про незалежнiсть ξ та η.

9.2.4 Критерiй згоди Колмогорова


Розглянемо критерiй згоди, що використовується для перевiрки простих гiпотез щодо
неперервного розподiлу ГС: наприклад, H0 : ξ ∼ N(0, 1) чи H0 : ξ ∼ U h−1, 1i. Вводиться
статистика Dn = sup |Fn∗ (x) − Fξ (x)|, де Fn∗ (x) — емпiрична функцiя розподiлу. На тому, що
x∈R
Fn∗ (x) з ймовiрнiстю 1 прямує до Fξ (x) при n → ∞, базується наступна теорема:

100
Роздiл 9. Перевiрка статистичних гiпотез.

Теорема (теорема Колмогорова). Нехай ξ~ = (ξ1 , ξ2 , ..., ξn ) — вибiрка з неперервної ГС ξ з


функцiєю розподiлу Fξ (x), Fn∗ (x) — побудована за вибiркою емпiрична функцiя розподiлу. Тодi
+∞

  X 2 2
lim P n· sup |Fn∗ (x) − Fξ (x)| < λ = K(λ), λ > 0, де K(λ) = (−1)j e−2j λ
n→∞ x∈R j=−∞

Доводити цю теорему не будемо. Зауважимо, що особливiстю статистики Dn є те, що її


закон розподiлу однаковий для всiх неперервних ГС i залежить лише вiд обсягу
вибiрки:
−1 ∗ −1
якщо зробити у нiй замiну x = Fξ (y), отримаємо Dn = sup Fn (Fξ (y)) − y . Оскiльки

y∈[0;1]
випадковi величини ηk = Fξ (ξk ) утворюють вибiрку з розподiлу U h0, 1i, то
n n
1X n o 1X
Fn∗ (Fξ−1 (y)) = −1
1 ξk < Fξ (y) = 1{ηk < y}, 1{ηk < y} ∼ Bin(1, y) при y ∈ [0; 1]
n n
k=1 k=1

n
P
ηk незалежнi, тому 1{ηk < y} ∼ Bin(n, y). Подальшi перетворення цiєї випадкової вели-
k=1
чини мають невипадковий характер, тому, дiйсно, розподiл Dn не залежить вiд розподiлу ξ.
Таким чином, якщо H0 справджується, то значення Dn буде досить малим. Значення K(λ)
знаходять з вiдповiдної таблицi.
Алгоритм використання критерiю Колмогорова.
1. Висуваємо просту гiпотезу H0 про неперервний закон розподiлу ГС ξ.
2. За реалiзацiєю вибiрки будуємо емпiричну функцiю
√ розподiлу Fn∗ (x).
3. Знаходимо значення статистики Dn та λ = n · Dn . √
4. За заданим рiвнем значущостi α знаходимо таке λα , що P { n · Dn ≤ λα /H0 } = 1 −
K(λα ) = α.
5. Якщо λзн буде бiльшим за критичне значення λα , то на рiвнi значущостi α дослiднi данi
суперечать гiпотезi H0 . Iнакше вважають, що гiпотезу H0 можна прийняти.
Наведемо таблицю значень λα для деяких α:
α 0.1 0.05 0.025 0.01
λα 1.224 1.358 1.480 1.628
Приклад. Нехай реалiзацiю вибiрки подано у виглядi iнтервального варiацiйного ряду:
iнтервал [0, 1) [1, 2) [2, 3) [3, 4) [4, 5) [5, 6) [6, 7) [7, 8) [8, 9) [9, 10]
ni 35 16 15 17 17 19 11 16 30 24

На рiвнi значущостi α = 0.05 перевiрити гiпотезу H0 : ξ ∼ U h0, 10i.


За iнтервальним варiацiйним рядом можемо обчислити значення емпiричної та теорети-
чної функцiї розподiлу в правих кiнцях iнтервалiв, а також рiзницi мiж ними:
x 2 1 3 4 5 6 7 8 9 10
Fn∗ (x) 0.175
0.255 0.33 0.415 0.5 0.595 0.65 0.73 0.88 1
Fξ (x) 0.20.1 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Fn∗ (x) − Fξ (x) 0.075
0.055 0.03 0.015 0 −0.004 −0.05 −0.07 −0.02 0

(Dn )зн = 0.075, тому λзн = 200 · 0.075 ≈ 1.06. За таблицею λ0.05 = 1.358. Отже, на рiвнi
значущостi 0.05 данi не суперечать гiпотезi про рiвномiрний розподiл ξ на iнтервалi h0, 10i.

9.3 Перевiрка параметричних гiпотез


9.3.1 Простi гiпотези. Критерiй Неймана-Пiрсона
Часто розподiл генеральної сукупностi вiдомий i за вибiркою треба перевiрити припущення
щодо значень параметрiв цього розподiлу. Такi гiпотези називають параметричними. Мето-
дика перевiрки простої параметричної гiпотези H0 проти простої альтернативної гiпотези H1
ґрунтується на тому, що критичну область W слiд вибирати таким чином, щоб ймовiрнiсть
попадання в неї статистики критерiю була мiнiмальною i дорiвнювала рiвню значущостi α,
якщо дослiднi данi не суперечать нульовiй гiпотезi H0 та максимальною у протилежному

101
Роздiл 9. Перевiрка статистичних гiпотез.

випадку. Тобто критична область повинна бути такою, щоб при заданому рiвнi значущостi
α потужнiсть критерiю 1 − β була максимальною. Назвемо найкращою критичною областю
(НКО) таку множину, що забезпечує максимальну потужнiсть критерiю. Побудова такої обла-
стi ґрунтується на лемi Неймана-Пiрсона.
Теорема (лема Неймана-Пiрсона). Серед усiх критерiїв заданого рiвня значущостi α, якi
перевiряють просту параметричну гiпотезу H0 : θ = θ0 проти простої альтернативної
гiпотези H1 : θ = θ1 критерiй вiдношення правдоподiбностi є найбiльш потужним,
тобто, найкраща критична область має вигляд
 
LH1 (~x)
WCα = ~x ∈ Rn : ≥ Cα (1)
LH0 (~x)

де у чисельнику стоїть функцiя правдоподiбностi в припущеннi, що справджується гiпоте-


за H1 , а у знаменнику — якщо справджується H0 . Стала Cα вибирається з умови
( , ) ( , )
~
LH1 (ξ) ~
LH1 (ξ)
P ≥ Cα H0 = P ln ≥ ln Cα H0 = α (2)
~
LH0 (ξ) ~
LH0 (ξ)

H1 L (~
x) H1 L (~
x)
Зауваження. Функцiя LH x) називається вiдношенням правдоподiбностi, а ln LH0 (~
(~ x) — лога-
0
рифмiчним вiдношенням правдоподiбностi.
Доведення. Як було зазначено на початку роздiлу, ймовiрнiсть
n помилкиo першого роду при
заданiй критичнiй множинi WCα можна знайти як α = P ξ~ ∈ WCα /H0 = WC LH0 (~x)d~x.
R
n o α

Нехай W — деяка iнша критична множина рiвня значущостi α, P ξ~ ∈ W/H0 ≤ α. Позначимо


IW (~x) та IWCα (~x) iндикатори цих множин i розглянемо функцiю

f (~x) = IWCα (~x) − IW (~x) · (LH1 (~x) − Cα · LH0 (~x))

Якщо ~x ∈ WCα , то IWCα (~x) − IW (~x) = 1 i LH1 (~x) − Cα · LH0 (~x) ≥ 0 за побудовою. Якщо
~x ∈ W , то IWCα (~x) − IW (~x) = −1 i LH1 (~x) − Cα · LH0 (~x) ≤ 0 за побудовою. В iнших випадках
(~x належить обом множинам одночасно або не належить жоднiй) перший множник дорiвнює
0. Отже, f (~x) ≥ 0 для всiх ~x ∈ Rn .
Z Z

0≤ f (~x)d~x = IWCα (~x) − IW (~x) · (LH1 (~x) − Cα · LH0 (~x)) d~x =
Rn n
Z Z R Z Z
= LH1 (~x)d~x − LH1 (~x)d~x − Cα · LH0 (~x)d~x + Cα · LH0 (~x)d~x =
WC W WC W
n α o n o  αn o n o
= P ξ ∈ WCα /H1 − P ξ ∈ W/H1 − Cα · P ξ~ ∈ WCα /H0 − P ξ~ ∈ W/H0
~ ~

n o n o n o n o
P ξ~ ∈ WCα /H0 − P ξ~ ∈ W/H0 ≥ 0, тому P ξ~ ∈ WCα /H1 − P ξ~ ∈ W/H1 ≥ 0. Це й
означає, що вибiр критичної множини WCα дає бiльшу потужнiсть критерiю, нiж W . N
Твердження леми Неймана-Пiрсона можна застосовувати для знаходження потужностi
критерiю та обсягу вибiрки, що забезпечує заданий рiвень значущостi та ймовiрнiсть помилки
другого роду. Знаючи Cα , можна знайти ймовiрнiсть помилки другого роду β як
  
LH1 (~x)
P ln < ln Cα H1 = β
LH0 (~x)

Для визначення мiнiмального обсягу вибiрки, при якому досягаються наперед заданi ймовiр-
ностi помилок першого α та другого роду β, треба розв’язати систему
 n . o
P ln LH1 (~x) ≥ ln Cα H0 = α
n LH0 (~x) . o
P ln LH1 (~x) < ln Cα H1 = β
LH (~
x) 0

Вiдповiднi приклади будуть розглянутi нижче (ст. 103).

102
Роздiл 9. Перевiрка статистичних гiпотез.

9.3.2 Приклади побудови найкращої критичної областi


Приклад 1. Побудувати найкращу критичну область за лемою Неймана-Пiрсона для пара-
метра a нормально розподiленої ГС з вiдомою дисперсiєю σ 2 . Розглянемо двi простi гiпотези:
H0 : Eξ = a0 та H1 : Eξ = a1 , де a0 < a1 . Функцiя правдоподiбностi має вигляд
( n
)
1 1 X
L(x1 , ..., xn , a) = n · exp − 2 (xk − a)2
(2π) 2 σ n 2σ
k=1

Тому звичайне та логарифмiчне вiдношення правдоподiбностi матимуть вигляд


( n n
)
LH1 (~x) 1 X 2 1 X 2
= exp − 2 (xk − a1 ) + 2 (xk − a0 ) =
LH0 (~x) 2σ 2σ
k=1 k=1
( n
)
1 X 2 2 2 2

= exp − 2 xk − 2xk a1 + a1 − xk + 2xk a0 − a0 =

k=1
( n
!) ( n
)
n(a21 − a20 )
 
1 X
2 2 a1 − a0 X
= exp − 2 2(a0 − a1 ) xk + n(a1 − a0 ) = exp x k exp −
2σ σ2 2σ 2
k=1 k=1

 
n n
LH1 (~x) a1 − a0 X n(a21 − a20 ) n(a1 − a0 ) 1 X a0 + a1 
ln = x − = · xk −
 
k
LH0 (~x) σ2 2σ 2 σ2 n 2 

k=1 k=1
| {z }
x

L (~
x)
Розв’яжемо вiдносно x нерiвнiсть ln LH1
x) ≥ ln Cα :
H (~ 0

σ 2 ln Cα
 
n(a1 − a0 ) a0 + a1 a0 + a1
2
· x − ≥ ln Cα ⇔ x ≥ + = tкр
σ 2 n(a1 − a0 ) 2

Зауважимо, що знак нерiвностi тут не змiнюється,


 оскiльки
 a1 > a0 . Знайдемо t з рiвностi
σ2

P ξ ≥ t/H0 = α, користуючись тим, що ξ ∼ N a0 , n , якщо H0 справджується:
√ √  √ 
σ2
   
 (ξ − a0 ) n (t − a0 ) n (t − a0 ) n
P ξ ≥ t/H0 = P ≥ ξ ∼ N a0 , = 0.5 − Φ =α
σ σ n σ

Знайдене значення t буде межею критичної областi, яка в цьому випадку буде правосторон-
ньою. Якщо значення вибiркового середнього, обчисленого за конкретною реалiзацiєю, буде
бiльше за t, то гiпотезу H0 : a = a0 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi
на рiвнi значущостi α. В iншому випадку гiпотезу H0 приймаємо.
У випадку a1 < a0 при розв’язаннi нерiвностi вiдносно x змiниться її знак, тому критична
область буде лiвосторонньою.
Зауваження.

Якщо дисперсiя ГС є невiдомою, то треба користуватися статистикою η =
(ξ−a0) n
√ ∗∗
D ξ
, що має розподiл Stn−1 , якщо гiпотеза H0 справджується. В цьому випадку критична
область також буде правосторонньою при a1 > a0 , а при a1 < a0 — лiвосторонньою.
Продемонструємо застосування знайденої НКО на конкретнiй задачi.
Задача 1. Стверджується, що кульки, виробленi верстатом, мають середнiй дiаметр 10 мм.
Перевiрити цю гiпотезу на рiвнi значущостi α = 0.05, якщо пiсля перевiрки 16 кульок середнє
значення дiаметра дорiвнювало 10.3 мм. Вважати, що результати вимiрювання ξ нормально
розподiленi з σ = 1. Що змiниться, якщо дисперсiя є невiдомою, але (D∗∗ ξ)зн = 1?
З умови задачi висуваємо гiпотези H0 : Eξ = 10
 та H√1 : Eξ
 = a > 10, бо x > 10. Обчислимо
межу критичної областi з рiвностi 0.05 = 0.5 − Φ (t−10)
1
16
⇔ Φ (4(t − 10)) = 0.45. З таблицi
значень функцiї Лапласа 4(t−10) = 1.65 ⇔ t = 10.4125. Отже, x = 10.3 < t i на рiвнi значущо-
стi 0.05 основна гiпотеза приймається. Якщо дисперсiя є невiдомою, то межу критичної обла-
стi знайдемо з P {η > tкр } = α для η ∼ St15 , вона дорiвнює 1.753. ηзн = (10.3−10)·4
1 = 1.2 < tкр .
Отже, i в цьому випадку данi не суперечать основнiй гiпотезi на рiвнi значущостi 0.05.

103
Роздiл 9. Перевiрка статистичних гiпотез.

n В умовах цiєї задачi


. oзнайдемо також ймовiрнiсть помилки другого роду з рiвностi β =
L 1 (~
x)
P ln LHH0 (~
x) < ln C α H1 . Повторюючи мiркування при знаходженнi межi критичної областi,
 √   
(t −10.3) 16
= 0.5 + Φ (10.41−10.3)·4
 
отримаємо β = P ξ < tкр H1 = 0.5 + Φ кр 1 1 ≈ 0.617.
Вiдповiдно, потужнiсть критерiю дорiвнює 1 − β ≈ 0.383.
Якщо ймовiрнiсть помилки другого роду при заданому рiвнi значущостi треба зменшити,
необхiдно збiльшити обсяг вибiрки. Нехай β = 0.1, а α = 0.05, як i було в задачi. Розв’яжемо
систему:
 n . o   √ 
P ln LH1 (~x) ≥ ln Cα H0 = α 0.5 − Φ (t−10) n = 0.05
n LH0 (~x) . o ⇔  1
√  ⇔
P ln LH1 (~x) < ln Cα H1 = β 0.5 + Φ (t−10.3) n = 0.1
LH0 (~
x) 1
( √ ( √ (√
Φ ((t − 10) n) = 0.45 (t − 10) n ≈ 1.64 n ≈ 9.733
⇔ √ ⇔ √ ⇒
Φ ((t − 10.3) n) = −0.4 (t − 10.3) n ≈ −1.28 t ≈ 10.17

Отже, обсяг вибiрки n ≥ 95 забезпечить ймовiрнiсть помилки другого роду, рiвну 0.1.

Приклад 2. Побудувати найкращу критичну область за лемою Неймана-Пiрсона для пара-


метра σ 2 нормального закону розподiлу з вiдомим математичним сподiванням a. Введемо двi
простi гiпотези (основну та альтернативну): H0 : Dξ = σ02 та H1 : Dξ = σ12 , де σ02 > σ12 . Як i у
прикладi 1, запишемо логарифмiчне вiдношення правдоподiбностi:
 n n n
LH1 (~x) σ0 1 X 2 1 X
ln = ln − (x k − a) + (xk − a)2 =
LH0 (~x) σ1 2σ12 2σ02
k=1 k=1
n
σ0 n 1 X σ2 − σ2 σ0 n σ2 − σ2
= n · ln + · · (xk − a)2 · 12 20 = n · ln + · (D∗ ξ)зн · 12 20
σ1 2 n σ1 · σ0 σ1 2 σ1 · σ0
k=1

L (~
x)
Розв’яжемо вiдносно (D∗ ξ)зн нерiвнiсть ln LH
H1
x) ≥ ln Cα :
(~ 0

n σ2 − σ2 σ0 ln Cα − n · ln σσ10
· (D∗ ξ)зн · 12 20 ≥ ln Cα − n · ln ⇔ (D∗ ξ)зн ≤ 2 2
2 σ1 · σ0 σ1 n σ1 −σ0
· 2 2 2 σ1 ·σ0

Зауважимо,
n ∗ щоo знак нерiвностi тут змiнюється, оскiльки σ12 < σ02 . Знайдемо t з рiвностi

P nDσ02
ξ
≤ t/H0 = α, користуючись тим, що η = nD σ02
ξ
∼ χ2n , якщо H0 справджується. Зна-
йдене значення t буде межею критичної областi, яка в цьому випадку буде лiвосторонньою.
Якщо значення статистики η, обчисленої за конкретною реалiзацiєю, буде менше за t, то гiпо-
тезу H0 : Dξ = σ02 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi на рiвнi значущостi
α. В iншому випадку гiпотезу H0 приймаємо.
У випадку σ12 > σ02 при розв’язаннi нерiвностi вiдносно (D∗ ξ)зн її знак не змiниться, тому
критична область буде правосторонньою.
Зауваження. Якщо математичне сподiвання ГС є невiдомим, то треба користуватися ста-
∗∗
тистикою η = (n−1)D
σ2
ξ
, що має розподiл χ2n−1 , якщо гiпотеза H0 справджується. В цьому
0
випадку критична область також буде правосторонньою при σ12 > σ02 , а при σ12 < σ02 — лiво-
сторонньою.
Продемонструємо застосування знайденої НКО на конкретнiй задачi.
Задача 2. Точнiсть деякого верстата характеризується дисперсiєю довжини виготовлених
деталей: якщо вона бiльша за 400 мкм2 , то верстат треба переналаштувати. Пiсля перевiрки
n = 15 деталей виявилося, що (D∗∗ ξ)зн = 680 мкм2 . Чи потрiбно переналаштувати верстат?
З умови задачi висуваємо основну гiпотезу H0 : σ 2 = σ02 = 400 i альтернативну H1 :
σ = σ12 , де σ12 > 400. Оберемо рiвень значущостi α = 0.01. Оскiльки математичне сподiвання
2
∗∗
невiдоме, скористаємося статистикою η = (n−1)D σ02
ξ
, що має розподiл χ2n−1 , якщо гiпотеза
H0 справджується. Критична область буде правосторонньою, за таблицею знайдемо її межу
tкр = 29.14. Оскiльки ηзн = 14·680
400 = 23.8 < tкр , гiпотеза H0 приймається — верстат не треба
переналаштувати.

104
Роздiл 9. Перевiрка статистичних гiпотез.

Приклад 3. Побудувати найкращу критичну область для перевiрки простої гiпотези про
значення параметра a пуассонiвської ГС при великому обсягу вибiрки. Маємо основну гi-
потезу H0 : a = a0 та альтернативну H1 : a = a1 , нехай a1 > a0 . Логарифмiчна функцiя
правдоподiбностi має вигляд
n
X n
X
ln L(x1 , ..., xn , a) = −na + ln a · xk − ln xk !
k=1 k=1

Запишемо логарифмiчне вiдношення правдоподiбностi


  X n
LH1 (~x) a1
ln = ln LH1 (~x) − ln LH0 (~x) = −n · (a1 − a0 ) + ln · xk =
LH0 (~x) a0
k=1
  n  
a1 1X a1
= −n · (a1 − a0 ) + n ln · xk = −n · (a1 − a0 ) + n ln ·x
a0 n a0
k=1

L (~
x)
Розв’яжемо вiдносно x нерiвнiсть ln LH1
x) ≥ ln Cα :
H (~ 0

 
a1 ln Cα + n · (a1 − a0 )
−n · (a1 − a0 ) + n ln · x ≥ ln Cα ⇔ x ≥  
a0 n ln aa10
 
Зауважимо, що знак нерiвностi тут не змiнюється, оскiльки a1 > a0 i тому ln aa01 > 0. Якщо
обсяг вибiрки великий, то ξ наближено має розподiл N a0 , an0 , якщо H0 справджується:


 √ 
 (t − a0 ) n
P ξ ≥ t/H0 = α ⇒ α ≈ 0.5 − Φ √
a0
Знайдене значення t буде межею критичної областi, яка в цьому випадку буде правосторон-
ньою. Якщо значення вибiркового середнього, обчисленого за конкретною реалiзацiєю, буде
бiльше за t, то гiпотезу H0 : a = a0 треба вiдхиляти, бо дослiднi данi суперечать цiй гiпотезi
на рiвнi значущостi α. В iншому випадку гiпотезу H0 приймаємо.
У випадку a1 < a0 при розв’язаннi нерiвностi вiдносно x змiниться її знак, тому критична
область буде лiвосторонньою.
Зрозумiло, що аналогiчнi мiркування можна застосовувати i для iнших розподiлiв ГС,
якщо у логарифмiчному вiдношеннi правдоподiбностi вдається видiлити вибiркове середнє
чи iншу статистику, для якої справджується ЦГТ.
Вправа. Побудувати за лемою Неймана-Пiрсона найкращу критичну область для параметра
p ГС ξ ∼ Bin(N, p), вважаючи N вiдомим, а обсяг вибiрки великим. Розглянути випадки,
коли альтернативне значення p1 бiльше та менше основного p0 .

9.3.3 Перевiрка складних параметричних гiпотез


Розглянемо задачу перевiрки простої основної параметричної гiпотези H0 : θ = θ0 проти
складної альтернативної гiпотези, яка записується у виглядi H1 : θ > θ0 або H1 : θ < θ0 . В
першому випадку задачу називають перевiркою простої основної гiпотези проти правосто-
ронньої альтернативи, а в другому випадку — перевiркою простої основної гiпотези проти
лiвосторонньої альтернативи. Має мiсце теорема, яку iнодi називають теоремою Неймана-
Пiрсона.
Теорема. Побудований на основi вiдношення правдоподiбностi критерiй перевiрки простої
параметричної гiпотези (за лемою Неймана-Пiрсона) буде оптимальним критерiєм i для
перевiрки простої параметричної гiпотези проти наведених вище складних альтернатив-
них параметричних гiпотез.
Зробимо пояснення щодо справедливостi цiєї теореми. Розглянемо просту основну пара-
метричну гiпотезу H0 : θ = θ0 проти складної альтернативної гiпотези H1 : θ > θ0 . Вiзьмемо
довiльне θ1 > θ0 та розглянемо альтернативну гiпотезу H e 1 : θ = θ1 , яка вже є простою. Для
неї за лемою Неймана-Пiрсона можна побудувати найкращу критичну область WCα для за-
даного рiвня значущостi α. Оскiльки θ1 > θ0 , критична область є правосторонньою. Як було

105
Роздiл 9. Перевiрка статистичних гiпотез.

показано в прикладах, межа критичної областi вiд θ1 не залежить, тому логiчно припустити,
що знайдена критична область буде найкращою i для iнших значень θ1 — це i є твердженням
теореми.
Зауваження. На практицi iнодi користуються альтернативною гiпотезою у виглядi H1 : θ 6= θ0
— так звану двосторонню альтернативу. Оптимального критерiю в такому випадку не iснує,
а для пошуку лiвої та правої межi критичної областi за заданим рiвнем значущостi α беруть
рiвнi α1 = α2 = α2 .

9.3.4 Перевiрка гiпотез про рiвнiсть параметрiв двох ГС


На практицi часто виникає потреба порiвняти результат однiєї серiї випробувань iз резуль-
татом iншої серiї. Виникає питання: чи можна розбiжнiсть, що виникла пояснити випадковою
помилкою експерименту, чи ця розбiжнiсть невипадкова?

Перевiрка гiпотези про рiвнiсть математичних сподiвань двох гауссiвських ГС при


вiдомих дисперсiях

Дано двi реалiзацiї обсягами n1 та n2 вiдповiдно двох гауссiвських ГС ξ ∼ N Eξ, σ12 та
η ∼ N Eη, σ22 . Дисперсiї цих ГС вiдомi, а самi ГС — незалежнi. На рiвнi значущостi α треба
перевiрити просту основну гiпотезу H0 : Eξ = Eη проти однiєї з альтернативних: H1 : Eξ > Eη
або H2 : Eξ < Eη. Статистикою критерiю є ζ = r ξ−η 2 2
. Вона має гауссiвський розподiл з
σ1 σ
n1 + n2
2
Dζ = 1, причому, якщо H0 справджується, то Eζ = 0. Критична область є правосторонньою
у випадку H1 : Eξ > Eη та лiвосторонньою у випадку H2 : Eξ < Eη, її межа знаходиться з
таблицi значень функцiї Лапласа як квантиль N(0, 1) рiвня α для лiвосторонньої критичної
областi та 1 − α для правосторонньої.
Приклад. За вибiркою обсягом n1 = 14 знайдемо середнiй розмiр x = 182 мм дiаметра
деталей, якi виготовлено першим верстатом, а за вибiркою n2 = 9 — середнiй розмiр y =
185 мм деталей, якi виготовлено другим верстатом. Розмiр дiаметра деталi має гаусciвський
розподiл з дисперсiєю σ12 = 5 мм2 для першого верстату та σ22 = 7 мм2 для другого. Чи можна
на рiвнi значущостi 0.05 пояснити рiзницю вибiркових середнiх випадковою помилкою?
Висуваємо основну гiпотезу H0 : Eξ = Eη проти альтернативної H1 : Eξ < Eη, оскiльки
x < y. Критична область буде лiвосторонньою. Знайдемо значення статистики критерiю:
182 − 185
ηзн = q ≈ −2.81
5 7
14 + 9

Оскiльки tкр = −1.64 > ηзн , то на рiвнi значущостi 0.05 данi суперечать гiпотезi про рiв-
нiсть математичних сподiвань двох ГС: тобто, рiзницю мiж вибiрковими середнiми не можна
вважати випадковою.

Перевiрка гiпотези про рiвнiсть дисперсiй двох гауссiвських ГС при вiдомих або
невiдомих математичних сподiваннях

Дано двi реалiзацiї обсягами n1 та n2 вiдповiдно двох гауссiвських ГС ξ ∼ N Eξ, σ12 та
η ∼ N Eη, σ22 . Дисперсiї цих ГС невiдомi, а самi ГС — незалежнi. На рiвнi значущостi α треба
перевiрити просту основну гiпотезу H0 : Dξ = Dη проти однiєї з альтернативних: H1 : Dξ > Dη
або H2 : Dξ < Dη.
Припустимо, що математичнi сподiвання Eξ та Eη вiдомi. Розглянемо двi статистики:
n 1 D∗ ξ n2 D ∗ η
h1 = 2 ∼ χ2n1 , h2 = ∼ χ2n2
σ1 σ22
h1 /n1
Оскiльки ξ та η незалежнi, то h1 та h2 — також. Якщо H0 справджується, то γ = h2 /n2 =
D∗ ξ
D∗ η ∼ F(n1 , n2 ).
Якщо ж математичнi сподiвання Eξ та Eη невiдомi, то
(n1 − 1)D∗∗ ξ 2 (n2 − 1)D∗∗ η
h1 = ∼ χ n −1 , h 2 = ∼ χ2n2 −1
σ12 1
σ22

106
Роздiл 9. Перевiрка статистичних гiпотез.

∗∗
1 −1)
Якщо H0 справджується, то γ = hh12 /(n D ξ
/(n2 −1) = D∗∗ η ∼ F(n1 − 1, n2 − 1).
В обох випадках критична область є правосторонньою чи лiвосторонньою в залежностi вiд
альтернативної гiпотези, як i у попереднiх прикладах. Межа критичної областi береться з та-
блицi квантилiв розподiлу Фiшера-Снедекора. Нагадаємо, що за властивiстю цього розподiлу
1
γ ∼ F(n2 , n1 ) (або, вiдповiдно, F(n2 − 1, n1 − 1)).

Приклад. На двох токарних верстатах обробляються деталi. Вiдiбранi двi проби: з деталей,
що зробленi на першому верстатi, n1 = 15, на другому верстатi — n2 = 18. За обома вибiрками
обчисленi значення виправлених вибiркових дисперсiй розмiру деталей: (D∗∗ ξ)зн = 8.5 мм2
для першого верстата та (D∗∗ η)зн = 6.3 мм2 для другого. Розмiр деталi, що виготовляється
верстатами, має гауссiвський розподiл. На рiвнi значущостi 0.05 з’ясувати, чи можна вважати,
що верстати мають рiзну точнiсть.
Маємо нульову гiпотезу H0 : Dξ = Dη — дисперсiї розмiру деталi на рiзних верстатах є
рiвними. В якостi альтернативної гiпотези варто брати H1 : Dξ > Dη, бо значення виправленої
вибiркової дисперсiї для першого верстата бiльше. Статистика критерiю γ, якщо H0 справ-
(D∗∗ ξ)зн
джується, має розподiл F(n1 −1, n2 −1) = F(14, 17). Значення статистики γзн = (D ∗∗ η)
зн
≈ 1.37.
За таблицею квантилiв розподiлу Фiшера-Снедекора на рiвнi значущостi 0.05 при кiлькостi
ступенiв вiльностi n1 − 1 = 14 та n2 − 1 = 17 знаходимо tкр = 2.33. Згiдно з альтернатив-
ною гiпотезою, критична область знаходиться справа вiд tкр (тобто, є правосторонньою),тому
робимо висновок, що дослiднi данi на рiвнi значущостi 0.05 не суперечать основнiй гiпотезi,
оскiльки γзн < tкр . Це означає, що дослiднi данi не дозволяють вважати, що верстати мають
рiзну точнiсть.

Перевiрка гiпотези про рiвнiсть математичних сподiвань двох гауссiвських ГС при


невiдомих, але рiвних дисперсiях

Дано двi реалiзацiї обсягами n1 та n2 вiдповiдно двох гауссiвських ГС ξ ∼ N Eξ, σ12 та
η ∼ N Eη, σ22 . Дисперсiї цих ГС невiдомi, але рiвнi (σ1 = σ2 = σ), а самi ГС — незалежнi. На
рiвнi значущостi α потрiбно перевiрити просту основну гiпотезу H0 : Eξ = Eη проти однiєї з
альтернативних гiпотез H1 : Eξ > Eη або H2 : Eξ < Eη.
Оскiльки дисперсiї невiдомi, то ми можемо побудувати тiльки їх точковi оцiнки D∗∗ ξ та
∗∗
D η, тодi
(n1 − 1)D∗∗ ξ 2 (n2 − 1)D∗∗ η
h1 = ∼ χ n1 −1 , h 2 = ∼ χ2n2 −1
σ2 σ2
Тодi h = h1 +h2 = 1
σ2 ((n1 − 1)D∗∗ ξ + (n2 − 1)D∗∗ η) ∼ χ2n1 +n2 −2 за властивостями розподiлу
хi-квадрат. Якщо H0 : Eξ = Eη справджується, то ζ = q ξ−η = qξ−η ∼ N(0, 1).
σ2 σ2 n1 +n2
n +n
σ n1 n2
1 2
В якостi статистики критерiю береться

ζ ξ−η
γ=p =q q ∼ Stn1 +n2 −2
h/(n1 + n2 − 2) n1 +n2 (n1 −1)D∗∗ ξ+(n2 −1)D∗∗ η
n1 n2 n1 +n2 −2

Критична область є правосторонньою чи лiвосторонньою в залежностi вiд альтернативної


гiпотези. Межа критичної областi береться з таблицi квантилiв розподiлу Стьюдента.
Зауваження. Якщо про рiвнiсть дисперсiй заздалегiдь нiчого не вiдомо, треба перевiряти
гiпотезу про їх рiвнiсть на тому ж самому рiвнi значущостi.
Приклад. Є данi про витрати сировини на одиницю продукцiї за старою технологiєю та за
новою:
стара нова
Витрати сировини 304 307 308 303 304 306
Кiлькiсть виробiв 1 4 4 2 6 4
Припустивши, що вiдповiднi генеральнi сукупностi мають гауссiвський розподiл, на рiвнi зна-
чущостi 0.05 вiдповiсти на питання: чи дає нова технологiя економiю середньої витрати си-
ровини на один вирiб?

107
Роздiл 9. Перевiрка статистичних гiпотез.

Потрiбно перевiрити гiпотезу про рiвнiсть математичних сподiвань. Оскiльки дисперсiї не-
вiдомi, перевiрити також треба гiпотезу про їх рiвнiсть. Знайдемо значення вибiркових сере-
днiх та виправлених вибiркових дисперсiй, позначивши ξ ГС, що вiдповiдає старiй технологiї,
а η — новiй:
 1
ξ зн
=x= (304 · 1 + 307 · 4 + 308 · 4) ≈ 307.11
9
1
(D∗∗ ξ)зн = (304 − 307.11)2 · 1 + (307 − 307.11)2 · 4 + (308 − 307.11)2 · 4 ≈ 1.611

9−1
(η)зн = y ≈ 304.5, (D∗∗ η)зн ≈ 1.364

Розглянемо основну гiпотезу H0 : Dξ = Dη та альтернативну H1 : Dξ > Dη, бо (D∗∗ ξ)зн >


(D∗∗ η)зн . Критична область правостороння, за таблицею для F(8, 11) знаходимо її межу —
tкр = 2.95, тобто, критична область — (2.95; +∞). Значення статистики критерiю для пе-
(D∗∗ ξ)зн
ревiрки гiпотези про рiвнiсть дисперсiй (D ∗∗ η)
зн
= 1.611
1.364 ≈ 1.181 < tкр . Отже, гiпотеза про
рiвнiсть дисперсiй не вiдхиляється на рiвнi значущостi 0.05.
Вправа. Перевiрити, що якби у вибiрцi, що вiдповiдає новiй технологiї, був один вирiб з
витратою сировини 308, то гiпотезу про рiвнiсть дисперсiй довелося б вiдхилити.
Перейдемо до перевiрки гiпотези про рiвнiсть математичних сподiвань H0 : Eξ = Eη проти
альтернативної H1 : Eξ > Eη, бо x > y. Статистикою для перевiрки буде

ξ−η ξ−η
γ=q q =q q ∼ Stn1 +n2 −2 = St19
n1 +n2 (n1 −1)D∗∗ ξ+(n2 −1)D∗∗ η 9+12 (9−1)D∗∗ ξ+(12−1)D∗∗ η
n1 n2 n1 +n2 −2 9·12 9+12−2

γзн ≈ 4.885. За таблицею квантилiв розподiлу Стьюдента знайдемо tкр = 1.729, причому
критична область є правосторонньою. Отже, на рiвнi значущостi 0.05 гiпотеза про рiвнiсть
математичних сподiвань вiдхиляється, тому можна вважати, що нова технологiя дiйсно дає
економiю середньої кiлькостi сировини для виготовлення одного виробу.
Зауваження. Якщо дисперсiї двох ГС невiдомi i немає пiдстав вважати їх рiвними, має мiсце
проблема Беренса-Фiшера. В такому випадку також застосовується статистика, що має роз-
подiл Стьюдента, але з кiлькiстю ступенiв вiльностi (з округленням до найближчого цiлого)

(D∗∗ ξ)зн (D∗∗ η)зн


 
1
k = (n1 + n2 − 2) · + ∗∗ 2
2 (D ξ)зн + (D∗∗ η)2зн
∗∗ ∗∗
(D ξ)зн (D η)зн
Розглянемо другий множник. Оскiльки (D ∗∗ ξ)2 +(D∗∗ η)2 ≤ 12 та рiвнiсть досягається при
зн зн
∗∗ ∗∗
(D ξ)зн = (D η)зн , то зi збiльшенням рiзницi мiж значенням виправлених вибiркових диспер-
сiй цей доданок зменшується. Якщо цi значення розрiзняються досить суттєво, то кiлькiсть
степенiв свободи зменшується майже вдвiчi порiвняно з n1 + n2 − 2. Це, в свою чергу, звужує
критичну область (та, вiдповiдно, ймовiрнiсть потрапити туди, оскiльки вона розмiщена на
«хвостах» розподiлу). До того ж, розкид можливих значень x − y буде визначатися в основ-
ному тiєю ГС, яка має бiльшу дисперсiю, тому данi з ГС з меншою дисперсiєю «губляться».
Цi два фактори разом призводять до бiльшої недовiри висновку щодо основної гiпотези, нiж
у випадку вiдомих дисперсiй.

Перевiрка гiпотези про рiвнiсть ймовiрностей бiномних генеральних сукупностей


при великому обсязi вибiрки
Дано двi реалiзацiї обсягами n1 та n2 вiдповiдно двох незалежних ГС ξ та η, що мають
розподiл Бернуллi, тобто ξ ∼ Bin(1, p1 ), η ∼ Bin(1, p2 ), причому обсяги цих вибiрок достатньо
великi, щоб можна було застосувати асимптотичну нормальнiсть оцiнки ймовiрностi «успiху»
в одному випробуваннi. На рiвнi значущостi α потрiбно перевiрити основну гiпотезу H0 :
p1 = p2 проти альтернативної H1 : p1 > p2 або H2 : p1 < p2 . Нехай m1 та m2 — кiлькостi
успiшних випробувань у кожнiй з реалiзацiй. Тодi за ЦГТ m ∗ m2 ∗
n1 = p1 та n2 = p2 наближено
1
   
мають розподiли N p1 , pn1 q11 та N p2 , pn2 q22 вiдповiдно, а p∗1 − p∗2 , якщо H0 справджується —
 
розподiл N 0, pn1 q11 + pn2 q22 . Також, якщо H0 справджується, то можна переписати pn1 q11 + pn2 q22

108
Роздiл 9. Перевiрка статистичних гiпотез.

 
1 1
як pq n1 + n2 , тому в якостi статистики для перевiрки основної гiпотези беруть

p∗1 − p∗2 ∗ m1 + m2
γ=r   , де p = n + n
1 2
p∗ (1 − p∗ ) n11 + 1
n2

Оскiльки вона має наближено розподiл N(0, 1), то критичне значення знаходять за таблицею
значень функцiї Лапласа як квантиль рiвня α для лiвосторонньої критичної областi та рiвня
1 − α для правосторонньої. Критична область береться правосторонньою чи лiвосторонньою
в залежностi вiд альтернативної гiпотези.
Приклад. 1. Порiвняти частку браку на рiвнi значущостi 0.1 для двох партiй виробiв:
номер партiї обсяг вибiрки к-сть бракованих частка бракованих
1 n1 = 200 m1 = 5 (p∗1 )зн = m 1
n1 = 40
1

2 n2 = 300 m2 = 10 (p∗2 )зн = m 1


n2 = 30
2

Потрiбно перевiрити гiпотезу H0 : p1 = p2 проти альтернативної H1 : p1 < p2 . Обсяги


обох вибiрок великi, тому розподiли p∗1 та p∗2 можна наближувати нормальним. (p∗ )зн =
1 1
5+10 3 40 − 30
200+300 = 100 , тому γзн =
q ≈ −0.535. Критичне значення — tкр = −1.28.
100 100 ( 200 + 300 )
3 97 1 1

Оскiльки критична область є лiвосторонньою, то на рiвнi значущостi 0.1 гiпотеза про


однакову частку бракованих виробiв не вiдхиляється.
2. Контрольну роботу з теорiї ймовiрностей виконували студенти двох груп другого курсу
IПСА. Першiй групi викладач запропонував 105 задач, з яких правильно було розв’язано
60, а другiй — 140 задач, з яких правильно розв’язаних вийшло 69. На рiвнi значущостi
0.02 перевiрити гiпотезу про вiдсутнiсть рiзницi в засвоєннi дисциплiни «Теорiя ймовiр-
ностей» студентами рiзних груп.
Нехай p1 та p2 — ймовiрностi розв’язання задачi студентами першої та другої групи
вiдповiдно. Потрiбно перевiрити гiпотезу H0 : p1 = p2 проти альтернативної H1 : p1 > p2 ,
оскiльки (p∗1 )зн = m 60 ∗ m2 69 ∗
n1 = 105 ≈ 0.571, (p2 )зн = n2 = 140 ≈ 0.493. Також, (p )зн = 105+140 ≈
1 60+69
0.571−0.493
0.527. Тому γзн = q ≈ 1.21. Критична область є правосторонньою,
0.527·(1−0.527)·( 105
1 1
+ 140 )
її межа tкр = 2.05 > γзн . Отже, на рiвнi значущостi 0.02 дослiднi данi не суперечать
гiпотезi про те, що рiзницi в засвоєннi дисциплiни студентами немає.

109
Роздiл 10

Елементи регресiйного аналiзу

Часто за дослiдними даними треба визначити, як залежить випадкова величина, яку ми


спостерiгаємо, вiд однiєї чи кiлькох iнших випадкових величин. Найзагальнiший випадок —
статистична залежнiсть, як-от η = ξ1 + ξ2 . Є сенс розглядати математичне сподiвання
однiєї величини при фiксованому значеннi iншої (чи iнших). Наприклад, вартiсть кварти-
ри залежить вiд площi, поверху, району та багатьох iнших параметрiв, але не є функцiю (в
звичному розумiннi) вiд цих параметрiв: якби функцiональна залежнiсть була, то кожному
набору цих параметрiв вiдповiдало б одне значення вартостi — у реальному свiтi такого не вiд-
бувається. До того ж, врахувати всi можливi впливи на вартiсть квартири неможливо: площу
чи поверх дiзнатися просто, але може статися, що продавець встановлює вартiсть на основi
якихось власних мiркувань, якi «зi сторони» визначити чи оцiнити неможливо. Натомiсть,
можна розглядати функцiональну залежнiсть середнього значення (математичного сподiва-
ння) вартостi вiд цих параметрiв. Такий опис вже є бiльш реалiстичним: хоча саме середнє
значення спостерiгати неможливо, але можна збирати iнформацiю про значення вартостi при
рiзних значеннях деякого фiксованого набору параметрiв.

10.1 Математична модель лiнiйної регресiї


Нехай спостерiгається деяка випадкова величина η, яка залежить вiд iншої випадкової
~ значення яких теж спостерiгаються.
величини ξ (або вектору ξ),

Означення 10.1.1. Функцiя f (x) = E(η/ξ = x) (або f (~x) = E(η/ξ~ = ~x)) називається лiнiєю
~
регресiї η на ξ (або ξ).
Термiн «регресiя» вперше з’явився в роботi Френсiса Гальтона (англiйського антрополога
та статистика), який у 1885 роцi дослiджував зв’язок мiж зростом дiтей та їх батькiв. Ви-
явилося, що в середньому дiти високих батькiв не були такими вже й високими, i навпаки.
Вiн назвав це «регресiєю (поверненням) до посереднього». Зокрема, Гальтон побудував таку
лiнiю регресiї (для зросту в дюймах):

E (зрiст дитини/ξ1 = x (зрiст батька), ξ2 = y (зрiст матерi)) = 22.3 + 0.38x + 0.28y

10.1.1 Однофакторна лiнiйна регресiя


Для початку будемо вважати, що η, яку називають вихiдною величиною або вiдкликом
залежить лише вiд однiєї випадкової величини ξ, яку називають вхiдною або фактором чи
предиктором. Припустимо, що було проведено n експериментiв зi значеннями фактору ξ
x1 , x2 , ..., xn та вiдповiдними значенням вiдклику η η1 , η2 , ..., ηn . Позначимо εi = ηi − E(η/ξ =
xi ) — це похибки спостережень, що дорiвнюють рiзницi мiж отриманим значенням та усе-
редненим значенням η при цьому значеннi ξ. Про розподiл ~ε = (ε1 , ε2 , ..., εn )T , як правило,
мало що вiдомо: припускається, що його координати незалежнi, однаково розподiленi, їх дис-
персiя невiдома, але математичне сподiвання нульове: Eεi = Eηi − E(E(η/ξ = xi )) = E(η/ξ =
xi ) − E(η/ξ = xi ) = 0.
Необхiдно за значеннями x1 , x2 , ..., xn та η1 , η2 , ..., ηn оцiнити f (x). Величини x1 , x2 , ..., xn
вважають невипадковими, тому вся випадковiсть зосереджена в ε1 , ε2 , ..., εn та η1 , η2 , ..., ηn .

110
Роздiл 10. Елементи регресiйного аналiзу.

Спочатку треба визначити вигляд цiєї функцiї. Часто це випливає з постановки задачi або
з’ясовується пiсля вiзуалiзацiї отриманих даних. Якщо мова йде про лiнiйну регресiю, то вва-
Pm
жають, що f (x) = βk ψk (x), де ψk (x) — деякi функцiї, що називають базисними. Окремим
k=1
m
βk xk . Задача регресiйного
P
часто застосованим випадком є полiномiальна регресiя з f (x) =
k=0
аналiзу полягає в оцiнцi невiдомих параметрiв моделей наведеного виду.
Зауваження. Назва «лiнiйна регресiя» походить вiд того, що невiдомi параметри β1 , β2 , ..., βn
входять до f (x) лiнiйно. Iнодi (не зовсiм коректно) вважається, що лiнiйною називають тiльки
ту модель, яка також є лiнiйною за x.

10.1.2 Метод найменших квадратiв


Оцiнки β~ = (β1 , β2 , ..., βm )T можна знайти за допомогою методу максимальної правдопо-
T
дiбностi, застосованого до вектору η = (η1 , η2 , ..., ηn ) . Оскiльки ηi = εi + f (xi ), то розподiл
ηi буде таким самим, як εi , але з математичним сподiванням f (xi ).
Припустимо, що ~ε ∼ N(~0, σ 2 I), де I — одинична матриця n × n. Тодi
( n
)

~
 1 1 X 2
L η1 , η2 , ..., ηn , β = √ n exp − 2 (ηi − f (xi ))
2πσ 2σ i=1

При фiксованому значеннi σ максимум функцiї правдоподiбностi по β~ досягається при най-


n n
(ηi − f (xi ))2 = ε2i . Цей окремий випадок ММП називається методом
P P
меншому значеннi
i=1 i=1
найменших квадратiв (МНК).

Означення 10.1.2. Оцiнкою методу найменших квадратiв (ОМНК) для параметрiв β~ =


n
(β1 , β2 , ..., βm )T називається такий набiр цих параметрiв, при яких досягається мiнiмум ε2i .
P
i=1

~ ∗ = (β ∗ , β ∗ , ..., β ∗ )T , то також знайдемо оцiнку функцiї f ∗ (x).


Якщо ми знайдемо оцiнки β 1 2 m
Зауваження. На практицi iнодi можуть припускати, що координати ~ε мають розподiл Лапла-
са зi щiльнiстю fε (x) = α2 e−α|x| . В такому випадку знаходження максимуму функцiї правдо-
Pn
подiбностi зводиться до мiнiмiзацiї суми |ηi − f (xi )| — це вже не буде методом найменших
i=1
квадратiв.
Приклад. Нехай f (x) = β, тобто ми хочемо оцiнити параметр лiнiї регресiї, що є константою.
Маємо ηi = β + εi , i = 1, ..., n. По сутi, ця задача є задачею оцiнки невiдомого математичного
сподiвання за вибiркою з незалежними й однаково розподiленими гауссiвськими випадковими
n n
ε2i = (ηi − β)2 → min:
P P
величинами η1 , η2 , ..., ηn . Знайдемо розв’язок задачi мiнiмiзацiї
i=1 i=1

n
! n n
d X X 1X
(ηi − β)2 = −2 (ηi − β) = 0 ⇒ β = ηi
dβ i=1 i=1
n i=1
n
!
2
d X
(ηi − β)2 = 2n > 0
dβ 2 i=1

n
Отже, β ∗ = 1
P
n ηi = η. Такий само результат було отримано i при розв’язаннi цiєї задачi як
i=1
задачi оцiнки математичного сподiвання.
Вправа. Показати, що якщо координати вектора похибок εi мають розподiл Лапласа, то ма-
n
P
ксимiзацiя такої функцiї правдоподiбностi буде еквiвалентна мiнiмiзацiї суми |ηi − β|, а
i=1
розв’язком цiєї задачi буде вибiркова медiана.

111
Роздiл 10. Елементи регресiйного аналiзу.

10.1.3 Багатофакторна (множинна) лiнiйна регресiя


T
Тепер розглянемо випадок, коли η залежить вiд m факторiв ξ~ = (ξ1 , ξ2 , ..., ξm ) .
Означення 10.1.3. Простою лiнiйною багатофакторною регресiйною моделлю називається
m
функцiя регресiї вигляду f (~x) = E(η/ξ~ = ~x) = β0 +
P
βi x i .
i=1
m
P
Для спрощення цю модель iнодi записують як f (~x) = βi xi , де фактор x0 завжди до-
i=0
рiвнює 1. Надалi без втрати загальностi будемо вважати, що розглядається модель f (~x) =
Pm
βi xi , в якiй константного фактору або немає, або вiн присутнiй як один з факторiв, що
i=1
завжди дорiвнює 1.
Нехай експеримент проводився n разiв, а на j-тому проведеннi фактори набули значень
 T
(j) (j) (j) (j)
~x = x1 , x2 , ..., xm , j = 1, ..., n. Як правило, n > m. Також, пiсля проведення n екс-
m
T  (j)
периментiв маємо вектор вiдкликiв ~η = (η1 , η2 , ..., ηn ) , де ηj = f ~x(j) + εj =
P
βi xi + εj ,
i=1
j = 1, ..., n. Цей вектор можна записати як ~η = F β~ + ~ε, де
 (1) (1) (1)

x1 x2 · · · xm
 (2) (2) (2) 
 x1 x2 · · · xm 
F = .. .. .. ..  (1)
.

 . . . 
(n) (n) (n)
x1 x2 · · · xm

Ця матриця називається матрицею плану. Щоб знайти оцiнку β~ за допомогою МНК, зро-
бимо припущення: rangF = m та ~ε ∼ N(~0, σ 2 I). Перше припущення фактично означає, що
фактори є лiнiйно незалежними, а друге — що можна вимагати як незалежностi похибок, так
i їх некорельованостi. ОМНК для β~ буде розв’язком задачi мiнiмiзацiї
n
X
S(β) = ~ 2 → min
ε2i = k~εk2 = k~η − F βk
i=1

S(β) — це квадрат вiдстанi вiд точки ~η ∈ Rn (коректнiше було б писати ~ηзн , але це ускладнить
позначення) до точки F β,~ що належить пiдпростору L = {F ~x : ~x ∈ Rm }. Мiнiмальною ця
вiдстань буде тодi, коли вектор ~η − F β~ буде ортогональним до усiх векторiв з L.


~η − F β~

L F β~

     
Отже, ∀ ~x ∈ Rm : F ~x, ~η − F β~ = 0. Оскiльки F ~x, ~η − F β~ = ~x, F T (~η − F β)
~ , то, з умови
довiльностi ~x можна взяти, наприклад, вектори стандартного базису Rm та отримати, що
~ = 0 ⇔ F T ~η = F T F β.
F T (~η − F β) ~ Умова rangF = m забезпечує iснування (F T F )−1 : нехай
~x ∈ R та F F ~x = 0, тодi ~x F F ~x = (F ~x)T F ~x = ~0, звiдки F ~x = ~0, а з умови rangF = m
m T ~ T T

маємо наслiдок ~x = ~0, тому KerF T F = {~0}. Таким чином, отримуємо ОМНК для β: ~

~ ∗ = (F T F )−1 F T ~η
β (2)

Цю рiвнiсть iнодi називають нормальним рiвнянням.


Означення 10.1.4. Матрицю A = F T F називають iнформацiйною матрицею, а A−1 =
(F T F )−1 — дисперсiйною матрицею (Фiшера).
Розглянемо властивостi iнформацiйної матрицi A:

112
Роздiл 10. Елементи регресiйного аналiзу.

1. F — матриця розмiру n × m, F T — розмiру m × n, тому A — квадратна матриця розмiру


m × m.
2. A — симетрична: AT = (F T F )T = F T (F T )T = F T F = A. 
3. A — невiд’ємно визначена: ∀ ~x ∈ Rm : (A~x, ~x) = F T F ~x, ~x = (F ~x, F ~x) = kF ~xk2 ≥ 0.
4. Оскiльки A — невiд’ємно визначена та невироджена, то вона додатно √ визначена (A > 0)
i тому ∃! B > 0 : B 2 = A, тобто, iснує i єдиний квадратний корiнь A.
Зауваження. Корiнь iз невiд’ємно визначеної матрицi будується за загальним принципом
побудови функцiй вiд симетричних матриць. Нехай M — невiд’ємно визначена (M ≥ 0)
матриця n × n, тодi її власнi числа λ1 ≥ λ2 ≥ ... ≥ λn ≥ 0. Iснує √ ортогональна
√ матри-
ця U , для якої M = U · diag(λ1 , ..., λn ) · U −1 . Для S = U · diag( λ1 , ..., λn ) · U −1 маємо
√ √ 2 √ √ √
S 2 = diag( λ1 , ..., λn ) = diag(λ1 , ..., λn ) = M , причому λ1 ≥ λ2 ≥ ... ≥ λn ≥ 0, тому
√ √
S ≥ 0. У випадку M > 0 мали б λn > 0, звiдки √λn > 0 i S > 0. Зрозумiло, що S = M теж
є симетричною√матрицею.
√ √ Також за побудовою
√ M комутує з M та M −1 (якщо вона iснує):
−1 −1
M · M = M · M, M · M = M · M.
Приклад. Знайти оцiнки параметрiв простої однофакторної лiнiйної регресiйної моделi, що
T
має вигляд f (x) = β0 +β1 x. Нехай є n спостережень вiдклику ~ηзн = (y1 , y2 , ..., yn ) та фактора
— ξ~зн = (x1 ,
x2 , ..., xn). Матрицю плану для спрощення можна записати з iндексами xi замiсть
1 x1
(i)  .. .. . Знайдемо дисперсiйну матрицю:
x як F =  . . 
1 xn
  n
 
  1 x1 n
P
xk 
1 ··· 1  .. ..  = 
A = FTF = · . .  P
 n k=1
n

x1 ··· xn
x2k
P 
1 x xk
n k=1 k=1
!2  !2 
n n n n
X X 1 X 1 X
 = n2 · (D∗ ξ)
det A = n · x2k − xk = n2 ·  x2k − xk зн
n n
k=1 k=1 k=1 k=1
n n
 
x2k
P P
x k −
1 
A−1 = (F T F )−1 =  k=1 n
k=1 
det A − P
xk n

k=1
   P n

  y1 y k 
1 ··· 1
F T ~ηзн = ·  ...  = 
   k=1
n

x1 · · · xn  P 
yn x y
k k
k=1
 n n n n

2
P P P P
yk · x k − x k · x y
k k
1 
β~зн

= (F T F )−1 F T ~ηзн = k=1 n k=1 n k=1 k=1
n

det A 

P
yk ·
P
xk + n ·
P
xk yk

k=1 k=1 k=1

n n n n
x2k = n · x2 , то
P P P P
Якщо позначити xk = n · x, yk = n · y, xk yk = n · xy,
k=1 k=1 k=1 k=1
   
~∗ = 1 n2 · y · x2 − n2 · x · xy 1 x2 · y − x · xy
β зн =
n · (D∗ ξ)зн
2 −n2 y · x + n2 · xy x2 − (x)2 xy − x · y

Зауважимо, що xy − x · y — це значення вибiркового аналогу коварiацiї cov(ξ, η), який ще


можна позначити K∗ ξη. Цей результат доволi очiкуваний: якби статистична залежнiсть мiж
ξ та η описувалася рiвнянням η = β0 + β1 ξ, то cov(ξ, η) = cov(ξ, β0 + β1 ξ) = β1 cov(ξ, ξ) = β1 Dξ.

Зауваження. До простої лiнiйної багатофакторної моделi можна звести дослiдження багатьох


Pm
моделей бiльш загального виду. Наприклад, однофакторну модель виду f (x) = βk ψk (x)
k=1
можна розглядати як багатофакторну модель з факторами xk = ψk (x) (зокрема, це стосується
полiномiальної регресiї).

113
Роздiл 10. Елементи регресiйного аналiзу.

10.2 Статистичний аналiз лiнiйної регресiйної моделi


10.2.1 Властивостi оцiнок параметрiв
~ отриманих за допомогою МНК за
Будемо дослiджувати властивостi оцiнок параметрiв β,
~ ∗ T −1 T
формулою (2): β = (F F ) F ~η .

Твердження 1. Вектор β~ ∗ має гауссiвський розподiл та є незмiщеною оцiнкою β. ~


h i
Доведення. β~ ∗ − β~ = (F T F )−1 F T ~η − β~ = ~η = F β~ + ~ε = (F T F )−1 F T (F β~ + ~ε) − β~ =
= (F T F )−1 F T F β~ + (F T F )−1 F T ~ε − β
~ = β~ + (F T F )−1 F T ~ε − β~ = (F T F )−1 F T ~ε. Оскiльки, за
припущенням, ~ε ∼ N(~0, σ 2 I), то β~ ∗ = (F T F )−1 F T ~ε + β~ також має гауссiвський розподiл.
Знайдемо параметри цього розподiлу:

Eβ~ ∗ = E(F T F )−1 F T ~ε + β~ = (F T F )−1 F T E~ε + β~ = β ~


T
Kβ~ ∗ = (F T F )−1 F T K~ε (F T F )−1 F T = (F T F )−1 F T · σ 2 I · F (F T F )−1 = σ 2 (F T F )−1


~ ∗ ∼ N(β,
Отже, β ~ σ 2 A−1 ), де A = F T F . Це, зокрема, пояснює назву матрицi (F T F )−1 —
«дисперсiйна». Зауважимо, що значення σ 2 невiдоме. Пiзнiше буде дослiджено його оцiнку.
N
Твердження 2 (теорема Гаусса-Маркова). Незмiщена оцiнка β~ ∗ , що знайдена за формулою
(2), є ефективною в класi незмiщених лiнiйних оцiнок.

Доведення. Нехай iснує iнша незмiщена оцiнка β~ ∗∗ . Оскiльки розглядається клас лiнiйних
оцiнок, то β~ ∗∗ = C~η для деякої матрицi C. Розпишемо параметри розподiлу цiєї оцiнки.

β~ = Eβ~ ∗∗ = E(C(F β~ + ~ε)) = CF β~ + CE~ε = CF β


~

звiдки CF = I — одинична матриця.

Kβ~ ∗∗ = E(β~ ∗∗ − Eβ~ ∗∗ )(β~ ∗∗ − Eβ~ ∗∗ )T = E(C~η − β)(C~


~ ~ T =
η − β)
~
= E(C~η − CF β)(C~ η − CF β)~ T = CE(~η − F β)(~ ~ η − F β)
~ T C T = CE~ε~εT C T = σ 2 CC T

Нехай D = C − A−1 F T = C − (F T F )−1 F T , тодi C = A−1 F T + D. Маємо I = CF = A−1 F T F +


DF = (F T F )−1 F T F + DF = I + DF , звiдки DF = 0. Пiдставимо цей вираз для C в вираз
для Kβ~ ∗∗ :

Kβ~ ∗∗ = σ 2 CC T = σ 2 (A−1 F T + D)(A−1 F T + D)T =


= σ 2 (A−1 F T )(A−1 F T )T + D(A−1 F T )T + (A−1 F T )DT + DDT =


= σ 2 A−1 F T F (AT )−1 + DF (AT )−1 + A−1 (DF )T + DDT =




= σ 2 A−1 + DDT = Kβ~ ∗ + σ 2 DDT




Звiдси Kβ~ ∗∗ − Kβ~ ∗ = σ 2 DDT . Оскiльки ∀ ~x : DDT ~x, ~x = DT ~x, DT ~x = kDT ~xk2 ≥ 0, то
 

матриця σ 2 DDT ≥ 0 (невiд’ємно визначена). Отже, Kβ~ ∗∗ −Kβ~ ∗ ≥ 0, що доводить ефективнiсть


β~ ∗ . N
Зауваження. Дослiдження ефективностi лише в класi незмiщених лiнiйних оцiнок iнтуїтивно
~ то й усi «хорошi» оцiнки β~ будуть лiнiйно
пояснюється тим, що якщо ~η лiнiйно залежить вiд β,
залежати вiд ~η .
~ ∗ , що знайдена за формулою (2), є конзистентною.
Твердження 3. Незмiщена оцiнка β

Доведення. В твердженнi 1 було показано, що β~ ∗ = (F T F )−1 F T ~ε + β~ i β~ ∗ − β~ ∼ N(~0, σ 2 A−1 ).


Матриця A−1 залежить вiд n, тому застосувати закон великих чисел для випадкових векторiв
в тому формулюваннi, яке було наведено (ст. 76), не вдасться. Натомiсть, буде достатньо
довести, що для i = 1, ..., m D (βi∗ − βi ) = Dβi∗ → 0, n → ∞.
Без втрати загальностi можна вважати, що σ = 1, тодi на дiагоналi матрицi A−1 будуть
m
знаходитися дисперсiї Dβi∗ . ∀ i = 1, ..., m : Dβi∗ ≤ Dβk∗ = trA−1 . Нехай λ1 ≥ ... ≥ λm > 0
P
k=1

114
Роздiл 10. Елементи регресiйного аналiзу.

λ1 λ2 ...λm λ1 λ2 ...λm λ1 λ2 ...λm


+ +...+
— власнi числа матрицi A, тодi trA−1 = λ11 + ... + λ1m = λ1 λ2
λ1 λ2 ...λm
λm
. З
λ1 λ2 ...λm
лiнiйної алгебри вiдомо, що λ1 λ2 ...λm = det A, а доданки λj в чисельнику — визначники
мiнорiв матрицi A, що отриманi викреслюванням j-того стовпця та рядка — це випливає з
формули для характеристичного полiнома det(A − λI) та фактiв, що його коефiцiєнти не
залежать вiд базису, а в деякому базисi матриця A є дiагональною. Тепер можна оцiнити
λ1 λ2 ...λm
λ1 + λ1 λ2λ...λ
2
m
+ ... + λ1 λλ2m
...λm
≤ m · max λ1 λ2λ...λ
j
m
.
j=1,...,m
Повернемося до матрицi A та розглянемо її структуру:
 n  2 Pn n

P (k) (k) (k) P (k) (k)
k=1 x1 x1 x2 ··· x1 xm 
 n k=1  k=1
n 2 n

 P (k) (k) P (k) P (k) (k) 
 x2 x1 x2 ··· x2 xm 
A = F T F = k=1
 k=1 k=1

.. .. ..

 .. 
 n .
 . . . 
n
 P (k) (k) P (k) (k) n  2 
P (k) 
xm x1 xm x2 ··· xm
k=1 k=1 k=1

 T
(1) (2) (n)
Позначимо ~xi = xi , xi , ..., xi — спостереження i-того фактору за n проведень експе-
рименту. Тодi можна сказати, що A — це матриця Грама для цих векторiв:
 
(~x1 , ~x1 ) (~x1 , ~x2 ) · · · (~x1 , ~xm )
 (~x2 , ~x1 ) (~x2 , ~x2 ) · · · (~x2 , ~xm ) 
A=
 
.. .. .. .. 
 . . . . 
(~xm , ~x1 ) (~xm , ~x2 ) · · · (~xm , ~xm )

Знову ж з лiнiйної алгебри вiдомо, що в такому випадку det A дорiвнює квадрату об’єму m-
вимiрного паралелепiпеда Πm , побудованого на векторах ~x1 , ..., ~xm . Аналогiчно, якщо викре-
слити j-тий стовпець та рядок, то визначник такої матрицi буде дорiвнювати квадрату об’єму
вже m − 1-вимiрного паралелепiпеда Πm\j , побудованого на векторах ~x1 , ..., ~xj−1 , ~xj+1 , ..., ~xm .
Позначимо ∆ = max λ1 λ2λ...λj
m
, а j — той iндекс з 1, ..., m, на якому цей максимум до-
j=1,...,m
сягається. З геометричних мiркувань det A = ∆ · k~xj k2 sin2 α, де α — кут мiж ~xj та Πm\j .
Покажемо це на прикладi, коли Πm\j побудований на ~x1 та ~x2 , а Πm — на них та ~x3 :

~x3
α ~x2

~x1

За вiдомими формулами, об’єм Πm в цьому випадку дорiвнює добутку площi основи на висоту
паралелепiпеда. Основа — це паралелепiпед Πm\j , а висота дорiвнює k~x3 k sin α.
Повернемося до trA−1 ≤ det m·∆
= m·∆
2 = k~xj k2msin2 α . Без втрати загальностi можна
A ∆·k~xj k2 sin α
(j)
вважати, що ∃ δ > 0 таке, що xi ≥ δ для всiх i та j. Якби такого δ не iснувало, можна було
б «зсунути» всi значення факторiв так, щоб воно iснувало. Це не надто вплине на модель,
оскiльки усi зсуви врахуються у вiльному коефiцiєнтi. З цього випливає, що дiагональнi еле-
менти A необмежено зростають, а отже — зростає їх сума, що дорiвнює сумi власних чисел.
Оскiльки власнi числа завжди додатнi, то зростає i їх добуток, тому det A → ∞, n → ∞. З
цього, зокрема, випливає, що sin α теж завжди залишається обмеженим знизу.
m
Отже, k~xj k2msin2 α → 0, n → ∞, а тому й Dβk∗ = trA−1 → 0, n → ∞. Це, нарештi, доводить
P
k=1
конзистентнiсть оцiнок β1∗ , ..., βm

. N

115
Роздiл 10. Елементи регресiйного аналiзу.

10.2.2 Оцiнка дисперсiї похибок спостережень


Нагадаємо, що дисперсiї похибок спостережень σ 2 вважаються однаковими, але невiдоми-
ми. В такому випадку для аналiзу регресiйної моделi необхiдно знайти оцiнку (σ 2 )∗ . Зробимо
це за допомогою методу максимальної правдоподiбностi: ~ε ∼ N(~0, σ 2 In ), тому
( n
)
1 1 X  2
~ 2
L(~η , β, σ ) = √ exp − 2 ηi − f ~x (i)
( 2πσ)n 2σ i=1
n 
∂ ln L ~ σ2 ) = − n + 1
X  2
2
(~
η , β, 2 4
ηi − f ~x(i) =0⇒
∂(σ ) 2σ 2σ i=1
n 2
1 X  1 1
2 ∗
⇒ (σ ) = ηi − f ∗ ~x(i) = k~η − F β~ ∗ k2 = k~ε ∗ k2
n i=1 n n

Означення 10.2.1. Вираз 1


ε ∗ k2
n k~ називається залишковою оцiнкою дисперсiї або залишко-
вою сумою квадратiв.

Перед знаходженням розподiлу (σ 2 )∗ розглянемо m-вимiрний вектор A(β~ ∗ − β) ~ та його
числовi характеристики:
√  √  
E A(β~ ∗ − β)
~ = AE β~ ∗ − β~ = ~0
√  √   √ √ √
K A(β~ ∗ − β)
~ = A·K β ~ ∗ − β~ · ( A)T = A · σ 2 A−1 · A = σ 2 · Im


Отже, σ1 A(β ~ ∗ − β)
~ ∼ N(~0, Im ). Повернемося до пошуку розподiлу (σ 2 )∗ . За побудовою вектор
~η − F β~ ∗ є ортогональним до векторiв виду F ~x, ~x ∈ Rm , а тому й буде ортогональним до
F (β~ ∗ − β).
~ Тодi за теоремою Пiфагора
2 2 2 2
2
~η − F β~ ∗ + F (β~ ∗ − β)
~ = ~η − F β~ ∗ + F (β~ ∗ − β)
~
= ~η − F β~ = k~εk

Звiдси k~η − F β~ ∗ k2 = k~εk2 − kF (β~ ∗ − β)k


~ 2 . Розглянемо другий доданок цiєї рiзницi:

~ ∗ ~ 2
 T  
F (β − β) = F (β ~ ∗ − β)
~ F (β~ ∗ − β)
~ = (β~ ∗ − β)
~ T F T F (β
~ ∗ − β)
~ =
√ √ √ T √  √ 2
= (β~ ∗ − β)
~ T A · A(β~ ∗ − β)
~ = ~ ∗ − β)
A(β ~ A(β~ ∗ − β)
~ = A(β~ ∗ − β)
~
=
h i √ 2
= β~ ∗ − β ~ = A−1 F T ~ε = ( A)−1 F T ~ε

√ √ √ 2
Оскiльки 1
A(β~ ∗ − β)
~ ∼ N(~0, Im ), то й 1 ( A)−1 F T ~ε ∼ N(~0, Im ), тому σ1 ( A)−1 F T ~ε ∼ χ2m .

σ σ
2 2 ∗ 1 2 √ −1 T 2
Аналогiчно, σ1 ~ε ∼ N(~0, In ) та σ1 ~ε ∼ χ2n . Отже, n(σ
σ 2
)
= ~ε −
σ 1
σ ( A) F ~ε ∼ χ2n−m .
 2 ∗
За властивостями розподiлу хi-квадрат, E n(σ σ2
)
= n − m, тому E(σ 2 )∗ = n−m 2
n σ i треба
вводити виправлену незмiщену оцiнку (σ 2 )∗∗ = n 2 ∗
n−m (σ ) . Таким чином, маємо незмiщену
оцiнку дисперсiї σ 2 :
1 2
(σ 2 )∗∗ = ~∗
~η − F β

(1)
n−m

Надалi для дослiдження побудованої регресiйної моделi знадобиться статистика


√ √
1 ~∗ ~ ~
A(β~ ∗ − β)
σ A(β − β)
~γ = r  2 ∗  = p 2 ∗∗
1 n(σ ) (σ )
n−m σ2


Оскiльки координати σ1 A(β~ ∗ − β)
~ є стандартними гауссiвськими величинами, то за аналогiєю
з теоремою Фiшера (ст. 90), γi ∼ Stn−m , i = 1, ..., m.

116
Роздiл 10. Елементи регресiйного аналiзу.

10.2.3 Перевiрка адекватностi моделi


Пiсля побудови регресiйної моделi її перевiряють на адекватнiсть. Це означає, що значе-
ння вiдклику, що прогнозуються моделлю, узгоджуються з результатами спостережень.
Одним iз способiв такої перевiрки є так званий F-критерiй: порiвняння залишкової оцiнки
дисперсiї (σ 2 )∗∗ , що обумовлена випадковими помилками вимiрiв та, можливо, неврахованими
факторами, з незмiщеною оцiнкою дисперсiї D∗∗ η. Оскiльки
n − m 2 ∗∗ n 2 ∗ 1 2
~∗
(σ ) = (σ ) = η − F β ∼ χ2n−m

σ2 σ2 σ2
~
n
n − 1 ∗∗ n ∗ 1 X 2
D η = D η = (ηk − η) ∼ χ2n−1
σ2 σ2 σ2
k=1
то розглядається статистика
n n
1
P 2 1
P 2
n−1 (ηk − η) n−1 (ηk − η)
k=1 k=1
ζ= 2 = n 2 ∼ F(n − 1, n − m) (2)
1
η − F ~∗
β 1
P
ηk − f ∗ ~x(k)
n−m ~ n−m
k=1

У прикладi на ст. 111 було показано, що якщо не включати в регресiйну модель жодних факто-
рiв, окрiм константи, то оцiнкою цього єдиного коефiцiєнта буде η. Таким чином, F-критерiй
перевiряє, чи є побудована регресiйна модель кращою за найпростiшу — константну. Основ-
ною гiпотезою є те, що константа та побудована моделi не вiдрiзняються (в тому сенсi, що
дисперсiї їх похибок однаковi), а альтернативною — що побудована модель є кращою за кон-
стантну. За заданим рiвнем значущостi треба знайти межу критичної областi tкр . Критична
область є правосторонню: при ζзн > tкр основна гiпотеза вiдхиляється i модель вважається
адекватною: це означає, що її дисперсiя значно менше, нiж дисперсiя моделi-константи. Якщо
основна гiпотеза не вiдхиляється, то треба спробувати додати в модель iншi фактори.
Пiсля перевiрки на адекватнiсть корегувати побудовану модель можна за допомогою пе-
ревiрки гiпотези про значущiсть параметрiв. Якщо значення якоїсь з оцiнок βj∗ виявилася
близькою до нуля, це може означати, що вiдповiдний фактор не вносить внеску до моделi.
Висувається основна гiпотеза H0 : βj = 0 та альтернативна H1 : βj < 0 чи H2 : βj > 0 в
залежностi вiд знаку отриманої оцiнки βj∗ . Оскiльки β~ ∗ ∼ N(β,
~ σ 2 A−1 ), то β ∗ ∼ N(βj , σ 2 ajj ),
j
де ajj — елемент A−1 . Вiдповiдно, статистикою для перевiрки гiпотези є
βj∗
γ=p ∼ Stn−m (3)
(σ 2 )∗∗ · ajj
За заданим рiвнем значущостi треба знайти межу критичної областi, яка буле правосторон-
ньою чи лiвосторонньою в залежностi вiд альтернативної гiпотези. Якщо основна гiпотеза
H0 : βj = 0 приймається, то вiдповiдний фактор прибирається з моделi, але нову модель
потрiбно знову перевiряти на адекватнiсть.
Таким чином, перевiрка адекватностi моделi за F-критерiєм показує, чи не треба додати
бiльше факторiв, а перевiрка значущостi близьких до нуля параметрiв — чи не треба змен-
шити кiлькiсть факторiв.

10.2.4 Аналiз точностi прогнозiв моделi


Нехай побудована регресiйна модель перевiрена на адекватнiсть та значущiсть параметрiв.
Однiєю з задач, для яких її можна застосувати — прогнозування значення вiдклику з тими
значеннями факторiв, з якими експеримент не проводився. Аналiз точностi отриманих про-
гнозiв вiдбувається за допомогою побудови довiрчих iнтервалiв для самого значення вiдклику
та його середнього значення.
m m m
Позначимо f ∗ (~x) = βi∗ xi . Ef ∗ (~x) = βi∗ xi =
P P P
βi xi = f (~x) називається середнiм
i=0 i=0 i=0
значенням вiдклику. Можна записати f ∗ (~x) = ~x T β ~ ∗ та f (~x) = ~x T β,
~ тодi
 2   T  
Df ∗ (~x) = E ~x T (β~ ∗ − β)
~ = E ~x T (β~ ∗ − β)
~ ~x T (β~ ∗ − β)
~ = E ~x T (β~ ∗ − β)(
~ β~ ∗ − β)
~ T ~x =

~ ∗ − β)(
= ~x T E(β ~ β~ ∗ − β)
~ T ~x = ~x T Kβ~ ∗ ~x = σ 2 ~x T A−1 ~x

117
Роздiл 10. Елементи регресiйного аналiзу.

f ∗ (~
x)−f (~
x) n−m 2 ∗∗
Оже, маємо статистику √ ∼ N(0, 1). Оскiльки σ 2 (σ ) ∼ χ2n−m , то
σ ~ x T A−1 ~
x

f ∗ (~
x)−f (~
x)

σ ~ x T A−1 ~
x f ∗ (~x) − f (~x)
ζ=q =p ∼ Stn−m
1
· n−m 2 ∗∗ (σ 2 )∗∗ ~x T A−1 ~x
n−m σ 2 (σ )

Для побудови довiрчого iнтервалу з рiвнем надiйностi γ за таблицею знаходять таке t, що


P {|ζ| < t} = γ. Довiрчий iнтервал для середнього значення вiдклику має вигляд
 q q 
f (~x) ∈ f ∗ (~x) − t (σ 2 )∗∗ ~x T A−1 ~x, f ∗ (~x) + t (σ 2 )∗∗ ~x T A−1 ~x (4)

Для побудови довiрчого iнтервалу для самого значення вiдклику  скористаємося тим, що
E (η − f ∗ (~x)) = 0, а D (η − f ∗ (~x)) = Dη + Df ∗ (x) = σ 2 1 + ~x T A−1 ~x . Аналогiчними мiркуван-
нями отримаємо
η − f ∗ (~x)
p ∼ Stn−m
(σ 2 )∗∗ (1 + ~x T A−1 ~x)
тому довiрчий iнтервал для значення вiдклику матиме вигляд
 q q 
∗ 2 ∗∗ T −1 ∗ 2 ∗∗ T −1
η ∈ f (~x) − t (σ ) (1 + ~x A ~x), f (~x) + t (σ ) (1 + ~x A ~x) (5)

10.2.5 Приклад побудови та аналiзу моделi


За заданими значенням yi та xi знайти оцiнки параметрiв простої однофакторної лiнiйної
регресiйної моделi y = f (x) = β0 + β1 x. Перевiрити побудовану модель на адекватнiсть та
на значущiсть параметрiв на рiвнi значущостi α = 0.05. Побудувати довiрчi iнтервали для
середнього значення вiдклику та значення вiдклику в точцi x0 = 10 з рiвнем надiйностi 0.99.
xi 2.7 4.6 6.3 7.8 9.2 10.6 12.0 13.4 14.7
yi 17.0 16.2 13.3 13.0 9.7 9.9 6.2 5.8 5.7

18

16

14

y 12

10

6
2 4 6 8 10 12 14
x
 T
1
1 1 ···
Складемо матрицю плану F = . Iнформацiйна та дисперсiйна матрицi
2.7
14.7 4.6 ···
  
9 81.3 0.73298 −0.06884
дорiвнюють, вiдповiдно, A = F T F = , A−1 = . Вектор
81.3 865.63 −0.06884 0.00762
T
значень вiдкликiв ~ηзн = 17.0 16.2 · · · 5.7 , тому можемо знайти значення оцiнок пара-
метрiв моделi:
 
~ ∗ −1 T 20.30566
βзн = A F ~ηзн ≈
−1.05721

Отже, маємо модель y = f ∗ (x) = 20.30566 − 1.05721x, графiк якої зображено нижче.

118
Роздiл 10. Елементи регресiйного аналiзу.

18

16

14

y 12

10

6
2 4 6 8 10 12 14
x

Перевiримо побудовану модель на адекватнiсть. Обчислимо значення виправленої ви-


9
2
бiркової дисперсiї для η та залишкову оцiнку дисперсiї: (D∗∗ η)зн = 81
P
(yi − y) ≈ 19.1,
i=1
9
2
(σ 2 )∗∗ 1 ∗
P
зн = 7 (yi − f (xi )) ≈ 0.88564. Значення статистики F-критерiю (2) ζзн ≈ 21.5752. За
i=1
таблицею знайдемо межу критичної областi для F(8, 7): tкр = 3.73. Отже, ζзн > tкр i модель
можна вважати адекватною на рiвнi значущостi 0.05.
Перевiримо значущiсть параметра β2 . Основною гiпотезою є H0 : β2 = 0, альтернативною
−1.05721
— H1 : β2 < 0. Знайдемо значення вiдповiдної статистики (3): γзн = √0.88564·0.00762 ≈ −12.87.
За таблицею знайдемо межу критичної областi для St7 : tкр = −1.895. Отже, γзн > tкр i
основна гiпотеза вiдхиляється, тому параметр β2 є значущим.  
1
Для знаходження обох довiрчих iнтервалiв знайдемо ~x T A−1 ~x для ~x = та f ∗ (x0 ).
10
Отриманi значення — 0.11823 та 9.7336 вiдповiдно. За таблицею знайдемо для St7 значення t =
3.499, тому за формулою (4) отримаємо довiрчий iнтервал для середнього значення вiдклику
в точцi x0 = 10:
q √
f ∗ (~x) ± t (σ 2 )∗∗ ~x T A−1 ~x = 9.7336 ± 3.499 · 0.88564 · 0.11823 ≈ 9.7336 ± 1.13223
f (~x) ∈ (8.60137, 10.86583) ≈ (8.6, 10.87)

За формулою 5 отримаємо довiрчий iнтервал для значення вiдклику в точцi x0 = 10:


q √
f ∗ (~x) ± t (σ 2 )∗∗ (1 + ~x T A−1 ~x) = 9.7336 ± 3.499 · 0.88564 · 1.11823 ≈ 9.7336 ± 3.482
ηзн ∈ (6.2516, 13.2156) ≈ (6.25, 13.22)

Такi широкi довiрчi iнтервали пояснюються, зокрема, малим обсягом вибiрки.

10.2.6 Деякi труднощi застосування лiнiйної регресiйної моделi


Одне з основних припущень для застосування лiнiйної регресiйної моделi ~ε ∼ N(~x, σ 2 I) є
доволi «жорстким» i не завжди виправданим: наприклад, дисперсiї похибок можуть змiню-
ватися в залежностi вiд значень факторiв.
Також, складним iнодi може бути вибiр кiлькостi факторiв. З одного боку, включення
до моделi багатьох факторiв може як пiдвищити її точнiсть, так i погiршити оцiнки пара-
метрiв, оскiльки деякi фактори можуть бути лiнiйно залежними (або близькими до таких),
що призведе до виродженостi чи поганої обумовленостi матрицi A — таке явище називається
мультиколiнеарнiстю факторiв. На практицi ще перед побудовою моделi часто дослiджують
змiст самих факторiв (наприклад, щоб не включати два фактори, один з яких показуватиме
вимiрювання деякої величини в метрах, а iнший — в сантиметрах), а також вибiрковi коефiцi-
єнти кореляцiї мiж факторами: якщо значення цього коефiцiєнту для якихось двох факторiв

119
Роздiл 10. Елементи регресiйного аналiзу.

буде близьким за модулем до 1, то, скорiш за все, вони є лiнiйно залежними, тому один iз них
не варто включати до моделi.
Iншим припущенням при побудовi лiнiйної регресiйної моделi є лiнiйна за параметрами
залежнiсть середнього значення вiдклику вiд значень факторiв. Якщо все ж таки нелiнiйнiсть
очевидна (наприклад, з погляду на дiаграму розсiювання), то треба застосовувати якесь пе-
ретворення змiнних. Наприклад, розглянемо двi дiаграми розсiювання:

0
1.5
−1.5
y 1 ln y
−3
0.5
−4.5
0
1 2 3 4 5 1 2 3 4 5
x x

Видно, що логарифмування змiнної y дало залежнiсть, що схожа на лiнiйну. В такому випадку


будується модель виду z = ln y = β0 + β1 x, звiдки потiм отримується y = eβ0 +β1 x .
Насамкiнець, важливо зауважити, що методи регресiйного аналiзу дозволяють з’ясувати
лише числовi залежностi — як значення деяких величин впливає на середнє значення iншої.
Причинно-наслiдковi зв’язки цими методами дослiдити неможливо. Наприклад, мiж вiком
будинку та цiною квартир в ньому можна знайти деякий кореляцiйний зв’язок. Чи можна
з цього зробити висновок, що чим дорожча квартира, тим новiше будинок, в якому вона
знаходиться? Нi. Але можна перевiрити, як вiк будинку впливає на середню цiну квартир —
на це питання регресiйний аналiз вже може дати вiдповiдь.

120
Таблицi значень деяких функцiй

Таблиця значень функцiї Лапласа


t 2
√1 e− 2
2π площа дорiвнює Φ(x)
Rx t2
Φ(x) = √1

e− 2 dt
0

В таблицi наведено лише дробову частину усiх значень, оскiльки усi цiлi частини рiвнi 0:
наприклад, .48745 треба читати як 0.48745.
x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.00 .00000 .00399 .00798 .01197 .01595 .01994 .02392 .02790 .03188 .03586
0.10 .03983 .04380 .04776 .05172 .05567 .05962 .06356 .06749 .07142 .07535
0.20 .07926 .08317 .08706 .09095 .09483 .09871 .10257 .10642 .11026 .11409
0.30 .11791 .12172 .12552 .12930 .13307 .13683 .14058 .14431 .14803 .15173
0.40 .15542 .15910 .16276 .16640 .17003 .17364 .17724 .18082 .18439 .18793
0.50 .19146 .19497 .19847 .20194 .20540 .20884 .21226 .21566 .21904 .22240
0.60 .22575 .22907 .23237 .23565 .23891 .24215 .24537 .24857 .25175 .25490
0.70 .25804 .26115 .26424 .26730 .27035 .27337 .27637 .27935 .28230 .28524
0.80 .28814 .29103 .29389 .29673 .29955 .30234 .30511 .30785 .31057 .31327
0.90 .31594 .31859 .32121 .32381 .32639 .32894 .33147 .33398 .33646 .33891
1.00 .34134 .34375 .34614 .34849 .35083 .35314 .35543 .35769 .35993 .36214
1.10 .36433 .36650 .36864 .37076 .37286 .37493 .37698 .37900 .38100 .38298
1.20 .38493 .38686 .38877 .39065 .39251 .39435 .39617 .39796 .39973 .40147
1.30 .40320 .40490 .40658 .40824 .40988 .41149 .41309 .41466 .41621 .41774
1.40 .41924 .42073 .42220 .42364 .42507 .42647 .42785 .42922 .43056 .43189
1.50 .43319 .43448 .43574 .43699 .43822 .43943 .44062 .44179 .44295 .44408
1.60 .44520 .44630 .44738 .44845 .44950 .45053 .45154 .45254 .45352 .45449
1.70 .45543 .45637 .45728 .45818 .45907 .45994 .46080 .46164 .46246 .46327
1.80 .46407 .46485 .46562 .46638 .46712 .46784 .46856 .46926 .46995 .47062
1.90 .47128 .47193 .47257 .47320 .47381 .47441 .47500 .47558 .47615 .47670
2.00 .47725 .47778 .47831 .47882 .47932 .47982 .48030 .48077 .48124 .48169
2.10 .48214 .48257 .48300 .48341 .48382 .48422 .48461 .48500 .48537 .48574
2.20 .48610 .48645 .48679 .48713 .48745 .48778 .48809 .48840 .48870 .48899
2.30 .48928 .48956 .48983 .49010 .49036 .49061 .49086 .49111 .49134 .49158
2.40 .49180 .49202 .49224 .49245 .49266 .49286 .49305 .49324 .49343 .49361
2.50 .49379 .49396 .49413 .49430 .49446 .49461 .49477 .49492 .49506 .49520
2.60 .49534 .49547 .49560 .49573 .49585 .49598 .49609 .49621 .49632 .49643
2.70 .49653 .49664 .49674 .49683 .49693 .49702 .49711 .49720 .49728 .49736
2.80 .49744 .49752 .49760 .49767 .49774 .49781 .49788 .49795 .49801 .49807
2.90 .49813 .49819 .49825 .49831 .49836 .49841 .49846 .49851 .49856 .49861

121
Таблицi значень деяких функцiй

x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
3.00 .49865 .49869 .49874 .49878 .49882 .49886 .49889 .49893 .49896 .49900
3.10 .49903 .49906 .49910 .49913 .49916 .49918 .49921 .49924 .49926 .49929
3.20 .49931 .49934 .49936 .49938 .49940 .49942 .49944 .49946 .49948 .49950
3.30 .49952 .49953 .49955 .49957 .49958 .49960 .49961 .49962 .49964 .49965
3.40 .49966 .49968 .49969 .49970 .49971 .49972 .49973 .49974 .49975 .49976
3.50 .49977 .49978 .49978 .49979 .49980 .49981 .49981 .49982 .49983 .49983
3.60 .49984 .49985 .49985 .49986 .49986 .49987 .49987 .49988 .49988 .49989
3.70 .49989 .49990 .49990 .49990 .49991 .49991 .49992 .49992 .49992 .49992
3.80 .49993 .49993 .49993 .49994 .49994 .49994 .49994 .49995 .49995 .49995
3.90 .49995 .49995 .49996 .49996 .49996 .49996 .49996 .49996 .49997 .49997
4.00 .49997 .49997 .49997 .49997 .49997 .49997 .49998 .49998 .49998 .49998
4.10 .49998 .49998 .49998 .49998 .49998 .49998 .49998 .49998 .49999 .49999
4.20 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999
4.30 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999 .49999
4.40 .49999 .49999 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.50 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.60 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.70 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.80 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000
4.90 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000 .50000

122
Таблицi значень деяких функцiй

Деякi квантилi розподiлу χ2n


+∞
Значення функцiї χ2α,n визначаються з рiвняння
R
f (x)dx = α де f (x) — щiльнiсть роз-
χ2α,n
подiлу χ2n (хi-квадрат з n ступенями вiльностi). Це значення є квантилем рiвня q = 1 − α.

f (x)
площа дорiвнює α

0 χ2α,n x

α
0.990 0.975 0.950 0.900 0.100 0.050 0.025 0.010
n
1 0.00 0.00 0.00 0.02 2.71 3.84 5.02 6.63
2 0.02 0.05 0.10 0.21 4.61 5.99 7.38 9.21
3 0.11 0.22 0.35 0.58 6.25 7.81 9.35 11.34
4 0.30 0.48 0.71 1.06 7.78 9.49 11.14 13.28
5 0.55 0.83 1.15 1.61 9.24 11.07 12.83 15.09
6 0.87 1.24 1.64 2.20 10.64 12.59 14.45 16.81
7 1.24 1.69 2.17 2.83 12.02 14.07 16.01 18.48
8 1.65 2.18 2.73 3.49 13.36 15.51 17.53 20.09
9 2.09 2.70 3.33 4.17 14.68 16.92 19.02 21.67
10 2.56 3.25 3.94 4.87 15.99 18.31 20.48 23.21
11 3.05 3.82 4.57 5.58 17.28 19.68 21.92 24.72
12 3.57 4.40 5.23 6.30 18.55 21.03 23.34 26.22
13 4.11 5.01 5.89 7.04 19.81 22.36 24.74 27.69
14 4.66 5.63 6.57 7.79 21.06 23.68 26.12 29.14
15 5.23 6.26 7.26 8.55 22.31 25.00 27.49 30.58
16 5.81 6.91 7.96 9.31 23.54 26.30 28.85 32.00
17 6.41 7.56 8.67 10.09 24.77 27.59 30.19 33.41
18 7.01 8.23 9.39 10.86 25.99 28.87 31.53 34.81
19 7.63 8.91 10.12 11.65 27.20 30.14 32.85 36.19
20 8.26 9.59 10.85 12.44 28.41 31.41 34.17 37.57
21 8.90 10.28 11.59 13.24 29.62 32.67 35.48 38.93
22 9.54 10.98 12.34 14.04 30.81 33.92 36.78 40.29
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64
24 10.86 12.40 13.85 15.66 33.20 36.42 39.36 42.98
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31
26 12.20 13.84 15.38 17.29 35.56 38.89 41.92 45.64
27 12.88 14.57 16.15 18.11 36.74 40.11 43.19 46.96
28 13.56 15.31 16.93 18.94 37.92 41.34 44.46 48.28
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89
40 22.16 24.43 26.51 29.05 51.81 55.76 59.34 63.69
50 29.71 32.36 34.76 37.69 63.17 67.50 71.42 76.15
60 37.48 40.48 43.19 46.46 74.40 79.08 83.30 88.38
70 45.44 48.76 51.74 55.33 85.53 90.53 95.02 100.43
80 53.54 57.15 60.39 64.28 96.58 101.88 106.63 112.33
90 61.75 65.65 69.13 73.29 107.57 113.15 118.14 124.12
100 70.06 74.22 77.93 82.36 118.50 124.34 129.56 135.81

123
Таблицi значень деяких функцiй

Деякi квантилi розподiлу Stn


+∞
R
Значення функцiї tα,n визначаються з рiвняння f (x)dx = α де f (x) — щiльнiсть роз-
tα,n
подiлу Stn (Стьюдента з n ступенями вiльностi). Це значення є квантилем рiвня q = 1 − α.
Якщо для ξ ∼ Stn необхiдно знайти таке значення t, що P {|ξ| < t} = β, то, внаслiдок
симетричностi розподiлу вiдносно нуля, можна шукати за таблицею значення t = t(1−β)/2,n .

f (x)

площа дорiвнює α

0 tα,n x

α α
0.050 0.025 0.010 0.005 0.050 0.025 0.010 0.005
n n
1 6.314 12.706 31.821 63.657 21 1.721 2.080 2.518 2.831
2 2.920 4.303 6.965 9.925 22 1.717 2.074 2.508 2.819
3 2.353 3.182 4.541 5.841 23 1.714 2.069 2.500 2.807
4 2.132 2.776 3.747 4.604 24 1.711 2.064 2.492 2.797
5 2.015 2.571 3.365 4.032 25 1.708 2.060 2.485 2.787
6 1.943 2.447 3.143 3.707 26 1.706 2.056 2.479 2.779
7 1.895 2.365 2.998 3.499 27 1.703 2.052 2.473 2.771
8 1.860 2.306 2.896 3.355 28 1.701 2.048 2.467 2.763
9 1.833 2.262 2.821 3.250 29 1.699 2.045 2.462 2.756
10 1.812 2.228 2.764 3.169 30 1.697 2.042 2.457 2.750
11 1.796 2.201 2.718 3.106 40 1.684 2.021 2.423 2.704
12 1.782 2.179 2.681 3.055 50 1.676 2.009 2.403 2.678
13 1.771 2.160 2.650 3.012 60 1.671 2.000 2.390 2.660
14 1.761 2.145 2.624 2.977 70 1.667 1.994 2.381 2.648
15 1.753 2.131 2.602 2.947 70 1.667 1.994 2.381 2.648
16 1.746 2.120 2.583 2.921 90 1.662 1.987 2.368 2.632
17 1.740 2.110 2.567 2.898 100 1.660 1.984 2.364 2.626
18 1.734 2.101 2.552 2.878 120 1.658 1.980 2.358 2.617
19 1.729 2.093 2.539 2.861 150 1.655 1.976 2.351 2.609
20 1.725 2.086 2.528 2.845 ∞ 1.645 1.960 2.326 2.576

124
Таблицi значень деяких функцiй

Квантилi рiвня 0.95 розподiлу F(n1 , n2 )


+∞
R
Значення функцiї Fα,n1 ,n2 визначаються з рiвняння f (x)dx = α де f (x) — щiль-
Fα,n1 ,n2
нiсть розподiлу F(n1 , n2 ) (Фiшера-Снедекора з n1 , n2 ступенями вiльностi). Це значення є
χ2n1 /n1
квантилем рiвня q = 1 − α. Нагадаємо, що даний розподiл — це розподiл частки χ2n /n2 з
2
незалежними чисельником i знаменником.
f (x)

площа дорiвнює α

0 Fα,n1 ,n2 x

Для наведеної таблицi α = 0.05.


n1
1 2 3 4 5 6 7 8 9 10
n2
3 10.1 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08
50 4.03 3.18 2.79 2.56 2.40 2.29 2.20 2.13 2.07 2.03
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99
100 3.94 3.09 2.70 2.46 2.31 2.19 2.10 2.03 1.97 1.93

125
Таблицi значень деяких функцiй

n1
12 14 16 18 20 30 40 50 60 100
n2
3 8.74 8.71 8.69 8.67 8.66 8.62 8.59 8.58 8.57 8.55
4 5.91 5.87 5.84 5.82 5.80 5.75 5.72 5.70 5.69 5.66
5 4.68 4.64 4.60 4.58 4.56 4.50 4.46 4.44 4.43 4.41
6 4.00 3.96 3.92 3.90 3.87 3.81 3.77 3.75 3.74 3.71
7 3.57 3.53 3.49 3.47 3.44 3.38 3.34 3.32 3.30 3.27
8 3.28 3.24 3.20 3.17 3.15 3.08 3.04 3.02 3.01 2.97
9 3.07 3.03 2.99 2.96 2.94 2.86 2.83 2.80 2.79 2.76
10 2.91 2.86 2.83 2.80 2.77 2.70 2.66 2.64 2.62 2.59
11 2.79 2.74 2.70 2.67 2.65 2.57 2.53 2.51 2.49 2.46
12 2.69 2.64 2.60 2.57 2.54 2.47 2.43 2.40 2.38 2.35
13 2.60 2.55 2.51 2.48 2.46 2.38 2.34 2.31 2.30 2.26
14 2.53 2.48 2.44 2.41 2.39 2.31 2.27 2.24 2.22 2.19
15 2.48 2.42 2.38 2.35 2.33 2.25 2.20 2.18 2.16 2.12
16 2.42 2.37 2.33 2.30 2.28 2.19 2.15 2.12 2.11 2.07
17 2.38 2.33 2.29 2.26 2.23 2.15 2.10 2.08 2.06 2.02
18 2.34 2.29 2.25 2.22 2.19 2.11 2.06 2.04 2.02 1.98
19 2.31 2.26 2.21 2.18 2.16 2.07 2.03 2.00 1.98 1.94
20 2.28 2.22 2.18 2.15 2.12 2.04 1.99 1.97 1.95 1.91
22 2.23 2.17 2.13 2.10 2.07 1.98 1.94 1.91 1.89 1.85
24 2.18 2.13 2.09 2.05 2.03 1.94 1.89 1.86 1.84 1.80
26 2.15 2.09 2.05 2.02 1.99 1.90 1.85 1.82 1.80 1.76
28 2.12 2.06 2.02 1.99 1.96 1.87 1.82 1.79 1.77 1.73
30 2.09 2.04 1.99 1.96 1.93 1.84 1.79 1.76 1.74 1.70
40 2.00 1.95 1.90 1.87 1.84 1.74 1.69 1.66 1.64 1.59
50 1.95 1.89 1.85 1.81 1.78 1.69 1.63 1.60 1.58 1.52
60 1.92 1.86 1.82 1.78 1.75 1.65 1.59 1.56 1.53 1.48
100 1.85 1.79 1.75 1.71 1.68 1.57 1.52 1.48 1.45 1.39

126
Творцi цього конспекту Олексiй Галганов та Нiкiта Фор-
дуй вдячнi Iринi Юрiївнi за викладання, а студентами
КА-91 та КА-92 — за знайденi помилки.

Таємний рецензент — кiт Гаррi.

You might also like