Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Задачник.doc
Скачиваний:
8
Добавлен:
13.11.2019
Размер:
6.75 Mб
Скачать

Глава 4.

статистичниЙ АНАЛІЗ

4.1. Основні теоретичні положення

1. Статистичний аналіз (СА) – третій етап процесу статистичного дослідження соціально-економічних явищ (процесів), метою якого є виявлення властивих їм закономірностей на основі системи узагальнюючих статистичних показників відповідно до методів статистичного аналізу.

Основа СА – метод узагальнюючих статистичних показників.

2. Система узагальнюючих статистичних показників – основа статистичного аналізу; сукупність статистичних показників, обчислюваних по всіх одиницях досліджуваної сукупності або її окремої частини, таких, що представляють у цієї сукупності шукані закономірності у виді числових характеристик (чисел).

Їх основу складають середні величини і показники варіації, за допомогою яких обчислюються числові характеристики закономірностей статистичних розподілів (положення, розсіювання, асиметрії й ексцесу й ін.), показники динаміки, індекси, показники зв’язку.

3. Метод (задачі) СА – комплекс методів, способів, прийомів, операцій, правил, необхідних для досягнення мети аналізу, розв’язання конкретної задачі або певної задачі з конкретного класу задач.

Основним класам задач статистичного аналізу відповідають певні методи статистики:

1) вивчення структури об’єкта дослідження відбувається за допомогою методів статистичних групувань, узагальнюючих статистичних показників;

2) оцінка просторових, часових змін ознаки, а також впливу факторів, що їх зумовлюють, здійснюється за допомогою методу рядів динаміки й індексного методу;

3) виявлення й оцінка причинно-наслідкових (факторних) зв’язків між ознаками проводяться за допомогою КРАЗ.

В основу цих методів покладений принцип несуцільного вибіркового статистичного дослідження.

Дві головні задачі методуоцінка параметра і перевірка статистичної гіпотези.

4. Закон розподілу ймовірностей випадкової величини – співвідношення, що встановлює залежність між імовірністю випадкової величини X і значеннями цієї випадкової величини х, найчастіше: у значеннях її ймовірностей p(x) = P{X = x}, функції F(x) = P{X < x} або щільності f(x) = dF/dx розподілу її ймовірностей (остання характеристика справедлива для неперервних величин).

Закони розподілу випадкових величин застосовують як імовірнісні моделі у статистичному аналізі досліджуваних ознак (статистик), характеризуючи залежність між числовою характеристикою чисельності статистичної ознаки X (статистики) і значеннями цієї ознаки х (статистики) у статистичних рядах (розподілах).

5. Закономірність розподілу – властивість розподілу, що має прояв у його узагальнюючих числових характеристиках (моментах): квантилях (статистиках), характеристиках положення (середніх величинах), характеристиках розсіювання (показниках варіації), характеристиках асиметрії й ексцесу.

6. Квантиль (xq) порядку q (статистика) – таке значення xq випадкової величини (ознаки) Х, для якого існує ймовірність

q = Р{X < xq}= F(xq) (0 < q < 1). (4.1)

У розподілах розрізняють такі квантилі: х1/2 медіану; х1/4 , х2/4 , х3/4 квартилі; х1/10, х2/10, х9/10 децилі; х1/100, х2/100, …, х99/100 процентилі.

7. Характеристики положення (середні величини):

1) Центр розподілу (математичне сподівання) M(X) = mХ.

2) Медіана Me = х1/2.

3) Мода (Mo): найчисельніше (найімовірніше) значення Х (розподіл з однією, двома і більше модами називають відповідно одно-, дво- і багатомодальним).

8. Характеристики розсіювання (показники варіації):

1) Розмах варіації (R) – різниця між найбільшим xmax і найменшим xmin значеннями випадкової величини (ознаки) Х:

R = xmax xmin. (4.2)

2) Середнє лінійне абсолютне відхилення ( ):

= M(|X – mХ|). (4.3)

3) Дисперсія (D(Х), або D, або σХ2):

D = M((X – mХ)2). (4.4)

4) Середнє квадратичне відхилення (СКВ, σХ):

σХ = √ D. (4.5)

9. Характеристики асиметрії й ексцесу:

1) Коефіцієнт асиметрії:

. (4.6)

2) Коефіцієнт ексцесу:

. (4.7)

3) Пірсонівська міра асиметрії одномодального розподілу:

, . (4.8)

10. Нормальний розподіл (Гауса, або N-розподіл) (f(x)) – розподіл ймовірностей неперервної випадкової величини Х з математичним сподіванням mХ і дисперсією σХ2, який має щільність (крива розподілу – гаусіана):

(4.9)

11. Стандартизована нормальна величина (и-розподіл) – неперервна випадкова величина

U = (X – mХ) / σХ, (4.10)

яка має розподіл Гауса (представлена щільністю f(u) або функцією розподілу F(u)) з нульовим математичним сподіванням і одиничною дисперсією (гаусіаною):

(4.11)

(4.12)

інтеграл Лебега-Стілтьєса.

В області визначення U від 0 до +∞ значення f(U) і F(U) представлені статистичними таблицями (Д.1, 2).

Деякі властивості нормального розподілу (4.13)

1) f(±∞) → 0, fmax(x) = f(mХ) = 1/√(2π), f(x)= fU(u)/σХ;

2) mХ = Mo = Me, γ1= γ2 = 0;

F(-∞)0, F(+∞)1, функція похибок erfz ≡ -erf(-z) = 2FU(z√2) – 1;

Типові значення k і відповідні значення p: k = {1; 2; 3} і p = {0,683; 0,954; 0,997}.

5) Квантилі, що обираються в якості довірчих границь U (α-значень U):

Типові α-значення U (α = {0,05; 0,01; 0,001}):

|u|0,95 = u0,975 ≈ 1,96, |u|0,99 = u0,995 ≈ 2,58, |u|0,999 = u0,9995 ≈ 3,29.

6) Характеристики розсіювання:

- середнє абсолютне відхилення M|X – mX| = σM|u| = √(2/π)σ ≈ 0,798σ.

- імовірне відхилення, або Me(|Х – mХ|): |u|1/2σХ = -u1/4σХ = u3/4σХ ≈ 0,674σХ.

- половина півшироти: √(2ln2)σ ≈ 1,177σ.

- нижній і верхній квартилі: x1/4 = mX + u1/4σ = mX – |u|1/2σ, x3/4 = mX + u3/4 = mX +‌ |u‌|1/2σ.

- міра точності: h = 1/(σ√2).

12. t-розподіл (Стьюдента) – неперервна випадкова величина Х має t-розподіл з m ступенями свободи (m – натуральне число) в області визначення від -∞ до +∞, якщо щільність її ймовірності можна представити формулою

, (4.14)

де Г – гама-функція, така, що Г(x) = (x – 1)Г(x – 1), Г(1) = 1, Г(1/2) = √π.

Властивості розподілу: (4.15)

1) f(±∞) → 0, f(-х) = f(+х), maxf(X) = f(0).

2) Числові характеристики:

а) математичне сподівання М(Х) = 0 (m > 1);

б) дисперсія D(X) = m/(m – 2) (m > 2);

в) мода і медіана Мо = Ме = 0;

г) коефіцієнт асиметрії γ1=0 (m > 3);

ґ) коефіцієнт ексцесу γ2 = 3(m – 2)/(m – 4) (m > 4);

3) Типова інтерпретація. Якщо m випадкових величин X0, X1, …, Xm взаємно незалежні та нормально розподілені з нульовим математичним сподіванням і дисперсіями σХ², то випадкова величина

має t-розподіл з m ступенями свободи. T від σХ² не залежить.

4) Квантилі tm;р = -tm;1 за рахунок симетричності розподілу.

До того ж, ‌‌‌|t|m;1-α = tm;1-α/2, що відповідає рівності P{|T| > |t|m;1} = α. Ці квантилі зведені у статистичні таблиці (Д.4).

5) Наближення. Якщо m → ∞, тоді t-розподіл є асимптотично нормальним з центром 0 і дисперсією 1, так, що tm;р uр, |t|m;1= t m;1-α/2 ≈ |u|1= u1-α/2 для N > 30.

13. χ²-розподіл (Пірсона) – неперервна випадкова величина Х має χ²-розподіл з m ступенями свободи (m – натуральне число) в області визначення від -∞ до +∞, якщо щільність її ймовірності можна представити формулою

(4.16)

Властивості розподілу: (4.17)

1) f(+∞) → 0.

2) Числові характеристики:

а) математичне сподівання М(Х) = m;

б) дисперсія D(X) = 2m;

в) мода Мо = m – 2 (m ≥ 2);

г) коефіцієнт асиметрії γ1 = 2√(2/m);

ґ) коефіцієнт ексцесу γ2 = 12/m;

3) Типова інтерпретація. Якщо m взаємно незалежних стандартизованих випадкових величин Uj = (Xj – M(Xj))/σXj мають нормальні розподіли, то сума їх квадратів

має χ²-розподіл з m ступенями свободи.

4) Квантилі χ²m;p або ‌‌‌χ²m;1-α зведені у статистичні таблиці (Д.3).

5) Наближення. Якщо m → ∞, тоді

- Х розподілена асимптотично нормально з центром m і дисперсією 2m;

- Х/m розподілена асимптотично нормально з центром 1 і дисперсією 2/m;

- √(2X) розподілена асимптотично нормально з центром √(2m – 1) і дисперсією 1, так, що

χ²m;p ≈ 1/2(√(2m – 1) + Up

для m > 30.

14. F-розподіл (Фішера) – неперервна випадкова величина Х має F-розподіл з k1 і k2 ступенями свободи (k1 і k2 – натуральні числа) в області визначення від -∞ до +∞, якщо щільність її ймовірностей можна представити формулою

(4.18)

де В – бета-функція.

Властивості розподілу: (4.19)

1) f(+∞) → 0.

2) Числові характеристики:

а) математичне сподівання М(Х) = k2/(k2 2) (k2 > 2);

б) дисперсія D(X) = 2k2²(k1 + k2 – 2)/(k1(k2 – 2)²(k2 – 4)) (k2 > 4);

в) мода Мо= k2(k1 – 2)/ k1(k2 + 2) (k1 > 2);

3) Типова інтерпретація. Якщо k1 + k2 взаємно незалежних випадкових величин Хi (i = 1, 2, …, k1) і Xj (j = 1, 2, …, k2) мають нормальні розподіли з центрами 0 і дисперсіями σХ², то відношення двох випадкових величин

що мають χ²-розподіли з k1 і k2 ступенями свободи відповідно, підпорядковано F-розподілу з k1 і k2 ступенями свободи. F від σХ² не залежить.

має бета-розподіл.

Змінна має щільність з розподілом Фішера:

;

4) Квантилі Fk1,k2;1-α = 1/Fk2,k1;α зведені у статистичні таблиці (Д.5).

5) Наближення. Якщо k1 → ∞, k2 → ∞, тоді величина Z розподілена асимптотично нормально з центром (k1 k2)/(2k1k2) і дисперсією (k1 + k2)/(2k1k2). Ця апроксимація є придатною для k1 > 30 і k2 > 30.

15. Центральна гранична теорема (ЦГТ) (умови нормалізації розподілів): якщо випадкова величина являє собою суму N взаємно незалежних випадкових величин Хі (i = 1, …, N) із скінченними математичними сподіваннями mХi і дисперсіями σХi2, то при необмеженому збільшенні їх кількості (N → ∞) вона має асимптотично нормальний розподіл з центром ΣmХi і дисперсією ΣσХi2, до того ж, для будь-якого додатного числа ε існує границя (умови Ліндеберга):

(4.20)

Якщо Хі мають один і той же самий розподіл ймовірностей із скінченим математичним сподіванням mХ і загальною дисперсією σХ2, то випадкова величина = (Х1 + + Х2 + … + ХN)/N має асимптотично нормальний розподіл ймовірностей з центром mХ і дисперсією σХ2/N (теорема Ліндеберга-Леві).

16. Параметр і його оцінка. Таке уточнення параметра η розподілу статистичної ознаки Х в генеральній сукупності, ідеалізованого певною імовірнісною моделлю F(Х) з тим же самим параметром, по даних (X1, X2, …, Xn) вибіркового дослідження (вибірки), що дає певну статистику (вибіркову оцінку) Y(X1, X2, …, Xn), яка надійно представляє цей параметр своїм значенням yj = y(x1, x2, …, xn) (j = 1, 2, …), отриманим по реалізації вибіркових даних (x1, x2, …, xn).

Поширені оцінки – вибіркові частка та середнє арифметичне. Оцінка може бути точковою й інтервальною.

17. Властивості надійної оцінки. Шукана оцінка є надійною, якщо вона є слушною, незміщеною й ефективною. Вона може бути достатньо надійною, якщо задовольняє хоча б однієї з цих властивостей.

18. Слушна оцінка – така оцінка Y параметра η, яка при n → ∞ наближається по ймовірності до значення параметра η:

(4.21)

Різниця Δj = yjη є похибкою оцінювання і має випадковий характер.

19. Незміщена оцінка – така оцінка Y параметра η, математичне сподівання якої M(Y) дорівнює значенню параметра η:

(4.22)

Величина |M(Y) – η| є зміщенням оцінки.

20. Ефективна оцінка – така оцінка Y параметра η (обов’язково незміщена та слушна), дисперсія якої існує й є найменшою для асимптотично нормальних розподілів f(Y) із середнім η і дисперсією D(Y) = λ/n:

(4.23)

Відношення

(4.24)

називають ефективністю оцінки Y.

21. Аналітичне вирівнювання статистичного розподілу – процедура розповсюдження властивостей певного теоретичного розподілу ймовірностей випадкової величини на числові характеристики статистичного розподілу частоти (частості, щільності) досліджуваної ознаки з метою їх наближеного взаємного представлення (з певною ймовірністю або на певному рівні значущості).

Типові інтерпретації:

1) представлення статистичного (емпіричного) ряду теоретичною функцією (гаусіаною, розподілом Пуассона й ін.) з параметрами, що дорівнюють аналогічним емпіричним числовим характеристикам закономірності;

2) представлення основної тенденції розвитку в ряду динаміки;

3) представлення факторного зв’язку між ознаками адекватною математичною функцією (відповідно трендом і лінією регресії) з використанням методу найменших квадратів.

22. Статистична гіпотеза – припущення про певний можливий закон розподілу F(X) або f(X) статистичної ознаки Х у вибірковій сукупності, або про значущість вибіркової оцінки Y.

23. Перевірка статистичної гіпотези. Для перевірки статистичних гіпотез, які встановлюють деякі властивості теоретичного розподілу (η), оцінюється правдоподібність досліджуваної вибірки за умови, що для обчислення функції правдоподібності застосовується передбачувана щільність розподілу f(X). Перевірка виконується за певними статистичними критеріями, або критеріями статистичних гіпотез).

24. Критерій статистичної гіпотези. Нехай задана деяка фіксована вибірка об’єму n; критерій статистичної гіпотези Н – це правило, що дозволяє спростувати або прийняти гіпотезу Н за умов вибірки {х1, х2, …, хn}. Кожен критерій визначає критичну множину (область) S «точок» (Х1, Х2, …, Хn): гіпотеза відкидається як хибна (спростовується), якщо вибірка {х1, х2, …, хn} належить критичній множині, або потрапляє в область малої правдоподібності, тобто вибіркова статистика Y(Х1, Х2, …, Хn) малоймовірна за обраною гіпотетичною функцією правдоподібності, й вважається істинною у протилежному випадку. Таке прийняття або відкидання гіпотези не дає логічного її доказування або спростовування. Тут можливі чотири ситуації:

а) гіпотеза Н є вірною та приймається згідно критерію;

б) гіпотеза Н є невірною (хибною) та відкидається згідно критерію;

в) гіпотеза Н є вірною, але відкидається згідно критерію (похибка першого роду);

г) гіпотеза Н є невірною (хибною), але приймається згідно критерію (похибка другого роду).

Для будь-якої множини фактичних значень параметрів η1, η2, … ймовірність відкинути гіпотезу по даній критичній області S дорівнює

Якщо з гіпотезою Н конкурує лише одна альтернативна проста гіпотеза Н1 ≡ {η1 = η11, η2 = η21,…}, то ймовірність πS(η11, η21,…) відкинути гіпотезу Н, коли є вірною гіпотеза Н1, називають потужністю критерію, що визначений на S, по відношенню до гіпотези Н1. Залежність імовірності (1 – β) правильного відкидання гіпотези Н від імовірності α хибного її відкидання називають оперативною характеристикою критерію.

25. Кількість ступенів свободи критерію – кількість «вільних» елементів даних, на які не накладені обмеження при обчисленні статистики вибірки або критерію перевірки.

Інакше, це – кількість одиниць статистичної сукупності, які можуть набувати довільних значень, не змінюючи середнього значення ознаки.

26. Критерій значущості. Нехай властивість ГСС, що перевіряється, зводиться до множини значень параметрів η1 = η10, η2 = η20, …, які порівнюються з вибірковими оцінками цих параметрів. В якості основи критерію намагаються побудувати таку статистику Y = Y(Х1, Х2, …, Хn; η10, η20, …) ≡ g(Y1, Y2, …; η10, η20, …), значення якої вимірюють відхилення або відношення порівнюваних параметрів генеральної сукупності й їх вибіркових оцінок.

При цьому проста гіпотеза Н0 ≡ {η1 = η10, η2 = η20, …} відкидається із даним рівнем значущості α («відхилення» є значущим), якщо вибіркова оцінка Y потрапляє поза

можливий інтервал {1 Y 2} = р2 р1 = 1 – α. Відповідна оцінка параметра є незначущою. У протилежному випадку оцінка є значущою. Критерії, визначені в такий спосіб, називають критеріями значущості.

Остання формула визначає Yр1= Yр1(η10, η20, …) і Yр2= Yр2(η10, η20, …) як квантилі вибіркового розподілу статистики Y(Х1, Х2, …, Хn; η10, η20, …). Часто вдається вибрати статистику Y так, що її квантилі Yр були б незалежними від η10, η20, … .

Yр1 і Yр2 називають границями довірчого інтервалу [Yр1 ; Yр2] на заданому рівні значущості α.

Поширені критерії: t (Стьюдента) , χ² (Пірсона), F (Фішера).

27. Критерій згоди. Статистичний критерій, який контролює узгодженість гіпотетичних ймовірностей pj = P{Ej} випадкових подій E1, E2, …, Er з їх відносними частотами ωj = W{Ej} = fj/n у вибірці з n незалежних спостережень. У багатьох застосуваннях кожна подія Ej полягає в тому, що деяка випадкова величина Х потрапляє в певний j-й класовий інтервал, так що цей критерій дозволяє порівнювати гіпотетичні (теоретичні) розподіли величини Х з її емпіричним розподілом за допомогою відповідної статистики.

Поширеними є критерії згоди χ², А.М.Колмогорова, Мізеса.

28. Критерій згоди χ² (Пірсона). Узгодженість за цим критерієм вимірюється за допомогою статистики

(4.25)

де pj – імовірність того, що випадкова величина Х набуває значень в j-му класовому інтервалі (j = 1, …, n); fj і npj – фактична і теоретична абсолютні частоти інтервальної ознаки.

Розподіл статистики Y при n → ∞ наближається до розподілу χ² з m = r – 1 ступенями свободи.

Правила застосування критерію.

1) Якщо всі npj > (5…10)1, то критерій χ² спростовує гіпотетичні ймовірності з рівнем значущості α при Y > χ²m;1-α. Якщо m > 30, то замість χ²-розподілу можна застосовувати нормальний розподіл величини √(2χ²) з центром √(2m – 1) і дисперсією 1.

2) Якщо гіпотетичні ймовірності pj залежать від s невідомих параметрів η1, η2, …, ηs, то спочатку знаходять спільні найбільш правдоподібні оцінки цих параметрів по даній вибірці й підставляють отримані значення pj = pj(η1, η2, …, ηs) у формулу статистики Y. За достатньо загальних умов2 статистика Y збігається по ймовірності з χ² з m = r s – 1 ступенями свободи й критерій χ² є застосовуваним з m = r s – 1.

29. Критерій згоди А.М.Колмогорова. Узгодженість за цим критерієм вимірюється за допомогою статистики

(4.26)

де Fn(Х) – емпірична ступінчаста функція розподілу3, побудована по даних вибірки (х1, х2, …, хn) об’єму n після її впорядкування зі збільшенням Х, так, що

(4.27)

F(Х) – теоретична неперервна функція розподілу генеральної сукупності, узгодженість з якою перевіряється. Розподіл статистики √n Dn при n → ∞ наближається до розподілу Колмогорова4:

(4.28)

Правила застосування критерію.

1) Рівень значущості α вибирається з умови Р{√n Dn > x} = α = 1 – K(x), у припущенні що неможливо отримати цю рівність, коли існує відповідність між функціями F(X) i Fn(X).

2) Гіпотеза Н0 спростовується, якщо розрахункове значення статистики Dn перевищує критичне значення двостороннього5 критерію Колмогорова на рівні значущості α: dn = max(Dn+, Dn-) > Kn; α, – за умов, що

(4.29)

30. Статистичний прогноз. Оцінка значення однієї випадкової величини (ознаки) у виді функції значень інших випадкових величин (ознак).

Поширеними є такі задачі прогнозування:

1) екстраполяція в рядах динаміки;

2) визначення середнього й індивідуального значень результативної ознаки у її зв’язку з іншими, факторними, ознаками за очікуваних значень останніх.

Прогноз виконується з використанням функціональних моделей тренду та регресії із значущими оцінками параметрів на певному рівні значущості t-критерію.

31. Статистична таблиця. Форма подання статистичних даних, як правило, результатів статистичного зведення; це – сукупність горизонтальних і вертикальних ліній, що перетинаються й утворюють по горизонталі рядки, а по вертикалі стовпчики (графи); перетин останніх – це клітинки, куди записують статистичні дані.

Основні елементи таблиці – це підмет і присудок.

Підмет статистичної таблиці – це групи та підгрупи досліджуваного явища (ознаки), що підлягають певній характеристиці за допомогою статистичних показників.

Присудок статистичної таблиці – це показники, за допомогою яких відображають числові значення та характеристики досліджуваного явища (ознаки).

Таблиці поділяють на (види статистичних таблиць): прості (облікові, територіальні, хронологічні) (з.№ №22, 23, 27, 29-31), групові (з.№4), комбіновані (з.№7).

32. Статистичний графік. Форма подання статистичних даних, як правило, результатів статистичного зведення; це – малюнок, що зображає статистичні дані за допомогою умовних геометричних фігур (ліній, точок, інших знаків).

Елементами графіків є: поле графіка, графічний образ, просторові та масштабні орієнтири, експлікація графіка.

Графіки поділяють на (види статистичних графіків):

а) за способом побудови: діаграми, картограми, картодіаграми;

б) за формою графічних образів: точкові (з.№32), лінійні, площинні (з.№№4-7), фігурні (з.№31);

в) за характером задач: ряд розподілу (з.№№3-7), структура статистичної сукупності (з.№14), ряд динаміки (з.№№22-28), показники зв’язку (з.№32), показники виконаного завдання (з.№10).

Діаграми бувають (види): лінійними, стовпчиковими (з.№10), стрічковими (з.№№2,29), круговими (з.№14), радіальними (з.№27), фігурними (з.№31), знаками Варзара (з.№29).

Контрольні питання:

1. Статистичний аналіз: сутність, місце у структурно-логічній схемі процесу статистичного дослідження, використовуваний метод статистики.

2. Основні категорії та поняття теорії ймовірностей і математичної статистики, їхній взаємозв’язок зі статистикою: випадкова подія і випадкова величина й їх вірогідності; схема випадків й її вірогідність; зв’язок вірогідності випадкової події (величини) та відносної частоти альтернативної (множинної) ознаки.

3. Система узагальнюючих статистичних показників: призначення, сутність, класифікація узагальнюючих показників.

4. Поняття закону розподілу, форми законів розподілу випадкових дискретної та неперервної величин, аналогія з розподілами статистичних варіаційних ознак.

5. Поняття закономірності статистичного розподілу. Числові характеристики закономірності: початкові та центральні моменти, квантиль порядку q, – визначення та способи обчислення.

6. Числові характеристики положення: визначення, умови та порядок їх застосування.

7. Числові характеристики розсіювання (варіації): визначення, умови та порядок їх застосування.

8. Числові характеристики асиметрії й ексцесу: визначення, умови та порядок їх застосування.

9. Біноміальний закон (Бернуллі) розподілу дискретних випадкових величин: сутність, властивості, форми подання, умови його зведення до розподілу Пуассона та нормального розподілу, застосування.

10. Закон Пуассона для дискретних випадкових величин: сутність, властивості, форми подання, застосування.

11. Закон Гауса (нормальний закон): сутність, властивості, форми подання, застосування.

12. Стандартизована нормальна величина (u-розподіл). Інтеграл ймовірностей Лапласа.

13. t-розподіл (Стьюдента): сутність, властивості (числові характеристики, типова інтерпретація, квантилі, наближення).

14. χ²-розподіл (Пірсона): сутність, властивості (числові характеристики, типова інтерпретація, квантилі, наближення).

15. F-розподіл (Фішера): сутність, властивості (числові характеристики, типова інтерпретація, квантилі, наближення).

16. Центральна гранична теорема. Умови нормалізації статистичних розподілів.

17. Оцінка параметру та перевірка статистичної гіпотези як дві задачі методу статистичного аналізу.

18. Поняття надійної оцінки й її властивості: слушність, незміщеність і ефективність.

19. Аналітичне вирівнювання статистичного розподілу.

20. Статистична гіпотеза: сутність гіпотези, види гіпотез.

21. Перевірка гіпотези: сутність перевірки, критерій статистичної гіпотези, види та характеристики критеріїв, кількість ступенів свободи і рівень значущості критерію, правило Неймана-Пірсона відбору критеріїв.

22. Критерій значущості: сутність, види.

23. Довірча область і довірчий інтервал.

24. Критерії згоди: сутність, види, критерії згоди χ²-Пірсона і А.М.Колмогорова.

25. Статистичний прогноз.

26. Статистичні таблиці: визначення, елементи, види таблиць, правила їх побудови, особливості застосування в галузевих статистиках.

27. Статистичні графіки: визначення, елементи (знаки експлікації), види графіків, правила їх побудови, особливості застосування в галузевих статистиках.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]