Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
VARIANT_matematika.doc
Скачиваний:
3
Добавлен:
24.08.2019
Размер:
987.65 Кб
Скачать

1.Нормальний розподіл

Нормальний розподіл (розподіл Ґауса) — розподіл ймовірностей випадкової величини, що характеризується густиною ймовірності

де μ — математичне сподівання, σ2 — дисперсія випадкової величини.

Центральна гранична теорема стверджує, що нормальний розподіл виникає тоді, коли дана випадкова величина являє собою суму великого числа незалежних випадкових величин, кожна з яких грає в утворенні всієї суми незначну роль. Наприклад, відстань від влучення снаряду гармати до цілі при великій кількості пострілів характеризується саме нормальним розподілом.

Нормальний розподіл залежить від двох параметрів - зміщення і масштабу, тобто є з математичної точки зору не одним розподілом, а цілим їх сімейством. Значення параметрів відповідають значенням середнього ( математичного очікування) і розкиду ( стандартного відхилення).

2. Нелінійна кореляція??

Кореляція (від лат. correlatio - співвідношення) - це статистична залежність між випадковими величинами, що носить імовірнісний характер.

Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу.

ВАРІАНТ 26

1.Локальна теорема Лапласа

Локальна теорема Муавра — Лапласа описує наближення нормального розподілу до біноміального розподілу. Є окремим випадком центральної граничної теореми.

______

Якщо , тоді для k в околі точки np, існує наближення

Гранична форма теореми стверджує, що

Для

практичний зміст теореми простий: при великих значеннях n імовірність спостерігаючи рівно m успіхів можна приблизно розраховувати за формулою:

Якщо вас цікавить імовірність того, що число успіхів буде лежати в деяких межах- - у розрахунках допомагає інтегральна теорема Муавра-Лапласа.

2.Перевірка гіпотези про нормальний розподіл генеральної сукупності

Найбільш розповсюдженим критерієм перевірки нульової гіпотези про закон розподілу ознаки генеральної сукупності є критерій узгодженості , що розраховується за формулою:

де m – число часткових інтервалів, на які поділяється статистичний розподіл вибірки; ni – частота ознаки в і-му інтервалі; ni' – теоретичні частоти, підраховані за відповідними формулами закону розподілу ймовірностей, який припускається для ознаки генеральної сукупності. Теоретичні частоти знаходяться за формулою:

де n – об’єм вибірки, рі – для дискретної величини є ймовірність події рі=Р(Х=хі), для неперервної випадкової величини рі є ймовірність того, що ознака Х попаде в і-ий інтервал.

Наприклад, для гіпотези H0, яка припускає, що ознака генеральної сукупності має нормальний закон розподілу, ймовірність рі може бути обчислена за формулою: Рі=Ф(хі+1)-Ф(хі), де Ф(х) – функція Лапласа.

№19

1)Класична ймовірність.

Ймовірністю події А називається відношення m/n числа сприятливих цій події елементарних результатів випробувань (m) до загального числа (n) всіх рівноможливих елементарних результатів, що утворюють повну групу. p(A)=m/n

2)Поняття про множинну регресію

Множинна регресія-рівняння зв’язку з декількома незалежними змінними: y=f(X1, X2 ,….Xk-1) + ε

Де X1, X2 ,….Xk-1- значення незалежних змінних

y – значення залежної змінної

Як відомо, більшість соціально-економічних показників формується під впливом не одного, а багатьох факторів. Метод побудови моделі такого зв'язку має назву багатофакторного кореляційно-регресійного аналізу. В цьому випадку результативна ознака (Y ) пов'язується з допомогою рівняння множинної регресії з двома або більше факторними ознаками (Х1, Х2, Х3, . . . , Хm).

Найважливішими умовами побудови багатофакторної моделі зв'язку є достатня кількість одиниць у сукупності ( як мінімум у 8 разів більше, ніж число факторів) та відсутність мультиколінеарності факторів (близького до функціонального зв'язку між ними). В тому випадку, якщо два факторних показники мультиколінеарні, один з них повинен бути виключений з моделі.

На практиці використовуються два види рівнянь множинної регресії:

-лінійне (адитивне):

- нелінійне (мультиплікативне):

де а0, а1, а2, ... , аm – параметри рівняння множинної регресії;

Х1, Х2,Х3,. . ., Хm - факторні ознаки.

Оцінка параметрів рівняння множинної регресії здійснюється методом найменших квадратів. Параметри а1, а2 , . . . , аm називаються коефіцієнтами регресії та показують, на скільки одиниць змінюється у при збільшенні х на одиницю, при умові, що інші фактори є сталими. Наприклад, рівняння залежності ціни (Y) від рівня продуктивності праці (X1) та якості сировини (X2):

Ух = 10,2+12,6х1+0,7 х2 .

Для вимірювання тісноти взаємозв'язку між двома ознаками, що включені у модель, визначають парні коефіцієнти кореляції (ryx1, ryx2, rx1x2). Тісноту зв'язку між результативною ознакою (Y) та факторною (при спільному впливі всіх факторів) характеризують часткові коефіцієнти кореляції (Ryx1, Ryx2).

Тісноту взаємозв'язку між результативною ознакою та сукупністю всіх факторних ознак визначають на основі коефіцієнта множинної кореляції R. Величина D = R2 називається коефіцієнтом детермінації, що показує, на скільки процентів варіація Y обумовлюється варіацією всіх факторних ознак, включених у модель.

№ 7

1.Інтегральна теорема Лапласа

Пусть производится n независимых опытов, в каждом из которых вероятность наступления события А одна и та же и равна

Пусть m - число появления события A в n опытах. Тогда для достаточно больших n случайная величина m имеет распределение, близкое к нормальному с параметрами a=M(m)=np,

2. Метод моментів- це спосіб побудови оцінок, заснований на порівнянні теоретичних і вибіркових моментів. Коротко, метод моментів описується так: "Ми маємо певну вибірку, і припускаємо що вона задається певним розподілом з параметрами. Ми обчислюємо скільки моментів цього розподілу скільки параметрів, і прирівнюємо їх до відповідних моментів вибірки. Так як моменти розподілу є функціями від параметрів, то отримаємо систему рівнянь відносно параметрів, і з неї отримуємо результат."

№5

1. У теорії ймовірності, формула Бернуллі дозволяє обчислити ймовірність успіхів у серії незалежних експериментів.

Якщо ймовірність P настання події A в кожному з випробувань стала, то ймовірність Pn(k) того, що подія A настане k разів в n незалежних випробуваннях дорівнює

 або

2. Гістограми, діаграми, таблиці, …..

№17

  1. М(Х)= х1р1 + х2р2 +…+хп рп

2. Великий клас нелінійних систем може бути описаний наступною системою рівнянь:

 

де   і   – вектори-колонки;  – вектор-рядок;  – символ транспонування;   – вектор-колонка змінних стану системи;   – деяка скалярна величина;   – скалярна нелінійність.

Застосуємо до лівої та правої частин рівнянь системи перетворення Лапласа. Тоді одержимо:

      або    

де   - одинична матриця,   – матриця, обернена до матриці  .

Величина   називається передаточною функцією лінійної частини системи (див. рис.53.1).

 

 

 

 

Рис.53.1

 

Необхідно провести лінеаризацію отриманої системи. Для цього початкову систему рівнянь зобразимо у вигляді

Лінеаризацію  (рис.53.2) проводимо в околі точки  :

       ;    

 

 

 

1 Формула повноїймовірностіі формулаБаєса

Формула повноїймовірності. Нехай подія Аможевідбутисятільки за умовинастанняоднієїізнесуміснихподійBi (i = 1, 2,…, n), якіутворюютьповнугрупу. Тодіймовірністьподії Аподається формулою:

ДеP(Bi) — імовірністьподії умовніймовірностінастанняподії А.

Події якіутворюютьповнугрупуподій і попарно несумісні, називаютьсягіпотезами. Подія Аможевідбутисьодночасно з деякоюізподій Відоміймовірностіподій та умовніймовірності того, щоподія А відбудеться. Відомо, що в результатівипробуванняподія Авідбулась. Потрібно з огляду на цепереоцінитиймовірностігіпотез Для цьогозастосовують формулу Баєса:

2.Інтервальні оцінки.

Щоб мати більш точну та надійну оцінку параметра θ використовують, так звану, інтервальну оцінку.

Інтервальною оцінкою параметру θ називають числовий інтервал , який з заданою ймовірністю γ накриває невідоме значення параметру θ.

Звернемо увагу на те, що межі інтервалу знаходяться за вибірковими даними та є випадковими величинами. Інтервал називають довірчим, а ймовірність γ – довірчою імовірністю або надійністю оцінки. Поняття довірчого інтервалу ввели у 1950 р. Нейман та Пірсон. Також не важко побачити, що величина вибіркового інтервалу залежить від об’єму вибірки (зменшується із зростанням n) та від значення довірчої ймовірності γ (збільшується при наближенні її до 1).

1.Щільність розподілу.

Закон розподілу ймовірностей неперервних випадкових величин може бути заданий також і щільністю розподілу.

Нехай неперервна випадкова величина Х задана функцією розподілу , неперервною і диференційовною. Ймовірність попадання цієї випадкової величини в деякий інтервал знайдемо на підставі співвідношення (4):

тобто як приріст функції розподілу на цьому інтервалі.

Відношення виражає середню ймовірність, яка приходиться на одиницю довжини інтервалу.

Перейшовши до границі при , отримаємо

.

Функція (5)

називається щільністю розподілу неперервної випадкової величини Х , а її графік – кривою розподілу. Іноді вживають термін – диференціальна функція розподілу .

З означення (5) випливає, що . (6)

Використавши формули (4) і (6), виразимо ймовірність попадання випадкової величини в заданий інтервал через щільність розподілу

. (7)

Дійсно, .

Встановимо деякі властивості щільності розподілу:

. є невід’ємною функцією, тобто .

Дійсно, оскільки неспадна функція, то .

. .

Це випливає із формули (6) і властивості для функції розподілу .

Геометричне тлумачення щільності розподілу випливає із формули (7): ймовірність попадання випадкової величини Х обчислюється як площа криволінійної трапеції, обмеженої зверху графіком кривої , знизу – відрізком осі абсцис, зліва і справа - відрізками прямих , .

Властивість геометрично означає, що вся площа, обмежена кривою розподілу і віссю абсцис, дорівнює одиниці.

  1. Формула Бернуллі.

У теорії ймовірності, формула Бернуллі дозволяє обчислити ймовірність успіхів у серії незалежних експериментів.

Якщо ймовірність P настання події A в кожному з випробувань стала, то ймовірність Pn(k) того, що подія A настане k разів в n незалежних випробуваннях дорівнює

або

Умови використання

Якщо відбувається декілька випробувань, причому ймовірність події А в кожному з випробувань не залежить від результатів інших випробувань, то такі випробування називають незалежними відносно події А.

В різних незалежних випробуваннях подія А може мати або різні ймовірності, або одну й ту ж саму ймовірність. Будемо розглядати тільки варіант зі сталою ймовірністю.

Нехай відбувається n незалежних випробувань, в кожному з яких подія А може з'явитися або не з'явитися. Домовимося вважати, що ймовірність події А в кожному з випробувань стала, а саме дорівнює p. Тоді, ймовірність ненастання події А в кожному з випробувань також стала і дорівнює q = 1 - p.

Поставимо собі задачу обчислити ймовірність того, що при n випробуваннях подія А відбудеться рівно k разів і, відповідно, не відбудеться n - k разів. Важливо підкреслити, що не вимагається, щоб подія А повторилась рівно k разів в певній послідовності.

Поставлену задачу можно вирішити за допомогою формули Бернулі.

Виведення формули Бернуллі

Імовірність однієї складної події, яке полягає в тому, що в n випробуваннях подія А настане рівно k разів і не настане n - k разів, за теоремою множення незалежних подій дорівнюєpkqnk. Таких складних подій може бути стільки, скільки можливо скласти комбінацій з n елементів по k елементам, тобто . Так як ці складні події несумісні, то за теоремою додавання ймовірностей несумісних подій шукана ймовірність дорівнює сумі ймовірностей всіх можливих складних подій. Так як імовірності всіх цих складних подій однакові, то шукана ймовірність (поява k разів події А в n випробуваннях) дорівнює ймовірності однієї складної події, помноженої на їх кількість:

Задача 1

Прилад складається з 10 компонент. Надійність (імовірність безвідмовної роботи на протязі часу t) для кожної з компонент дорівнює p. Компоненти виходять з ладу незалежно одна від одної. Знайти ймовірність того, що за час t:

а) відмовить рівно одна компонента

б) відмовлять рівно дві компоненти

Відповіді:

а)

б)

№24

1 Інтегральна теорема Лапласа. Вірогідність того, що в n незалежних випробуваннях, в кожному з яких вірогідність появи події рівна р (0 < р < 1), подія настане не менше k1 разів і не більше k2 разів, приблизно рівна

P(k1;k2)=Φ(x'') - Φ(x')

тут

-функция Лапласа

2. Похибки першого роду і похибки другого роду в математичній статистиці — це ключові поняття завдань перевірки статистичних гіпотез. Проте, дані поняття часто використовуються і в інших областях, коли йдеться про ухвалення «бінарного» рішення (так/ні) на основі якогось критерію (тесту, перевірки, вимірювання), який з деякою вірогідністю може давати помилковий результат.

Нехай дано вибірку з невідомого розподілу , і поставлена бінарна задача перевірки статистичних гіпотез:

де — нульова гіпотеза, а — альтернативна гіпотеза. Припустимо, що заданий статистичний критерій

,

що зіставляє кожній реалізації вибірки одну з гіпотез, які маємо. Тоді можливі чотири ситуації:

  1. Розподіл вибірки відповідає гіпотезі , і вона точно визначена статистичним критерієм, тобто .

  2. Розподіл вибірки відповідає гіпотезі , але вона невірно знехтувана статистичним критерієм, тобто .

  3. Розподіл вибірки відповідає гіпотезі , і вона точно визначена статистичним критерієм, тобто .

  4. Розподіл вибірки відповідає гіпотезі , але вона невірно знехтувана статистичним критерієм, тобто .

У другому і четвертому випадку говорять, що відбулася статистична помилка, і її називають похибкою першого і другого роду відповідно

№23

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]