- •1. Основные понятия
- •Основные определения
- •Событие, вероятность события (частота события)
- •2. Случайные величины и законы распределения
- •Числовые характеристики случайных величин
- •Моменты для непрерывных величин:
- •2.2. Законы распределения случайной величины
- •I f(X) c α β X X I) равномерный
- •2.3. Определение законов распределения случайных величин
- •3. Системы случайных величин
- •3.1. Числовые характеристики системы двух случайных величин
- •3.2. Числовые характеристики системы нескольких случайных величин
- •Распределение Пуассона:
- •Л огнормальный закон распределения:
- •Нормальный закон распределения:
- •4.2. Распознавание в многомерном пространстве
- •Платежная матрица:
- •4.3. Параметрические методы распознавания
- •5. Функции случайных величин
- •Теорема сложения математических ожиданий
- •Теорема умножения математических ожиданий.
- •И вообще для некоррелированных случайных величин:
- •Для нескольких случайных величин:
- •6. Случайные функции
- •6.1. Законы распределения случайной величины
- •6.2. Корреляционная функция и ее свойства
- •Основные свойства корреляционной функции:
- •6.3. Пример случайной функции
- •Математическое ожидание случайной функции X(t) будет равно
- •Дисперсия случайной функции X(t) равна:
- •6.4.Cпектральные плотности
- •Введем понятие «плотность» дисперсии
- •На рис.6.2 показана спектральная плотность
- •Преобразование случайной функции линейной системой
- •Применение теории случайных функций к задачам анализа и синтеза
- •7. Прикладные задачи теории вероятности
- •7.1. Определение статистических характеристик
- •7.2. Нахождение функциональной зависимости
- •С оответственно:
- •7 .3. Линейная функция многих переменных Вводится новый набор переменных
- •Список литературы
- •Введение 3
2.2. Законы распределения случайной величины
I )
I f(X) c α β X X I) равномерный
X
Д ля равномерного закона:
Ш )Закон Пуассона (рис. 2.4) - распределение для величины имеющее только целое значение : 0,1,2,3…m
Для закона Пуассона:
где a - параметр;
m - значение целочисленной величины в ряду.
Рис. 2.4. Пуассоновский закон распределения
Н ормальный закон (рис. 2.5) распределения Гаусса
Это предельный закон, к которому стремятся многие законы распределения. Закон верен для суммы равномерно малых случайных слагаемых.
Сумма достаточно большого числа случайных величин (при любом законе распределения) имеет нормальный закон распределения.
(Сумма элементарных ошибок измерения, ошибки стрельбы при анализе многих составляющих и др.)
Основное ограничение:
Все составляющие должны быть приблизительно равны и достаточно малы.
С нормальным законом сравнивают многие, заранее неизвестные законы распределения по соответствующим критериям.
mx - m m2 m2 x
Рис. 2.6. Нормальный закон при различных mx
б) При изменении x изменяется форма кривой (рис. 2.7)
в) Для нормального закона распределения:
О тсюда следует что, все нечетные центральные моменты равны нулю:
а для нечетных моментов:
(S-1)!! - это произведение всех чисел от 1 до (S-1).
(обычно факторная от 0).
Д ля нормального закона f(x):
З ная законы распределения f(x) можно вычислять (решать) различные задачи :
попадание случайной величины в заданный участок;
попадание случайной величины на заданную площадь, определенную кривой заданной формы.
Часто используются округленными значения вероятностей и тогда для интервала:
mx x F(x) = 0,68 (0,682) 0,7;
mx 2x F(x) = 0,95 (0,956) 0,96;
mx 3x F(x) = 0,98 (0,985) 1.
Это т.н. правило трех сигм! - фактически все попадает в интервал 3x .
2.3. Определение законов распределения случайных величин
Математическая статистика - раздел теории вероятностей , который специально занимается методами регистрации и анализа экспериментальных данных.
Задача 1 - определение закона распределения случайных величин.
Задача 2 - проверка гипотез.
Задача 3 - нахождение неизвестных параметров распределения.
Все эти задачи связаны, как правило, с двумя обстоятельствами:
ошибки отдельных измерений;
недостаточное количество наблюдателей.
Поэтому, вместо искомых статистических характеристик разработаны методы определения их приближенных значений - т.н. "ОЦЕНОК" и соответственно погрешность:
Часто эти характеристики называются характеристиками "выборки из генеральной совокупности".
Выравнивание статистических рядов - подобрать теоретическую fтеор(x) наиболее близкую к реальным наблюдениям.
Степень близости оценивается по специальным критериям.
Например, метод кривых Пирсона гарантирует совпадание первых четырех моментов распределения (обычно моменты более высокого порядка имеют низкую точность распределения).
Э той же цели служит критерий Х2 Пирсона, когда в качестве меры рассогласования выбирают:
где Pi* - теоретическое значение;
Pi - эксперементальное значение.
Составлены специальные таблицы.
Х2 и если Х2 << Х2табл (при соответствующей вероятности) принимается гипотеза о данном законе f(x), а если Х2 > Х2табл - отвергается.