- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
22.8. Эксцесс
4 - четвертый центральный момент служит для характеристики «эксцесса» распределения, т.е. «островершинности» или «плосковершинности» распределения.
Определение. Эксцессом распределения называют характеристику, которая определяется равенством
Ех=
4 делится на 4, чтобы получить безразмерную характеристику. Число 3 вычитается из отношения потому, что для весьма важного и широкого распространенного в природе нормального распределения (с которым мы познакомимся позже) .
Таким образом, для нормального распределения Ех=0 (и Аs=0)
Если Ех 0, то кривая этого распределения отличается от нормальной кривой.
22.9. Мода. Медиана
Кроме важнейшей из характеристик среднего положения - математического ожидания, иногда применяются и другие характеристики положения, а именно, мода и медиана.
Определение. Модой случайной величины называется ее наибольшее вероятное значение.
Для непрерывной случайной Для дискретной случайной
величины величины
В общем случае М (Х) и М0 не совпадают. Только если распределение симметрично, то М (Х)=М0.
Определение. Медианой случайной величины Х называется такое ее значение Ме, для которого Р (Х<Ме)=Р (Х>Ме), т.к. однако вероятно, окажется ли случайная величина<Ме или>Ме.
Геометрически медиана - это абсцисса точки, в которой площадь под кривой f (х) делится пополам.
Лекция 23. Законы распределения непрерывной случайной величины
Закон равномерного распределения или закон равномерной плотности
При решении практических задач сталкиваются с различными определениями непрерывных случайных величин. Дифференциальные функции f(х) этих распределений называют также законами распределения. Наиболее часто встречаются законы равномерного и нормального определения. Их мы рассмотрим подробно. Существует много других законов распределения: Вейбула, Стьюдента, Фишера, ... .
Определение. Распределение вероятностей называют равномерным, если в интервале, которому принадлежат все возможные значения случайной величины, дифференциальная функция имеет постоянное значение.
Найдем дифференциальную функцию равномерного распределения. Пусть все возможные значения расположены на отрезке [a,b], на котором f(х)=С. Так как Х не принимает значений вне [a, b], то f(х)=0 при x<a и x>b.
Найдем значение постоянной С.
Исходя из свойств f (х), запишем
с (b–а)=1, с=
Итак, закон равномерного распределения имеет вид:
М (Х)=
23.2. Нормальное распределение
Определение. Нормальным называют распределение вероятностей непрерывной случайной величины, которое описывается дифференциальной функцией f(х)= .
Можно убедиться, что выполняется основное свойство дифференциальной функции
Видим, что нормальное распределение определяется двумя параметрами: а и . Покажем, что вероятностный смысл этих параметров таков: а есть математическое ожидание, - среднее квадратическое отклонение.
первый интеграл равен 0, как интеграл с симметричными пределами от нечетной функции. Второй интеграл - интеграл Пуассона.
Это значение получено путем разложения в ряд, поскольку в элементарных функциях он не берется. Итак, М(Х)=а
Д(х)
т.к. оба предела обращаются в 0, поскольку показательная функция стремится к бесконечности быстрее, чем любая степенная.
Итак, Д (Х)=2, (х)=
Нормальный закон распределения (закон Гаусса) играет исключительную роль в теории вероятностей и занимает особое положение. На практике наиболее часто встречается именно нормальный закон распределения случайных величин. Кроме того, этот закон является предельным законом, к которому приближаются другие законы распределения при некоторых типичных условиях.
Можно доказать, что сумма достаточно большого числа независимых (или слабо зависимых) случайных величин, подчиненных каким угодно законам (при соблюдении некоторых весьма не жестких ограничений), приближенно подчиняется нормальному закону.
Введем формулу центральных моментов.
(23.1)
Если k - нечетное, то получили интеграл от нечетной функции в симметричных пределах, он равен нулю.
Следовательно, k=0, если k - нечетное.
Для k - четных:
Это быстрее, чем любая степень z, т.е. первый интеграл равен нулю, в результате получим
(23.2.)
Из (23.1.) можем записать
(23.3.)
Сравнивая (23.2.) и (23.3.), имеем
или (к–1) 2 Мк-2 (23.4.)
Поскольку 2=Д(Х)=2, то 4=322=34. Следовательно, As= ; Е=