- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
24.4. Условные законы распределения составляющих системы дискретных случайных величин
Ранее мы установили, что если события А и В зависимы, то Р(АВ)=Р(А)РА (В),
или РА (В)= (24.1)
Аналогичное положение имеет место и для случайных величин.
Чтобы охарактеризовать зависимость между составляющими двухмерной величины, введем понятие условного распределения.
Пусть (Х, Y) - дискретная двухмерная случайная величина и возможные значения ее составляющих х1, х2, ..., хn ; у1, у2, ... уm.
Теорема. Для того, чтобы случайные величины Х и Y были независимыми, необходимо и достаточно, чтобы интегральная функция распределения системы (Х,Y) была равна произведению интегральных функций составляющих: F(х, у)=Fх (х)Fу (у).
Следствие. Для того, чтобы непрерывные случайные величины Х и Y были независимыми, необходимо и достаточно, чтобы дифференциальная функция системы (Х, Y) была равна произведению дифференциальных функций составляющих: f(х, у)=fх (х) fу (у).
24.5. Числовые характеристики системы двух случайных величин
Ранее мы вели числовые характеристики одномерной случайной величины Х - начальные и центральные моменты различных порядков. Важнейшими из них являются математическое ожидание mх и дисперсия Дх . Аналогичные числовые характеристики можно ввести и для системы двух случайных величин (Х, Y).
Определение. Начальным моментом порядка k, s системы (Х, Y) называется математическое ожидание произведения Хk на Ys
k,s=М(ХkYs) (24.2)
Определение. Центральным моментом порядка k, s системы (Х, Y) называется математическое ожидание произведения k-й и s-й степени отклонений соответствующих величин (центральных величин).
k,s=[(X–mx)k (Y–my)s] (24.3)
Если обозначить центрированные величины: Х–mх= , Y–my= , то
k,s= ( k s) (24.4)
Для дискретных случайных величин:
k,s=
Мk,s=
Помимо чисел k, s, характеризующих порядок момента по отношению к составляющим, рассматривают суммарный порядок момента k+s соответственно суммарному порядку k+s моменты классифицируются на первые, вторые, ...
Первые начальные моменты:
1, 0=М (Х1 Y0)=М (Х)=mх,
1, 0=М (Х0 Y1)=М (Y)=mу.
Точка с координатами (mх, mу) характеризует среднее положение системы.
Вторые центральные моменты:
2, 0=( 2 0)=( 2)=[(X–mx)2]=Дх
2, 0=( 0 2)=( 2)=[(Y–my)2]=Ду
Дх и Ду характеризуют меру рассеяния случайных точек относительно математического ожидания в направлении осей Ох и Оу. Таким образом, основные числовые характеристики вычисляются по формулам:
а) для составляющих дискретных величин
mx=
my=
Дx=
Ду=
Особую роль играет второй смешанный центральный момент 1,1=М ( ), т.е. математическое ожидание произведения центрованных величин.
Его называют корреляционным моментом (иначе - моментом связи или коэффициентом ковариации и обозначают Кху,
(иногда обозначают cov (Х, Y)). Кху=[(x–mx) (y–my)].
Для дискретной случайной величины
Кху=
Корреляционный момент служит для характеристики связи между величинами Х и Y, а именно:
Теорема. Корреляционный момент двух независимых величин равен 0. (Доказательство теоремы на стр. 178 у Гмурмана). Корреляционный момент двух независимых величин 0 или=0. Корреляционный момент характеризует не только зависимость величин, но и их рассеяние. Кроме того, его числовое значение зависит от размерности величин Х и Y.
Например, пусть Х и Y были измерены в см и Кху=2 см2.
Если же измерить Х и Y в мм, то Кху=200 мм2. Поэтому проводить сравнения различных систем случайных величин по корреляционному моменту затруднительно. Поэтому вводят новую числовую характеристику (безразмерную) - коэффициент корреляции.
Определение. Коэффициентом корреляции случайных величин Х и Y называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин: