- •1.Случайные события. Действия над событиями.
- •2.Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •4. Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •9. Функция распределения вероятностей и её свойства.
- •10. Плотность распределения вероятностей и её свойства.
- •11. Математическое ожидание и его свойства.
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты
- •15. Основные дискретные распределения случайных величин.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26. Эмпирическая функция распределения.
- •27. Гистограмма и полигон.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •33. Распределение , Стьюдента и Фишера.
- •1. Распределение (хи-квадрат).
- •Распределение Фишера.
- •34 Проверка статистических гипотез.
- •36. Критерий согласия Пирсона.
- •38. Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок.
- •40. Дисперсионный анализ.
- •41. Парная регрессия.
- •42. Парный коэффициент корреляции, его свойства.
- •43. Проверка гипотез о достоверности коэффициента корреляции.
- •44. Нелинейная парная регрессия
36. Критерий согласия Пирсона.
Критерий проверки гипотез о предполагаемом виде распределения называется критерием согласия. Наиболее распространенным из них является критерий согласия Пирсона или критерий .
Пусть вид распределения изучаемого признака Х неизвестен и пусть есть основание предполагать, что он распределен по некоторой функции теоретического распределения . Обозначим
На основании данных выборки построим интервальный вариационный ряд. Для этого найдем:
1. и размах варьирования .
Весь интервал наблюдаемых значений Х разделим на k частичных интервалов одинаковой длины h=R/k k=3,32lgn Левую границу первого интервала возьмем так чтобы хмин попало внутрь интервала z0=xmin- h/2 тогда правая гр последнего интервала может быть zk=xmax +h/2
В результате получим следующий интервал z0<z1<z2<….<zk 2. Подсчитаем число вариант попавших в i-ый интервал 3. Затем для каждого интервала вычислим вероятности попадания случайной величины в построенные интервалы исходя из функции распределения .
4. Теоретические частоты вычислим по формуле . Критерий Пирсона позволяет ответить на вопрос, значимо ли различаются теоретические и эмпирические частоты. В качестве критерия проверки нулевой гипотезы принимается величина
.
Можно доказать, что при закон распределения случайной величины стремится к закону распределения с -степенями свободы =k-l-1, l-число параметров предлогаемого распр. Поэтому случайная величина обозначается через , а сам критерий называют критерием согласия «хи-квадрат».
Правило: Для того чтобы, при заданном уровне значимости проверить гипотезу H0: генеральная совокупность распределена по закону , надо сначала вычислить теоретические частоты, а затем наблюдаемое значение критерия
и по таблице критических точек распределения , по заданному уровню значимости, и числу степеней свободы , найти критическую точку .
Если , то нет оснований отвергнуть H0, следовательно, признак Х распределен по закону . Если , то H0 отвергаем и принимаем Н1, следовательно, признак Х распределен по другому законную. Замечание. Для того чтобы эмперич ф-ция распр лучше приближалась к теоретич число интервалов к должно быть большим однако построение критерия хи-квадрат основано на немалых числах ni.Если некоторые частоты малы <5то соседние интервалы объединяються и соответствующие частоты складываются в этом случае число степеней свободы уменьшается на 1.
37. Вычисление теоретических частот для нормального распределения.Пусть имеется выборка объема n, и есть основание предположить, что она имеет нормальное распределение. Для вычисления теоретических частот необходимо выполнить действия, указанные ниже.
1.по данным выборки построить интервальный вариационный ряд Для этого весь интервал наблюдаемых значений Х надо разделитьь на k частичных интервалов (хi,x i+1) одинаковой длины. Находим максимальное и минимальные значения значение выборки, размах варьирования. Для определения количества интервалов группировки k воспользуемся формулой Стерджеса: . Тогда ширину частичных интервалов находим из формулы .Число k округляется в сторону наибольшего целого числа. Интервалы строятся таким образом, чтобы и входили внутрь интервалов. Для этого в качестве левой границы первого интервала можно взять , а в качестве правой границы последнего интервала . В качестве частоты вариационного ряда записывают число наблюдений, попавших в каждый промежуток.
2. Для того, чтобы получить оценки параметров и перейдем к дискретному ряду, взяв в качестве варианты Х ряда середины построенных интервалов . В итоге получим последовательность равноотстоящих вариант и соответствующих им частот:
|
* |
* |
… |
* |
|
|
|
… |
|
, или .
3. Нормируем случайную величину Х, перейдя к величинам
и , .
Причем наименьшее значение будем считать равным , а наибольшее значение - , так как теоретическое нормальное распределение принимает значения на числовой оси.
4. Вычислим теоретические вероятности pi попадания Х в интервалы : ,
где , - функция Лапласа.
5. Рассчитаем теоретические частоты . Замечания 1Чтобы эмпирическая функция распределения лучше описывала теоретическую нужно, чтобы число интервалов было больше. 2Для выполнения предельной теоремы нужно, чтобы эмпирические частоты не должны быть маленькими (>5).3Если какой-то интервал содержит малые значения mi, то соседние интервалы объединяются, а частоты складываются. Тогда число степеней свободы критерия 2 уменьшается на 1.