- •Введение
- •1. Вопросы теории вероятностей и математической статистики
- •Статистические признаки. Распределение качественных и количественных признаков
- •1.2. Понятия генеральной совокупности и выборочных характеристик
- •1.3. Статистические оценки параметров генеральной совокупности
- •1.3.1. Точечные оценки и их свойства
- •1.3.2. Интервальные оценки
- •1.4. Распределение выборочных характеристик
- •1.4.1. Законы распределения, применяемые при выборочном контроле
- •1.4.2. Нормальное распределение
- •1.4.3. Распределение хи-квадрат
- •1.4.4. Распределение Стьюдента
- •1.4.5. Распределение Фишера (f-распределение)
- •1.4.6. Биномиальное распределение
- •1.4.7. Распределение Пуассона
- •1.4.8. Гипергеометрическое распределение
- •1.5. Теория выборочного контроля
- •1.5.1. Принцип практической уверенности. Формулировка закона больших чисел
- •1.5.2. Неравенство Маркова и Чебышева
- •1.5.3. Неравенство Чебышева
- •1.5.4. Теорема Чебышева (частный случай)
- •1.5.5. Теорема Чебышева (общий случай)
- •1.5.6. Теорема Бернулли
- •1.5.7. Теорема Пуассона
- •1.6. Проверка статистических гипотез
- •2. Статистический приемочный контроль
- •2.1.Способы представления продукции на контроль
- •2.2.Методы отбора единиц продукции в выборку
- •Планы статистического приемочного контроля
- •Виды планов контроля
- •2.3.2. Уровни дефектности
- •2.3.3. Оперативная характеристика плана контроля
- •2.3.4. Одноступенчатые планы контроля
- •2.3.5. Контроль с разбраковыванием
- •2.3.6. Многоступенчатый контроль
- •2.3.7. Последовательный контроль
- •Принципы применения стандартов на статистический приемочный контроль по альтернативному признаку
- •Статистический приемочный контроль по количественному признаку
- •Планы непрерывного выборочного контроля
- •2.6.1.Общие положения
- •2.6.2. Одностадийные планы
- •2.6.3. Многостадийные планы
- •Система экономических планов
- •Заключение
- •Библиографический список
- •Оглавление
- •2.3.7. Последовательный контроль 82
- •394026 Воронеж, Московский просп., 14
1.5.2. Неравенство Маркова и Чебышева
Доказательство ЗБЧ основано на неравенстве Чебышева. Неравенство Маркова в литературе называется леммой Маркова или иногда леммой Чебышева, и является частным случаем неравенства Чебышева.
Лемма Маркова. Если случайная величина Х не принимает отрицательных значений, то для любого положительного числа справедливо неравенство
. (1.103)
Доказательство.
1) Пусть Х – дискретная случайная величина, заданная рядом распределения, причем .
Все значения СВ разобьем на две группы. К первой группе отнесем значения СВ, меньшие α (пусть это будут х1, х2, …, хn), а ко второй группе отнесем все остальные значения СВ, т.е. большие либо равные α (хk+1, xk+2, …, xn).
Как известно, математическое ожидание дискретной случайной величины Х задается формулой:
. (1.104)
Отбросим в правой части формулы первые К слагаемых. Так как pi>0, xi≥0 и, кроме того, при xi≥α, i≥k+1, будет иметь место следующее неравенство:
. (1.105)
Из выражения
(1.106)
следует, что
. (1.107)
Разделим обе части последнего неравенства на α и получим неравенство (1.103).
2) Пусть теперь Х – непрерывная случайная величина. Так как по условию Х не принимает отрицательных значений, то ее плотность вероятности f(x)=0 при всех x<0. Поэтому
(1.108)
И опять делим на α, получаем неравенство (1.103). Лемма доказана.
Замечание. События x<α и x≥α – противоположные, поэтому, используя неравенство (1.103), получаем
. (1.109)
1.5.3. Неравенство Чебышева
Вероятность того, что отклонение случайной величины Х от ее математического ожидания по абсолютной величине будет меньше данного положительного числа ε, ограничена снизу величиной , т.е.
. (1.110)
Доказательство.
Рассмотрим случайную величину ((Х-М(Х))2. Она не принимает отрицательных значений, поэтому можно применить к ней лемму Маркова, а точнее, неравенство (1.109), полагая в нем α=ε2:
. (1.111)
По определению дисперсии
, (1.112)
а вероятности неравенства и - совпадают (равны), поэтому неравенство (1.5.9) принимает вид (1.110).
Замечание 1. Если случайная величина Х непрерывна, то
,
поэтому в левой части неравенства (1.103) вместо можно писать , а в левой части неравенства (1.110) вместо можно писать . Однако для дискретных случайных величин замена неправомерна.
Замечание 2. Из неравенства (1.110) переходом к противоположному событию можно получить неравенство
. (1.113)
1.5.4. Теорема Чебышева (частный случай)
Эта теорема устанавливает связь в количественной форме между средней арифметической наблюдаемых значений случайной величины Х и ее математического ожидания М(Х)=а.
Она формулируется следующим образом.
Теорема. При неограниченном увеличении числа n независимых испытаний средняя арифметическая наблюдаемых значений случайной величины сходится по вероятности к ее математическому ожиданию, т.е. для любого положительного числа ε
. (1.114)
Доказательство.
Заметим, что можно рассматривать Х1, Х2, …, Хn не только как наблюдаемые в соответствующих независимых опытах значения случайной величины Х, но и как независимые случайные величины, имеющие одинаковое распределение (такое же, как у Х), в частности, одинаковое математическое ожидание а=М(Х) и дисперсию D(X). По свойствам математического ожидания и дисперсии имеем:
(1.115)
(1.116)
Применим к случайной величине х – неравенство Чебышева (1.110)
. (1.117)
Подставляя в это неравенство значения и , получим
. (1.118)
Если теперь в полученном неравенстве взять сколь угодно малое положительное ε и неограниченно увеличить n, то получим
, (1.119)
что и доказывает теорему Чебышева.
Из рассмотренной теоремы вытекает важный практический вывод. Он состоит в том, что неизвестное значение математического ожидания случайной величины можно заменить средним арифметическим значением, полученным по достаточно большому числу опытов. При этом, чем больше проведено опытов для вычисления, тем с большей вероятностью (надежностью) можно ожидать, что связанная с этой заменой ошибка не превзойдет заданную величину ε.
Кроме того, при известном значении дисперсии D(X), используя неравенство (1.110), можно решать ряд других практических задач. Например, по заданным значениям вероятности (надежности) и максимальной допустимой ошибке ε, определить число необходимых опытов n; или по заданным Р и n определить ε; или, наконец, по заданным ε и n определить границу вероятности события .