Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

9521

.pdf
Скачиваний:
0
Добавлен:
25.11.2023
Размер:
2.81 Mб
Скачать

где последнее равенство записано в силу условия задачи. Отсюда

n5 : 0,2 10 .

2.Математическое ожидание. Непрерывные случайные величины

Определение. Математическим ожиданием непрерывной случайной вели-

чины X с плотностью распределения вероятностей (x) называется следующий интеграл:

M ( X ) x (x) dx .

Свойства математического ожидания непрерывной случайной величины точно такие же, как и у M (X ) дискретной случайной величины.

______________

Пример. Случайная величина X распределена равномерно на отрезке [0;10]. Найти её математическое ожидание.

Решение. По свойству равномерно распределённой на отрезке [0;10] случайной величины её плотность распределения вероятностей равна:

 

 

 

 

 

 

 

0

при x 0 и

 

x 10

,

 

 

 

 

(x)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C

при 0 x 10

 

 

 

 

 

где C 1/10 (попробуйте обосновать это).

 

 

 

 

 

 

 

 

 

 

 

 

 

Тогда по определению математического ожидания непрерывной случайной

величины:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

10

1

 

 

 

 

M ( X ) x (x) dx x 0 dx x

dx

x 0dx

10

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

10

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

 

1

 

1

10

 

 

1 x2

 

1

 

102

 

 

 

 

x

dx

 

x dx

 

100

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

10

10 0

10

2

 

10

 

2

 

0 5 .

 

0

 

 

 

 

 

 

 

 

3. Дисперсия и среднее квадратическое отклонение случайной величины

Начнём сразу с двух определений.

Определение. Дисперсией случайной величины X называется величина:

D( X ) M ( X M ( X ) )2 .

Дисперсия говорит о среднем квадрате отклонения от среднего (математического ожидания).

Определение. Средним квадратическим отклонением случайной величины

X называется величина:

( X ) D( X ) .

Среднее квадратическое отклонение говорит о среднем отклонении от математического ожидания.

Для дискретной случайной величины дисперсия имеет вид:

 

 

 

 

 

 

 

n( )

 

 

 

 

 

 

 

 

D( X ) ( xi M ( X ) )2 .

 

 

 

 

 

 

 

i 1

 

Для непрерывной случайной величины с плотностью распределения вероятно-

стей (x) дисперсия имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D( X ) (x M ( X ) )2 (x) dx .

 

 

 

 

 

 

 

 

 

Примечание. Полезно знать, что для нормально распределенной случайной ве-

личины

 

X

(напомним, что её плотность распределения вероятностей имеет вид

 

 

1

 

 

( x a)2

 

 

 

 

 

2 2

 

 

 

 

 

 

 

 

 

 

(x)

 

 

 

 

) математическое ожидание

X равно "a ", а среднее квадрати-

 

2 e

 

 

 

 

 

 

 

ческое

отклонение X равно " ", т.е. величинам,

входящим в определение самого

закона.

______________

Пример. Найти дисперсию и среднее квадратическое отклонение случайной величины X , заданной следующим законом распределения:

X

0,1

0,01

0

0,01

0,1

P

0,1

0,2

0,4

0,2

0,1

Решение. Сначала найдём математическое ожидание случайной величины X :

M(X ) ( 0,1) 0,1 ( 0,01) 0,2 0 0,4 0,01 0,2 0,1 0,1 0 .

Теперь настала очередь дисперсии:

D( X ) ( 0,1 0)2 0,1 ( 0,01 0)2 0,2 (0 0)2 0,4 (0,01 0)2 0,2 (0,1 0)2 0,1

0,00204

исреднего квадратического отклонения:

(X ) D(X ) 0,00204 0,04517.

Пример. Найти дисперсию и среднее квадратическое отклонение равномерно распределённой на отрезке [0;10] случайной величины X .

Решение. Поскольку математическое ожидание этой случайной величины X мы нашли ранее (M(X ) 5) , а её плотность распределения вероятностей имеет вид:

0

при x 0 и

x 10

,

(x)

 

 

1/10

при 0 x 10

 

то дисперсия её считается следующим образом:

 

 

 

 

0

10

 

 

 

 

 

 

 

 

 

D( X ) (x M ( X ) )2 (x) dx (x 5)2 0 dx

 

(x 5)2 0,1dx (x 5)2 0 dx

 

 

 

 

 

 

0

 

 

 

 

 

10

 

 

 

 

10

 

10

 

 

 

3

 

 

 

3

 

3

 

 

 

0,1

(x 5)2

dx 0,1

(x 5)2

d (x 5) 0,1

(x 5)

 

 

 

10

0,1

5

( 5)

 

 

25

8,333 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

0

 

 

3

 

 

3

 

0

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда среднее квадратическое отклонение для случайной величины X равно:

( X ) D( X ) 8,333 2,89 .

4. Свойства дисперсии

Свойство 1o . Дисперсия постоянной величины равна нулю:

X const C D(X ) D(C) 0.

Доказательство. Действительно, пусть случайная величина X равна C const

с вероятность p 1. Поскольку тогда M (C) C , то по определению дисперсии:

D( X ) M ( X M ( X ) )2 M (C M (C ) )2 M (C C )2 M[02 ] M[0] 0 .

Что и требовалось доказать.

Свойство 2o . Постоянный множитель можно вносить за знак математического ожидания, но в квадрате:

D(k X ) k 2 D( X ) , где k const.

 

Доказательство. Используя определение дисперсии и свойство 2o

математи-

ческого ожидания, получим:

 

D(k X ) M (kX M (kX ) )2 M (k X k M ( X ) )2 M k 2 ( X M ( X ) )2

 

k 2M ( X M ( X ) )2 k 2 D( X ) .

 

Что и требовалось доказать.

Свойство 3o . Дисперсия равна математическому ожиданию квадрата минус квадрат математического ожидания:

D( X ) M ( X )2 (M ( X ) )2 M X 2 M 2 ( X ) .

Доказательство. Используя определение дисперсии и свойство 3o математического ожидания, получим:

D( X ) M ( X M ( X ) )2 M ( X 2 2 X M ( X ) (M ( X ))2 )

M X 2 M 2 X M ( X ) M (M ( X ))2 .

Поскольку математическое ожидание – суть константа, то по свойству 2o , а затем по свойству 1o математического ожидания, приходим к следующему:

D( X ) M X 2 M 2 M ( X ) X M (M ( X ) )2 M X 2 2 M ( X ) M X M ( X ) 2 .

Теперь, приводя подобные, получаем:

D( X ) M X 2 2 M ( X ) M X M ( X ) 2 M X 2 M ( X ) 2

Что и требовалось доказать.

Свойство 4o . Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:

D(X Y) D(X ) D(Y) .

Без доказательства (для заинтересовавшихся студентов это доказательство – повод повысить итоговую оценку).

Свойство 5o . Дисперсия случайной величины ограничивает вероятность её отклонение от своего математического ожидания (неравенство Чебышева П.Л.):

P( X M ( X ) ) D( X ) .

2

Без доказательства.

__________________

Пример. При ракетной стрельбе в «заданный район» среднеквадратическое отклонение от цели имеет значение 20 м . Оценить радиус круга безопасности, где с вероятностью не мене 0,99 ракеты не ложатся.

Решение. Пусть R - координата точки падения по дальности. Тогда вероятность выхода за -зону ограничена (по неравенству Чебышева) следующим:

P( R M (R) ) D(R) ,

2

но она должна быть не больше 0,99. Это будет выполнено, если

D(R)

 

400

0,01,

2

2

 

 

т. е. при 200 м .

Заметим: если предположить, что дальность распределена по нормальному закону, то:

P( R M (R) ) 1 2Ф( ) 0,01 ,

а значит Ф(

) 0,495 , или при

51,6 м . Как видим, знание закона распределения

 

 

 

существенно уточняет круг безопасности!

__________________

На рис. 8.1 показан геометрический смысл основных числовых характеристик случайной величины.

Рис. 8.1. Геометрическая иллюстрация понятий математического ожидания М ( X ) mх

моды mod

X

и дисперсии D( X ) 2

случайной величины

 

x

 

Так, математическое ожидание М ( X ) mх

характеризует центр распределения

или среднее ожидаемое значение величины и геометрически оно изображается как координата центра тяжести фигуры, образованной осью х и линией функции (х) . Дисперсия D( X ) 2x и среднее квадратическое отклонение ( X ) x характеризуют

средний ожидаемый разброс (широту, изменчивость) значений величины возле математического ожидания. Наиболее вероятное значение случайной величины явля-

ется ее мода mod X , оно соответствует максимуму функции (х) .

5. Моменты распределения случайной величины

Для описания распределения случайной величины иногда недостаточно только знания математического ожидания и дисперсии. Для более полного описания необходимо ввести еще ряд числовых характеристик распределения, и такими характеристиками могут быть моменты высших порядков.

А именно, начальный теоретический момент порядка k

Аk ( X ) xk (x) dx

и центральный теоретический момент порядка k

Вk ( X ) (x M ( X ) )k (x) dx .

Можно заметить, что

А

0

( X ) 1

,

А

( X ) М ( Х ) ,

А

2

(X ) М (Х 2 ) , а так же

В

0

( X ) 1

,

 

 

 

 

1

 

 

 

 

 

 

В1 ( X ) 0 , В 2 ( X ) D( Х ) .

Втехнических приложениях часто используются моменты 3-го и 4-го порядка, где они (безразмерные) имеют специальные названия:

А

B3

( X )

 

- асимметрия случайной величины,

 

 

 

 

 

s

3

( X )

 

 

 

 

 

Es 3

B4

( X )

- эксцесс случайной величины.

4

( X )

 

 

 

 

Асимметрия случайной величины равна нулю у случайной величины симметричной относительно своего математического ожидания, а ее значение характеризует степень асиметрии ее распределения. Эксцесс равен нулю у нормальной случайной величины, а его значение характеризует степень отклонения от нормального закона распределения. Смысловое значение асиметрии («скошенности») и эксцесса («островершинности») иллюстрируется на рис.8.2.

Рис. 8.2. Геометрическая иллюстрация понятий асимметрии Аs и эксцесса Es

Лекция № 9

Закон больших чисел

Закон больших чисел (ЗБЧ) представляет собой ситуацию, когда совокупное действие большого числа случайных факторов приводит к результату, независящему от случая. Все основные формулы и выводы следующего раздела этих лекций (математической статистики) основаны на результатах ЗБЧ.

Мы рассмотрим здесь только некоторые важные теоремы, являющиеся яркими представителями в соответствующих областях и применяемые ниже, хотя число по-

хожих теорем больше сотни (при самых различных предположениях, подходящих для разнообразных жизненных ситуаций).

1. Теорема Чебышева

Прежде всего, посмотрим (приводим без доказательства) на теорему П.Л. Чебышева (1821 – 1894). Он унаследовал крупное, процветающее поместье. Но, чтобы составить состояние своим сёстрам, необходимое как приданое (надо сказать, что в то время состояние переходило лишь по мужской линии), он играл на бирже. И очень успешно (и сумел-таки составить выгодную компанию своим сестрам и выдать их замуж), а в игре ему помогали его научные результаты!

Теорема Чебышева. Пусть:

а) X1, X 2 , , X n - независимые случайные величины; б) существуют M ( X i ) и D( X i ) для всех i 1,2, ,n ;

в) D( X i ) C (при некотором положительном C ) для всех i 1,2, ,n . Тогда:

 

 

 

 

 

 

X

 

 

 

 

 

X

1

X

2

n

lim

P

 

 

 

 

 

 

 

 

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M ( X

) M ( X

) M ( X

)

 

 

 

 

 

1

2

n

 

 

1

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

при любом 0 .

Следствие. Если независимые случайные величины X1, X 2 , , X n имеют одинаковые математические ожидания

M ( X i ) a , i 1,2, ,n ,

и

 

 

D( X i ) C , i 1,2, ,n ,

 

то

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

1

X

2

X

n

 

 

 

 

 

 

 

lim

P

 

 

 

 

a

 

1.

 

 

 

 

 

n

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

То есть (в общем случае) среднее арифметическое в пределе не отличается от математического ожидания (с вероятностью 1)!

Пример. Посмотрим на ситуацию в страховом бизнесе. Пусть X i - убыток

какого-то страхователя (того, кто страхуется) при наступлении страхового случая. Понятно, что все эти убытки имеют примерно одно и же математическое ожидание:

M ( X i ) a .

Тогда (по следствию из теоремы Чебышева) средний убыток всех страхователей:

X1 X 2 X n

n

есть величина постоянная!

2. Центральная предельная теорема

Это на самом деле группа теорем, устанавливающих связь с нормальным законом распределения величины X с функцией плотности распределения вероятно-

сти (рис. 9.1):

(x)

 

1

 

 

( x a)2

,

 

 

 

2 2

 

 

 

e

 

 

 

2

 

 

где a M(X ) , 2 D( X ) параметры распределения.

Рис. 9.1. Плотность распределения нормальной случайной величины

Приведём формулировку одной из таких теорем (приводим без доказательства).

 

 

Теорема Ляпунова. Если:

 

 

 

 

 

а) X1, X 2 , , X n - независимые случайные величины;

 

б) существуют

M ( X

i

) a

и D( X

i

) 2 для всех i 1,2, ,n ;

 

 

 

 

 

 

 

 

i

 

 

 

 

 

i

 

в) существуют величины M

 

X i ai

 

3 mi и

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

mi

 

 

 

 

 

 

 

 

 

 

 

n

 

lim

 

i 1

 

 

0

то закон распределения величины Yn Xi

(при n ) неограни-

 

 

 

3 / 2

n

n

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

i2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

ченно приближается к нормальному закону с математическим ожиданием ai и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

дисперсией i2 , т.е.:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Yn

ai

 

 

 

 

 

 

 

z

 

 

t 2

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

1

 

 

 

 

 

 

1

(z) ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 dt

 

 

 

 

 

 

lim P

 

 

 

 

 

 

 

z

 

 

 

 

 

e

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

n

2

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

z

t 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

e

 

 

где (z)

 

 

2 dt есть известная нам функция Лапласа.

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Смысл теоремы состоит в том, что чем сложней случайная величина, чем больше факторов, влияющих на ее значение, тем ближе она к нормально распределенной случайной величине.

Следствие. Если независимые случайные величины X1, X 2 , , X n имеют одинаковые математические ожидания и дисперсии

M ( X i ) a , D( X i ) 2 ,

i 1,2, ,n

и существуют величины M

 

X i ai

 

3

m , то закон распределения величины

 

 

 

 

 

 

 

 

1

n

 

 

 

 

 

 

Yn

 

Xi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n i 1

 

при n неограниченно приближается к нормальному закону с теми же параметрами a и .

________________________

Пример. Пусть X i - потребление электроэнергии жильцами квартиры номер i

в многоквартирном, многоэтажном доме. Тогда по теореме Чебышева среднее потребление:

 

 

n

 

 

 

 

X i

 

a ,

 

i 1

 

 

 

 

n

 

 

 

а по теореме Ляпунова величина:

 

 

 

 

 

 

 

1

 

n

Yn

 

 

Xi

 

 

 

 

n i 1

является случайной величиной, имеющей нормальный закон распределения (т.е. будет отличаться от величины a , как нормально распределённая случайная величина).

________________________

Пример. Представим величину Бернулли Yn (количество наступления события

A в серии из n испытаний) в виде суммы независимых величин, так называемых «индикаторов» каждого из испытаний:

 

 

 

 

 

n

 

 

 

Yn

X i .

 

 

 

 

 

k 1

Здесь X i - случайные величины - «индикаторы испытания»:

 

 

 

 

 

 

 

 

X i

 

1

 

0

 

 

 

 

 

 

 

 

 

pi

 

p

 

q 1 p

 

М ( Xi ) p 1 q 0 p ,

D( X i ) p 12 q 02 p2 pq .

Тогда по свойствам математического ожидания и дисперсии случайная величина Бернулли X n будет иметь следующие параметры:

n

n

 

 

М (Yn ) М ( X i ) np ,

D(Yn ) D( X i ) npq , (Yn ) npq ,

i 1

i 1

а в соответствии с центральной предельной теоремой при большом количестве испытаний ( n ), она будет иметь распределение, близкое к нормальному закону, с параметрами a np и npq :

 

1

Y

np

F (Y )

 

 

n

 

 

.

 

 

 

 

n

2

 

 

npq

 

 

 

 

 

 

 

3. Теорема Бернулли

Важнейшее методологическое значение для теории вероятностей и математической статистики имеет следующая теорема о частоте события. В серии испытаний Бернулли частоту события определим как:

n ( A) Ynn .

Теорема Бернулли.

Если количество испытаний велико, то частота события в испытании является нормальной случайной величиной с математическим ожиданием, равным вероятности события.

Действительно, поскольку частота события n ( A) в силу центральной теоремы

при n является величиной нормальной, а в силу основных свойств математического ожидания и дисперсии имеет математическое ожидание М ( n ) p и дис-

персию D( n ) pq / n .

Всоответствии с формулами Муавра – Лапласа, величина отклонения частоты

ивероятности события имеет следующую вероятность:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

P(

 

n

p

) 2

 

 

2

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

pq

 

для любого 0 .

Таким образом, с ростом количества испытаний частота события стремится к его вероятности.

МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

Лекция № 10

Выборочный метод

Для установления закономерностей, которым подчинены случайные события и случайные величины, теория вероятности, как и любая другая наука, обращается к опыту – наблюдениям, измерениям, экспериментам. Результаты наблюдений за случайными величинами объединяются в наборы статистических данных. Задачей математической статистики, раздела современной теории вероятностей, является разработка методов сбора и обработки статистических данных, а также их анализа с целью установления законов распределения наблюдаемых случайных величин [8, 9].

1. Генеральная и выборочная совокупность данных

Генеральной совокупностью является набор всех мыслимых статистических данных, при наблюдениях случайной величины:

хГ {х1 , х2 , х3 ,......, хN } {xi ; i 1, N}.

Наблюдаемая случайная величина Х называется признаком или фактором выборки. Генеральная совокупность есть статистический аналог случайной величины, ее объем N обычно велик, поэтому из нее выбирается часть данных, называемая выборочной совокупностью или просто выборкой

хB {х1 , х2 , х3 ,......, хn } {xi ; i 1, n} ,

хВ хГ , n N .

Использование выборки для построения закономерностей, которым подчинена наблюдаемая случайная величина, позволяет избежать ее сплошного (массового) наблюдения, что часто бывает ресурсоемким процессом, а то и просто невозможным. Однако выборка должна удовлетворять следующим основным требованиям:

- выборка должна быть представительной, т.е. сохранять в себе пропорции генеральной совокупности,

- объем выборки должен быть небольшим, но достаточным для того, чтобы полученные результаты ее анализа обладали необходимой степенью надежности. В табл. 1 приводятся примеры генеральных и выборочных совокупностей.

 

Таблица 1

Генеральная совокупность

Выборочная совокупность

 

 

 

 

Данные переписи населения стра-

Данные опроса случайных прохо-

 

ны по разным признакам

жих по тем же признакам

 

Времена работы электроламп, вы-

Лабораторные данные о времени

 

пущенных заводом

работы испытанных электроламп

 

Отметим, что в более строгом смысле выборку можно представить как много-

мерную случайную величину Х B {Х1 , Х 2 , Х 3 ,......, Х n } {Х i ; i 1, n}, у которой все компоненты Х i распределены одинаково и по закону распределения наблюдае-

мой случайной величины. В этом смысле выборочные значения хB есть одна из ре-

ализаций величины Х В .

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]