Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Солодовников В.В. Статистическая динамика линейных систем автоматического управления

.pdf
Скачиваний:
11
Добавлен:
30.10.2023
Размер:
19.04 Mб
Скачать
и!х)

100

ВСПОМОГАТЕЛЬНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ

[ГЛ. II

Так, например, для нормального распределения

(2.34)

или

Ъ а \ с , : 3 ^ : 4 : 5 .

(2.35)

Относительное положение характеристик распределения на кри­ вой плотности вероятности в случае нормального распределения

Рис. 2.8.

показано на рис. 2.9. На графике указаны также ординаты, соответ­ ствующие этим особым значениям х и выраженные в долях максимальной ординаты w 0.

Нормальное распределение имеет исключительно большое значение в математической статистике. Следует заметить, что долгое время считалось даже едва ли не аксиомой, что прак­ тически все статистические распреде­ ления должны приближаться к нор­ мальному распределению как к идеаль­ ной предельной форме, если только мы можем располагать большим чис­ лом достаточно точных наблюдений,

Хотя такая точка зрения и преувеличивает роль нормального распределения, однако несомненно, что в большом числе важных

81 РАСПРЕДЕЛЕНИЕ ПУАССОНА 101

приложений встречаются распределения, по крайней мере, приблизи­ тельно нормальные.

Анализ условий возникновения нормального распределения показы­ вает, что оно имеет место во всех тех случаях, когда случайная величина характеризует собой суммарный эффект большого числа независимых причин. Поэтому нормальное распределение весьма часто встречается на практике.

8. Распределение Пуассона

Рассмотрим теперь еще один часто встречающийся тип распре­ деления, называемый распределением Пуассона.

Примерами случайных процессов, характеризуемых распределением Пуассона, могут служить: дробовой эффект в электронных лампах, некоторые случаи передачи телеграфных сигналов, процесс стрельбы, характеризуемый числом попаданий на отрезке заданной длины, и т. д.

Для того чтобы пояснить, каким образом получается распределе­

ние

Пуассона,

остановимся,

например, на явлении дробового эффекта.

Этот

эффект,

как известно, вызывается флюктуациями потока электро­

нов

с катода

на анод. Этот

случайный процесс можно проанализиро­

вать следующим образом. Будем считать число электронов, попадаю­ щих с катода на анод в течение большого числа п достаточно продолжительных промежутков времени Т. В результате мы получим

последовательность чисел

N z, . . . .

N n.

 

 

 

 

При увеличении п и при постоянном значении Т частота события,

заключающегося

в том, что число N

имеет

определенное

значение N k,

будет

стремиться

 

к определенному

пределу. Вероятность того,

что

в результате какого-либо отдельного

эксперимента

получится

N k

электронов, равна

 

 

 

 

 

 

 

 

 

 

 

 

 

P ( N k) =

lim

п

 

 

 

 

 

 

 

 

 

 

 

со

 

 

 

 

 

где

— число

промежутков

Т,

для

которых

наблюденное число

электронов равнялось N k.

 

 

 

 

 

 

 

 

 

Введем теперь следующее допущение. Предположим, что вероят­

ность попадания электрона на анод в промежуток

времени (t, t -f- Д^)

равна

(хДА причем

р ,Д /< ^ 1 ,

и что

эта

вероятность

не зависит

от

протекания событий вне пределов указанного интервала.

Тогда можно

показать, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р №

= Щ £ ~ е - * т.

 

 

(2.36)

Действительно,

разделим

промежуток

(О, Т)

на

г

интервалов

Д^ (р* Д^ < d 1). Вероятность того,

что

ни один электрон не попадет

на анод в течение

первого интервала, равна (1 — р,Д£). Вероятность

102

ВСПОМОГАТЕЛЬНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ

[ГЛ. II

того,

что

ни один

электрон

не попадет

на

анод в течение

первого

и второго

интервалов,

равна

(1 — р. Д/)2.

Вероятность того,

что ни

один

электрон не попадет на анод в течение

любого из г интервалов,

равна

(1 — р kt)r.

Т

 

 

 

 

 

Заменяя г через

и положив Д /->0,

получим:

 

= 1 - р Г + ^ - р 2 Г 2 - . . . = е - * т .

Точно так же можно показать, что вероятность попадания одного

электрона

на анод будет равна (рГ) e~v-T, вероятность

попадания двух

электронов

(рЛ 3

г

 

 

 

 

 

 

2!

е~^‘ и т. д.

 

 

 

 

 

 

Распределение

вида (2.36) называется

распределением

Пуассона.

В качестве другого примера,

приводящего к распределению Пуас­

сона, рассмотрим

функцию x{t),

которая

может принимать одно из

п

 

 

двух

значений:

-\-а

или

— а

х т

 

 

(рис. 2. 10).

 

 

 

 

1

 

Если

предположить,

что

 

 

среднее

число

перемен

знака

 

а

 

функции

х (t) в единицу вре­

t1

t

 

 

 

мени равно р и что вероятность

!

 

 

перемены

знака в

интервале

 

 

 

(t,

 

не зависит от того,

Рис. 2.10.

что происходит вне пределов

 

 

этого интервала, то при по­

мощи рассуждений,

аналогичных

приведенным

выше, мы

придем

к заключению, что

вероятность получения N перемен знака

в тече­

ние промежутка времени Т определяется формулой

(2.36).9

 

9. Корреляция. Коэффициент корреляции

Введем понятия о корреляции и коэффициенте корреляции, кото­ рые облегчат нам в дальнейшем переход к понятию корреляционной функции.

Говорят, что между случайными переменными существует корреля­ ционная связь, если каждому значению одной переменной можно привести в соответствие вероятное значение другой переменной, относительно которого наблюденные значения могут быть распре­ делены согласно какому-либо закону распределения вероятности.

Чем ближе наблюденные значения к вероятному значению, тем более определенной является зависимость между переменными или, другими словами, тем сильнее корреляционная связь между ними.

9]

КОРРЕЛЯЦИЯ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ

103

 

 

Если каждому данному значению одной переменной соответствует единственное определенное значение другой переменной, т. е. если одна из переменных представляет собой заданную, а не случайнукх функцию от другой переменной, то корреляция между переменными максимальна.

Наоборот, если обе переменные совершенно не зависят друг от друга, то корреляция между ними отсутствует.

Окорреляции между процессами, событиями, признаками ил

характеристиками

обычно

имеет смысл говорить, если они

зависят

не только друг от друга,

но и от

ряда других

факторов,

которые

могут быть неизвестны.

говорить

о корреляции

между температу­

Так, например,

можно

рой в один и тот же момент времени в двух различных точках какоголибо пространства, о корреляции между отклонением самолета от прямолинейного курса в данный момент времени и в некоторый дру­ гой момент, отделенный от первого известным промежутком, и т. д.

Корреляционная связь может быть как линейной, так и нелиней­

ной и существовать между двумя, тремя

и большим

числом

пере-

менных.

 

 

 

 

 

 

 

Рассмотрим две коррелирован­

 

 

 

ные

друг с другом переменные х

 

 

 

и у.

Обозначим

средние

значения

 

 

 

этих

величин через тх и ту, и

 

 

 

пусть

 

 

 

 

 

 

 

 

Дх = х тх,

 

 

 

 

 

 

t\y =

y — mr

 

 

 

 

 

 

Нанесем на плоскость (Дх, Д31)

 

 

 

точки, соответствующие

выбранным

 

 

 

значениям Дх и наблюденным для

 

 

 

них значениям Ду

(рис.

2.1 1 ).

 

Р и с . 2.11.

 

Найдем теперь способом наимень­

 

ших квадратов прямую, выражаю­

 

 

 

щую

в среднем

зависимость

между Ду и

Дх. Это

означает,

что

постоянная х в уравнении

 

 

 

 

 

 

 

 

 

Ду = у. Дх

 

(2.37)

должна быть подобрана

таким

образом, чтобы сумма

 

 

 

 

 

 

П

 

 

 

 

 

 

 

 

2

(Ду/ — М 2.

.

 

 

 

 

 

 

/=*1

 

 

 

 

Где Дy t — наблюденные значения Ду, имела минимум.

 

 

Условие минимума

 

 

 

 

 

 

 

 

_д_

2

y t — х Д*/)2

= 0,

 

 

 

 

дъ

./ = 1

 

 

 

 

104

ВСПОМОГАТЕЛЬНЫЕ СВЕДЕНИЯ

ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ

[ГЛ.

It

откуда

 

 

 

 

 

 

(Эх.

2* 2 А

Axt -f- х2 2 Ах]

=

— 2 2 Ay t АХ[ + 2х 2

Ах] =

0.

i-i

i-i

 

(=i

 

 

 

 

 

 

Итак,

 

 

 

 

 

 

 

 

2

Ayi Ах‘

(2.38)

 

 

 

 

 

i-1

и, следовательно.

2 АУ1 Axi i*»l

АУ = Ах. (2.39)

2 ^ i-i

Свяжем теперь величину t. с коэффициентом корреляции р, опре­ деляемым соотношением

(2.40)

где через Су обозначено среднее квадратическое отклонение наблю­

денных значений Ay t от значений Ау

для

прямой,

т. е.

Су =

V

^

 

 

(2.41)

а через с — стандартное

отклонение

от

среднего

значения,

 

СУ=

 

 

(2.42)

 

 

 

 

 

 

 

Поскольку величина

 

существенно положительна, то макси­

мальное значение р равно единице, что соответствует

Су = 0.

Таким образом, р максимально, когда все наблюденные точки лежат на прямой (2.39), полученной по способу наименьших квадра­ тов (рис. 2.11). Минимальное значение р равно нулю, что соответ­

ствует ( — = 1 , ИЛИ

\ Су /

С у — Су .

(2.43)

9]

 

КОРРЕЛЯЦИЯ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ

 

105

 

Из

сравнения

(2.41).

(2.42)

ясно,

что

равенство

(2.43)

имеет

место,

если

 

Ду = О,

 

 

 

 

 

 

 

 

 

 

 

 

т.

е.,

другими словами,

если прямая

(2.39)

совпадает

с осью

Ах и

П

Д_у; Д ^ = 0. Таким образом,

 

 

 

 

 

2

значение р = 0 соответствует

пол-

i=i

 

отсутствию

корреляции.

 

 

 

 

 

ному

 

 

 

 

 

 

Для вычисления коэффициента

корреляции обычно пользуются не

выражением (2.40), а несколько другой формулой, которая может

быть получена

следующим

образом. Заменим в выражении (2.41)

для Су величину

Ду через

(2.39). В результате получим:

П>2

2 АХ1 АУ1

2\/ = 1

Су

п2 ^ /

Но из (2.40)

 

 

 

 

 

2

Ах‘ АУ‘

2

Axi АУ‘

 

 

. -

V

Ц З

i=1

 

 

i=1

(2.44)

 

 

lУ / i=1

 

 

 

 

 

■Vх

/=1

 

 

и,

следовательно,

Дх Д^=-2 Д*>■

=Рс*сг

 

 

 

 

 

 

 

(2.45)

 

 

 

 

 

i-i

 

 

 

 

 

Заметим, что знаменатель в равенстве (2.44) может рассматри­

ваться

как

нормирующий множитель. Поэтому

в качестве -ме­

ры

корреляции

между

переменными

можно рассматривать вели-

 

П

 

 

 

 

 

 

 

 

чину 2

Д* 1

Дy v

 

. .

 

 

 

- .

 

(=1

 

 

 

 

 

 

1 0 6

ВСПОМОГАТЕЛЬНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ

[ГЛ. II

 

10. я-мерное нормальное распределение

 

 

 

Рассмотрим две независимые случайные переменные jclt

х 2.

Функ­

ция w { x l, jc2), определяющая при помощи выражения

 

 

 

 

та»(atj, x 2) d x l d x 2

 

 

вероятность того, что

переменные x lt х 2 имеют значения,

заключен­

ные в интервалах (д^,

x l -\-dx^), (х2, x 2-{-dx2), называется двумерной

плотностью распределения вероятности случайных переменных х и х 2. Точно так же можно ввести понятие и о н-мерной плотности рас­ пределения.

Можно показать, что случайная переменная, представляющая собой

сумму двух независимых случайных переменных х и

х 2, имеющих нор­

мальные распределения со средними значениями mlt /п2 и

с диспер­

сиями cj,

с3, имеет нормальное распределение со

средним

значением

и

с дисперсией с3+ с3.

 

 

Говорят, что совокупность из я случайных независимых перемен­ ных х и х 2, . . . . х п имеет я-мерное нормальное распределение, если я-мерная плотность распределения вероятности этих переменных может быть представлена в виде

 

 

 

 

 

 

 

 

 

,

~аГ

2 Bkixkxi

 

 

 

w ( x lt х 2......... х п) =

 

------- --у = ^ е

М=1

(2-46)

 

 

 

 

 

 

 

 

(2*)Т

 

 

 

 

 

где для

простоты

принято,

 

что

средние значения

переменных х ь,

х 2, . . . .

х п

равны

нулю,

т.

 

е. х, = 0. Величины Вм представляют

собой

алгебраические дополнения

для

величин

 

 

 

 

 

 

-fСО

 

+ 0 0

 

 

 

 

 

 

 

 

 

Су =

XfcXi =

J" ...

J ’

X/tXi‘W(x1, х2, ..., хп) dXi

. .. dxn,

(2.47)

образующих

определитель

С.

двумерного

нормального распределения

Так,

например,

в случае

 

С11 С12

 

x ix »

 

С3

 

РС1С2

 

 

 

 

 

 

Ь1

 

 

 

(2.48)

 

C2i С22

 

 

*>■'

 

РС1С2

С3

 

 

 

 

 

 

 

 

 

 

V

i

 

‘"а

 

 

 

 

 

 

 

л й

 

 

 

 

 

 

 

 

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

х? = с?;

х а

сS;

x ix 2 ~ рс1са

 

 

и через р обозначен коэффициент корреляции.

10]

rt-МЁРНОЁ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

1 0 7

Согласно определению

В=s с3-

---

рС^Су,

(2.49)

В = с г

Lv

Подставляя (2.48), (2.49) в (2.46), найдем следующее выражение для двумерной нормальной функции распределения вероятности:

w (xv х.г) = 2те1са/ 1 — раехр

2(1— р3) \ с

ci ci

(2.50)

Г Л А В А

III

СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

1. Введение

Ознакомившись с некоторыми

элементарными вспомогатель­

ными сведениями из теории вероятностей, перейдем к изложению элементов теории случайных процессов. Эта теория, как мы видели, имеет существенный интерес для расчета систем автоматического управления.

Каким же образом можно построить теорию случайных величин, зависящих от одной или нескольких непрерывно изменяющихся пере­ менных?

Вопрос, по существу, сводится к подысканию математического аппарата, пригодного для описания процесса, характеризуемого сово­ купностью функций **(0 . полученных в результате достаточно боль­ шого числа наблюдений и представляющих собой незатухающие колебания с непрерывным спектром в отличие от периодических колебаний, содержащих лишь дискретные частоты, кратные некото­ рой основной частоте *).

Естественным обобщением периодических колебаний являются так называемые почти-периодические колебания, которые можно пред­

ставить в виде

 

 

 

 

 

 

х к ю = 2

с / Ч

(3.1)

 

2--

v «= — с о

 

 

где периоды 7\ =

, вообще говоря, не являются кратными.

Дальнейшим

I

I

переход

в формуле (3.1) от

обобщением является

сумм по последовательности специально выделенных частот u>v к инте­ грированию по непрерывно изменяющейся частоте ш, т. е. пред­ ставление процесса в виде интеграла Фурье:

f X ( j u ) e /a,tdu.

(3.2)

1) К о л м о г о р о в А. Н., Статистическая теория колебаний с непрерыв­ ным спектром. Юбилейный сборник АН СССР, ч. I, 1947.

21

ОПРЕДЕЛЕНИЕ

СЛУЧАЙНОГО ПРОЦЕССА

104

Еще более общей формой, объединяющей дискретный случай (3,1)

и непрерывный

случай (3.2), может служить представление

колеба­

тельных процессов в виде интегралов Стильтьеса *):

 

 

 

СО

 

 

* ( 9 =

f еы dF (ш).

(3.3)

00

Однако, если пытаться решить интересующую нас задачу по наме­ ченному выше пути, то мы столкнемся с трудностями.

Классические интегралы Фурье (3.2) способны представлять лишь абсолютно интегрируемые функции. Интегралы вида (3.3) тоже спо­ собны представлять лишь функции, которые разлагаются на две составляющие:

*(0 =

-п(0 - К (9.

где т] (9 — почти-периодическая

или периодическая функция, а С (9

при (->-оо в среднем стремится к постоянной. Таким образом, клас­ сический аппарат интеграла Фурье (3.2) для случая непрерывного спектра приводит лишь к затухающим колебаниям, между тем как случайный процесс характеризуется совокупностью функций x k (t), представляющих собой незатухающие колебания с непрерывным спектром.

Полную ясность в этот вопрос внесла лишь спектральная теория стационарных случайных процессов, предложенная Хинчиным 2)* . Все те простые и законченные результаты, к которым приводит эта теория, получаются благодаря радикальному изменению точки зрения, согласно которой величины x k (t) должны рассматриваться как случайные вели­ чины в смысле, принятом в теории вероятностей, и предметом изу­ чения должен быть не индивидуальный вполне определенный колеба­ тельный процесс, а закон распределения вероятностей различных возможных вариантов протекания такого процесса.

Перейдем к рассмотрению некоторых основных положений и следствий этой теории.

2. Определение случайного процесса

Функция, значение которой при каждом данном значении незави­ симой переменной является случайной величиной, называется случай­ ной функцией.

Таким образом, случайная функция может рассматриваться как бесконечная совокупность случайных величин, зависящая от одного или нескольких непрерывно изменяющихся независимых переменных 3).

*)

См. К р а м е р

Г., Математические методы статистики, ИЛ, 1948.

2)

X и н ч и н

А.

Я., Теория корреляции стационарных случайных про­

цессов, Успехи матем. наук, вып. 5, 1938.

8)

П у г а ч е в

В.

С., Теория случайных функций, Гостехнздат, 1957.

Соседние файлы в папке книги из ГПНТБ