Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Солодовников В.В. Статистическая динамика линейных систем автоматического управления

.pdf
Скачиваний:
11
Добавлен:
30.10.2023
Размер:
19.04 Mб
Скачать

п о

Ст а ц и о н а р н ы е с л у ч а й н ы е п р о ц е с с ы

(гл. Ш

Случайная

функция, зарегистрированная в той

или иной форме

по результатам опыта, называется реализацией случайной функции. Случайные функции, для которых независимой переменной является время t, обычно называются случайными или стохастическими про­

цессами.

Для характеристики случайной функции служат моменты случай­ ной функции. Для определения моментов необходимо знать много­ мерные функции распределения вероятности случайной величины.

Предположим, что мы располагаем большим числом каких-либо одинаковых устройств, например радиоприемников или следящих систем, работающих одновременно при одинаковых условиях. Будем наблюдать флуктуации величии на выходе этих устройств. Они будут

характеризоваться

некоторыми случайными функциями

 

 

 

 

* i( 0 . * 2(0 .

 

 

 

 

 

причем все эти функции будут отличаться друг от друга.

Рассмотрим

какой-либо

определенный

момент времени t

и

найдем,

какая доля

из общего

числа

функций

х ,(/) имеет

в этот

момент времени

значе­

ние, заключенное

между х

и х -(-Д х .

Эта доля

зависит

от t

и про­

порциональна Дх

при малых Дх. Обозначим

ее

через w l (x,

t) Дх и

назовем функцию

(х, I)

первой или

одномерной функцией рас­

пределения вероятности. Рассмотрим теперь всевозможные пары

значений х, наблюденные в два различных

момента

времени t l и t2.

Долю

пар

значений

х,

для

которой величина х

заключена

между

(xlt Х[ +

Дх,)

при

t —

t l и между (х2, х 2-{-Дх2)

при t =

t2,

отне­

сенную

к

общему

числу наблюденных пар значений,

обозначим

через T2)2(X[,

t {; х 2, t2) Дх, Дх2 и

назовем

второй

или

двумерной

функцией распределения вероятности. Этот

процесс можно

продол­

жить

и определить

третью,

четвертую и все последующие

функции

распределения

вероятности.

 

процесс

можно

характеризовать

Итак,

мы

видим,

что

случайный

некоторыми функциями распределения вероятности, полностью опре­ деляющими его в статистическом смысле.

Действительно,

если нам известны:

1) вероятность

нахождения любой из функций x k (t), входящих

в совокупность функций, характеризующих рассматриваемый случай­

ный процесс,

в момент t = t l в интервале

(х, х + Дх),

причем эта

вероятность

равна

w 1(x, ^)Дх;

из функций x k (t)

в

интервале

2) вероятность

нахождения любой

(Xj, Xj + Дх,) в момент времени t =

tx и в

интервале (х2,

х2-{-Дх2)

в

момент времени

t — t2, причем эта

вероятность

равна

 

 

 

 

w2(x l, ti,

х 2,

/2)Дх,Дх2;

 

 

 

 

3) вероятность

нахождения

значения

любой

из

функций х (^)

в

интервале

{xv

х 1 -(-Дх1) в

момент

времени

t =

tlt в

интервале

(х2, х г -\-Ь.х2)

в момент времени t —

t2,

в интервале

(х3,

х 3-[-Дх3)

2]

 

ОПРЕДЕЛЕНИЕ

СЛУЧАЙНОГО

ПРОЦЕССА

 

111

в момент времени t = t3,

причем

эта

вероятность

равна

 

 

 

 

w 3( x lt

 

х 2,

t2;

х 3,

t3) A x l Ax2Ax3

 

 

и т. д., т. е.

если нам известны функции w k при любом

k,

то можно

считать, что

мы знаем

о

случайном процессе все,

что только о нем

можно знать.

 

 

w l (x,

t),

можно

определить математическое

Действительно, зная

ожидание m0x(t)

случайной функции x(i):

 

 

 

 

 

 

 

 

 

СО

 

 

 

 

 

 

 

 

Щх (() = /

X ( t) w Д*;

t)dx,

 

 

 

 

 

 

 

— СО

 

 

 

 

 

 

и ее дисперсию

$2x(t):

 

 

 

СО

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

р2л. (t) =

М [ х (0 т0х O')]2=

/

[X (t) — т0х (01* w l (х;

t) dx.

Зная вторую функцию распределения w2(xlt fjj

х 2, t2),

можно опре­

делить как m0x(t), Рг*(0 . так и центральный момент второго порядка

СО 0 0

Р2, АА)= / / l*i—тох А)1 Iх2 — Щх А)1 w2(*i.к *2. h) dxi dx2-

— о о — о о

характеризующий связь между значениями случайной функции в раз­ личные моменты времени. Функция р2*АА) называется корреляцион­ ной функцией.

Зная д-мерную функцию распределения вероятности, можно опре­ делить все последующие моменты случайной функции, включая момент п-го порядка:

СО ОО

<*„АА...А) = / ••■ /*1- *2•••XnWn(*1.к •••1*«.A) dxl - ‘ - dxn-

— CO — CO

Если приходится иметь дело не с одной, а с несколькими взаимо­ связанными случайными функциями, то, кроме их собственных момен­ тов, приходится вводить еще и их взаимные моменты.

Так, например, если имеются две случайные функции x(t) и y{t), то простейшим взаимным моментом является момент второго порядка:

Ра,, (A: k = M[[ x — m0x{t^\ [у — т о ,А ) 1} =

• СО с о

= f

f Iх—щхAM щуА)!®2(*2 . к Ук dxdy.

— 0 0

— с о

называемый взаимной корреляционной функцией случайных функ­ ций х (t) и у (t).

Подводя итог, можно дать следующее определение случайного процесса.

112

СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

[ г л . I ll

Если в результате различных наблюдений над процессом, произво­ димых при одном и том же комплексе принимаемых во внимание условий, получаются различные последовательности данных x(t), для каждой из которых зависимость переменной х от аргумента /.неиз­ вестна и могут быть определены лишь функции распределения вероят­ ности для значений x(t) в различные моменты времени, то процесс называется стохастическим или случайным.

Так, например, совокупность функций

П

х к (0 = 2

cos

11b, k sin ^у~ *)

Veal

 

 

характеризует собой случайный процесс, если известны функции рас­ пределения вероятности коэффициентов аУк, ЬУк для любого момента времени t.

Из сказанного ясно, что,

как

это

уже

отмечалось

выше,

стати­

стический

метод изучения случайных

процессов ставит

себе

задачей

не изучение каждой из функций

х к (/),

входящей в

совокупность

функций,

характеризующих

этот

процесс,

а изучение

свойств всего

множества в целом при помощи усреднения свойств входящих в него функций.

Таким образом, применяя этот метод к анализу, например, радио­ приемника, следящей системы или системы автоматического регулиро­ вания, мы получаем возможность судить о ее поведении не по отно­ шению к какому-либо одному определенному воздействию, предста­ вляющему заданную функцию времени, а о ее поведении (в среднем) по отношению к целой совокупности воздействий. Очевидно, что это может быть весьма существенно, так как при проектировании систем, служащих для передачи сигналов, необходимо учитывать, что они должны достаточно эффективно работать не только при каком-либо определенном «пробном» или «испытательном» воздействии, но и при воздействиях, изменяющихся по самым различным законам.

3. Стационарные случайные процессы

Общая теория случайных функций, требующая задания много­ мерных функций распределения вероятности случайной величины, обычно оказывается слишком сложной и громоздкой для практических применений. Поэтому на практике обычно стремятся ограничиться рассмотрением лишь первых двух моментов случайных функций. Такого рода теория обычно называется корреляционной теорией случайных функций, так как центральные моменты второго порядка называются корреляционными моментами.

Следует подчеркнуть, что если случайные функции имеют нор­ мальные функции распределения вероятности, то задание их первых двух моментов достаточно для определения всех последующих момен­

3]

СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

113

тов,

вследствие чего корреляционная теория может

рассматриваться

как общая теория случайных функций с нормальным распределением. Далее будет показано, что если заданы первые два момента случайного воздействия на входе линейной динамической системы, то мы всегда можем найти первые два момента величины на выходе

этой системы.

Однако в случае нелинейных динамических систем это не имеет места. Для точного определения первых двух моментов случайных функций на выходе нелинейной динамической системы, вообще говоря,

необходимо знать моменты высших порядков случайного

воздействия

на ее входе.

 

 

 

своем

общем виде

Корреляционная теория случайных функций в

является достаточно

сложной.

Это ясно уже из

того,

что функции

распределения w i (х , t) и w2(x l,

х 2, t2)

являются функциями времени

и для их получения

необходима

очень

кропотливая обработка боль­

шого числа наблюдений над подобными системами в различные моменты

времени.

что если

бы мы исследовали, скажем,

процесс

Это означает,

регулирования напряжения

синхронной машины, то, строго

говоря,

мы должны были бы располагать большим

числом одинаковых син­

хронных машин и

регуляторов напряжения

и производить

осцилло-

графирование прцесса регулирования во всех системах при одинако­

вых условиях,

а

затем обрабатывать эти

осциллограммы и строить

кривые

и w2

для различных

моментов

времени L

Трудности

математического

описания и экспериментального изу­

чения такого

рода случайных

процессов,

на которые не наложено

никаких ограничивающих предположений, очевидны. Поэтому обычно рассматриваются те или иные виды случайных процессов, удовле­ творяющих определенным допущениям. Среди таких процессов значи­ тельное внимание уделялось так называемым процессам Маркова.

Отличительная

особенность процессов Маркова

*) состоит в том, что

в каждый данный момент времени

дальнейший

ход такого

процесса

обусловливается только состоянием

его в этот

момент и

не зависит

от характера

течения процесса в

предшествовавший период. Таким

образом, для такого рода процессов наше суждение о будущем нисколько не меняется в случае возможного расширения наших зна­ ний относительно предшествовавшего течения событий. Процессы такого рода сравнительно легко поддаются математической обработке и в то же время встречаются во многих приложениях (радиоактив­ ный распад, телефония и др.).

Однако значительно более многочисленными являются такие физи­ ческие и технические явления, при которых предыдущее течение про­

цесса

имеет существенное значение для суждения о его дальней­

шем

развитии и не может быть опущено даже и при приближенной8*

1)

См. цитированную на стр. 109 статью А. Я. Хинчина.

8 Зак. 1083. В, В. Солодовников

1 1 4

СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ

[ГЛ. ГП

трактовке

вопроса. Так, например, если бы мы стали

рассматривать

движение самолета в пространстве как процесс Маркова, то это, очевидно, означало бы, что мы не принимаем в расчет его инерции.

Среди случайных процессов, в которых предыдущее течение события в существенной мере определяет собой те заключения, кото­ рые мы можем сделать о будущем, нужно в первую очередь выделить стационарные случайные процессы. Основательное изучение этих про­ цессов, без сомнения, должно быть положено в основу всякого более общего исследования в этой области.

Понятие стационарного случайного процесса относится к тем применениям, когда система, в которой протекает случайный процесс, остается неизменной во времени. В этом случае вид функций рас­ пределения вероятности не зависит от смещения начала отсчета вдоль оси времени.

Более точное определение стационарного случайного процесса может быть сформулировано следующим образом *).

Случайный процесс, определяемый совокупностью переменных x k (t),

называется стационарным

в том случае, если законы распределе­

ния вероятности двух групп

значений этих

переменных

 

 

 

 

* & )......

 

 

 

 

Iх (fl “Ь т)> Х({2+ *)........*(*„+ '01

 

тождественны

друг

другу,

причем число

п, моменты времени

t u

t2, . . . t tn и промежуток т могут быть

выбраны

совершенно произ­

вольно.

стационарных

случайных

процессов

определение функ­

В случае

ции распределения

вероятности w l упрощается в том отношении,

что

она может быть определена в течение достаточно долгого промежутка времени из результатов наблюдения над одиой-единственной систе­ мой, а не над многими.

Действительно, так как в этом случае функция «^(х) не зависит от начала отсчета времени, то можно предположить, что экспери­ ментальную запись кривой х (/), полученную из наблюдения над одной

системой в течение достаточно долгого промежутка времени,

можно

разбить на ряд отрезков длиной

Т (где Т

велико по сравнению со

всеми «периодами»,

которые имеются в исследуемом процессе)

и счи­

тать, что функциями, входящими

в совокупность,

являются

функ­

ции

x(t), представляющие собой

части всей

кривой

x(t)

на

протя­

жении каждого из отрезков Т.

 

 

 

эргодиче-

В основе этого

предположения лежит так называемая

ская

гипотеза. Согласно этой гипотезе большое число наблюдений

над одной-единственной системой, движение которой представляет

собой

стационарный случайный процесс,

в

произвольным образом

1)

См. цитированную на стр. 109 статью А.

Я.

Хинчина.

31

СТАЦИОНАРНЫЕ

СЛУЧАЙНЫЕ ПРОЦЕССЫ

115

выбранные

моменты времени

имеет те же статистические

свойства,

что и то же число наблюдений над произвольно выбранными подоб­ ными ей системами в один и тот же момент времени.

Под системами, подобными друг другу, подразумеваются системы, приближающиеся с течением времени сколь угодно близко к любому из возможных состояний любой из них.

Таким образом, согласно эргодической гипотезе каждая из систем может быть использована для анализа поведения целого множества систем, определяя не только все их возможные состояния, но и ве­

роятность любой совокупности этих состояний.

 

 

Это — весьма

существенное упрощение.

 

 

Кроме того, в случае стационарных случайных процессов значи­

тельно

упрощаются

также

свойства

функций распределения

вероят­

ности.

например,

первая

из

них

не зависит от /;

вторая

зависит

Так,

только

от разности

t2—

а

не от самих значений t u t2 и т. д.

Итак, стационарный случайный процесс может характеризоваться

последовательностью

функций:

 

 

нахождения х

1) w 1(x)dx,

представляющей собой вероятность

в пределах (х, x-p-dx);

2) щ ( х 1у х 2, т) d x t dx2, представляющей собой вероятность нахо­

ждения пары значений х в интервалах (Xj,

x 1 +

dx1) и (х2,

x 2- |-d x 2),

отделенных друг

от друга

промежутком

времени т;

 

3) wa(x1, х 2,

х 3,

x2) d x t d x 2d x 3,

представляющей собой веро­

ятность

нахождения

трех

значений

х

в

интервалах (хр

x x-\-dx^),

(х2, x 2+

rfx2),

(х3,

x 3-\-dx^) при

условии,

что первый

и второй

интервалы разделены промежутком времени т,. а второй и третий интервалы — промежутком времени т2 и т. д.

В случае стационарных случайных процессов математическое ожидание т0х постоянно:

СО

т0х = j xw (х) dx = const,

СО

акорреляционная функция (32л. (^; t2) зависит лишь от разности аргументов z — tLt2. Итак,

СО со

В дальнейшем будут рассматриваться лишь те свойства стацио­ нарных случайных функций, которые определяются одной постоян­ ной т0х и одной функцией (32д. (т) одного переменного т.

При таком подходе к изучению стационарных случайных процес­ сов, когда моменты высоких порядков не вводятся в рассмотрение

8 *

116

Ст а ц и о н а р н ы е с л у ч а й н ы е п р о ц е с с ы

[ г л . hi

можно дать

следующее определение стационарности ’):

случайная

функция x{t) называется стационарной, если ее математическое ожидание постоянно, а корреляционная функция зависит только от одной переменной ■z = t l — ?2.

Такая стационарность называется стационарностью в широком смысле в отличие от стационарности в узком смысле, рассмотренной выше,-

Если случайная функция не удовлетворяет условию стационар­ ности, то она называется нестационарной случайной функцией.

Согласно этому определению в стационарности случайного про­ цесса можно убедиться следующим образом.

Предположим, что мы располагаем рядом осциллограмм случай­ ного процесса. Если найденные в результате обработки осцилло­ граммы плотности распределения вероятности ву, и т , оказываются одними и теми же для любого момента времени t и любого фикси­ рованного т, то процесс является стационарным, если же плотности распределения зависят от момента времени t, для которого они определяются, то процесс является нестационарным.

В заключение отметим еще одно важное свойство стационарных случайных процессов, также вытекающее из эргодической гипотезы.

Вообще говоря, при рассмотрении случайных процессов следует различать «средние значения по совокупности», т. е. средние значе­ ния, определенные на основании наблюдения над многими подобными

системами в один и тот

же момент времени, и средние по времени,

т. е. средние значения,

определенные на основании наблюдения над

одной из этих систем для достаточно большого числа последующих моментов времени.

Однако для стационарных случайных процессов оба способа

усреднения дают один и тот же результат,

и поэтому

можно

поль­

зоваться любым из них.

 

 

 

 

 

Так, например,

среднее значение для совокупности

функций x(t)

в момент времени t можно определить, если известна

первая

функ­

ция распределения

вероятности

w 1{x,

f),

при помощи выражения

 

СО

 

 

 

 

 

 

J

x w {(x,

t)dx.

 

(3.4)

СО

Из способа определения х ясно, что эта величина, вообще говоря, зависит от момента времени t, для которого оно определяется.

Среднее же по времени для интервала 2 Т

т

* ~ W

f х (0 dt

 

1) П у г а ч е в В. С., Теория

случайных функций, Гостехиздат, 1957.

41

КОРРЕЛЯЦИОННАЯ

ФУНКЦИЯ

1 1 7

будет, вообще говоря,

неодинаковым

для различных

функций сово­

купности и не зависит от времени.

 

 

Однако, если случайный процесс

стационарен,

то оба способа

усреднения согласно эргодической гипотезе должны давать один и тот же результат вне зависимости от момента времени, в который вычисляется среднее для совокупности, и вне зависимости от выбора функции, входящей в совокупность, для которой вычисляется сред­ нее по времени, т. е. для достаточно большого интервала времени

х = х.

(3.6)

То же относится и к моментам функции x(f) более высоких

порядков. Так, например, момент п-то порядка

 

х п = j’ x nw l (х, t) dx

(3.7)

в случае стационарного случайного процесса равен среднему по вре­ мени от х п

хП = 4 г / [-»(01я dt.

(3.8)

т. е.

(3.9)

 

4. Корреляционная функция

 

Как мы видели, корреляционной функцией называется

математи­

ческое ожидание произведения значений случайной функции для двух

моментов времени

ti и

t2. Условимся обозначать

корреляционную

функцию через R (tt; t2).

Для стационарного случайного процесса x(t)

R (т) = М {[х (0 -

т0х] [х (t + т) — moj} =

 

СО

с о

 

 

 

= J J

1 Щх)( х 2m0x) w 2(x1] х 2,

т) d x l d x2, (3.10)

-СО

—со

 

 

 

где

 

 

 

 

Т^ - - t2.

Так как стационарные случайные процессы обладают свойством эргодичности, то математическое ожидание (или среднее по совокуп­ ности) равно среднему по времени и мы можем для корреляционной функции R (т) написать:

R (х) = М {[х (0 — т0х] [х (f + т) — m0J} ~

т

~

2j

f

[ х ( 0 — т 0 х ] [ д : ( ^ +

т ) —

г п 0 д-1

( 3 - 1 ! )

1 1 8

Ст а ц и о н а р н ы е Сл у ч а й н ы е п р о ц е с с ы

[г л . Hi

Если

>п0х — 0, то вместо (3.11) можно написать:

 

 

т

 

 

f x ( l ) x ( t - \ - x ) d t .

(3.12)

 

- г

 

Если приходится иметь дело с двумя стационарными случайными функциями х (() и y{t), то, кроме их математических ожиданий гп0х, т0у и корреляционных функций Rx (т), Ry (т), обычно вводится в рассмотрение корреляционная функция связи или взаимная корре­ ляционная функция

со со

Ягу СО =

/

f Iх СОm0x1\у{t+ O — П10у] w(дг; у; х) rfx

(3.13)

 

— СО

— 0 0

 

 

 

 

 

 

Согласно

эргодической

теореме вместо (3.13) можно

написать:

 

 

 

 

т

 

 

 

 

 

Яд-у(0 ~ 2у

f

(0 — w/0vl [у (/ -[- т) — /н0у] dt.

(3.14)

 

 

 

-V

 

 

 

 

 

Если

т0х — т0у ~

0,

то

выражение (3.14) сводится к виду

 

 

 

 

 

 

т

 

 

 

 

Яду (") ~

f х (t) у

{t-\- х) dt.

(3.15)

 

 

 

 

 

 

- г

 

 

Понятие о корреляционной

функции имеет непосредственную связь

с понятием о

коэффициенте

корреляции,

рассмотренном в предыду­

щей главе.

 

 

 

 

 

 

 

Коэффициент

корреляции р характеризует меру зависимости между

двумя

системами

чисел x t

и y t.

В

теории случайных

функций такими системами чисел обычно

являются значения одной и той же или различных случайных функ­ ций в различные моменты времени. Заменяя в (3.15) интеграл знаком суммы и рассматривая интервал времени О, Т, можем записать:

N

Я ~ ^ д г ^ х 1Уь-

/=1

Легко видеть, что это выражение совпадает с точностью до по­ стоянного множителя с выражением (2.44) для коэффициента корре­

ляции р.

 

 

 

 

 

Поясним физический смысл понятия

корреляционной функции.

Как мы видели, корреляционная функция определяет вероятность

того,

что

случайная

функция х (t),

имея

в

момент t значение jclt

будет в момент t - \ - x

иметь значение

х 2, т. е.

характеризует взаим­

ную

связь

между х (t)

и x(t-t~i:).

 

 

 

4]

КОРРЕЛЯЦИОННАЯ

ФУНКЦИЯ

1 1 9

Предположим, например, что случайная функция x(t) со средним

значением, равным

нулю, есть выход

следящей системы.

Ясно, что

значение х {t -}- т) должно зависеть от значения х (t) в предшествую­ щий момент времени, так как можно считать, что значение д:(^4 _'с) имеет составляющую, зависящую как от начального значения х при t, так и от параметров системы.

Таким образом, если х мало по сравнению с постоянными вре­ мени системы, то Jc(^-j-T) мало отличается от x(t), взаимная связь

между значениями

jc

—(—-г) и x(t)

велика и величина

Д(0)

близка

к единице. Другими словами, при очень малых т вероятность

того,

что значение функции

х (t +

т) мало отличается

от

значения х ((),

близка к единице, т. е.

близка

к достоверности.

По

мере увеличе­

ния х составляющая

x(t), определяемая начальным значением х

при t,

затухает,

связь между

величинами

x(t) и л: —j—с) ослабевает, они

делаются

взаимно

независимыми и функция R (т)

стремится к

нулю.

Другими словами,

при достаточно больших х вероятность того, что

величина х (^-)-т)

будет мало отличаться от величины x(t), практи­

чески равна

нулю.

Укажем

некоторые свойства корреляционной функции.

1.Корреляционная функция R (х) случайной функции с равным нул

средним

значением для достаточно больших х стремится к нулю,

т. е.

 

l * « U o o = °-

(3-16)

Это непосредственно следует из приведенных выше рассуждений.

2.

Начальное значение R ( 0) корреляционной функции R(x) рав

среднему значению квадрата случайной функции и поэтому суще­ ственно положительно, т. е.

R (0) =

х 2 =

х 2.

(3.17)

Действительно, согласно (ЗЛО) при

т =

0, т0х = 0

R (0) = ^2

 

 

и согласно (3.12)

г

 

 

 

 

 

К (0) « J

x 2(t)dt =

x \

- Т

 

 

 

3. Корреляционная функция

R (т) есть

четная функция от т, т. е.

Я (Т ) = Л ( — т).

(3 .18 )

Действительно,

 

 

 

R(x) = x ( t - \ - x ) x (t) — x i t ) x (t x) = R {— т).

Соседние файлы в папке книги из ГПНТБ