Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Острем К.Ю. Введение в стохастическую теорию управления

.pdf
Скачиваний:
10
Добавлен:
24.10.2023
Размер:
10.97 Mб
Скачать

20

Глава J

6.Markus L., Lee E . В., Foundations of the Theory of Optimal Control, Wiley,. New York, 1967.

7.Понтрягнн Л. С, Болтянский В. Г., Гамкрелидзе Р. В., Мищенко Е. Ф., Математическая теория оптимальных процессов, изд-во «Наука», М., 1969.

8.Bellman R., Dynamic Programming, Princeton Univ. Press, Princeton, New Jersey, 1957. Русский перевод: Беллман P., Динамическое программиро­ вание, ИЛ, 1960.

9.Bellman R., Adaptive Control Processes: A Guided Tour, Princeton Univ.

Press, Princeton, New Jersey, 1961.

Русский перевод: Беллман P., Про­

цессы регулирования с адаптацией, нзд-во «Наука», М., 1964.

10. Aoki М., Optimization of Stochastic

Systems, Academic Press, New York,

1967, Русский перевод: Аоки M.,

Оптимизация стохастических систем,,

изд-во «Наука», М., 1971.

 

11.James Н. М., Nichols N. В., Phillips R. S., Theory of Servomechanisms, McGraw-Hill, New York, 1947. Русский перевод: Джеймс X., Никольс Н.,. Филипс Р., Теория следящих систем, изд-во «ИЛ», 1951.

.12. Yule

G. U., «Оп

a Method

of

Investigating Periodicities

in Disturbed

Se­

ries

with Special

Reference

to

Walter's Numbers*, Phil.

Trans. Roy.

Soc.

A226, 267—298 (1927).

 

 

 

 

13.Wax N. (ed.), Collected Papers on Noise and Stochastic Processes, Dover,. New York, 1954.

14. Wold H., Stationary Time Series, Almqvist and Wiksell, Uppsala, 1938.

15.Wiener N., The Extrapolation, Interpolation, and Smoothing of StationaryTime Series with Engineering Applications, Wiley, New York, 1949.

16.Kalman R. E . , «A New Approach to Linear Filtering and Prediction Problems», ASME J. Basic Eng., 82, 34—45 (1960).

17.Kalman R. E . , Bucy R. S., New Results in Linear Filtering and Prediction.

Theory, ASME J. Basic Eng., 83, 95—107 (1961).

18. Joseph P. D., Tou J. Т., On Linear

Control Theory, Trans. A I E E (Appli­

cations and Industry), 80, 193—196

(1961).

19.Simon H. A., Dynamic Programming under Uncertainty with a QuadraticCriterion Function, Econometrica, 24, 74—81 (1956).

20.Theil H., A Note on Certainty Equivalence in Dynamic Planning, Economet­ rica, 25, 346—349 (1957).

Г л а в а 2

СЛУЧАЙНЫЕ ПРОЦЕССЫ

1.ВВЕДЕНИЕ

Вглаве кратко изложены те элементы теории случайных: процессов, которые необходимы для понимания материала сле­

дующих глав. Более подробное изложение этой теории можно» найти в работах [1—7].

Понятие случайного процесса дано в разд. 2. Несколько' примеров конкретных случайных процессов (нормальные про­ цессы, марковские процессы, процессы второго порядка и про­ цессы с независимыми приращениями) рассмотрено в разд. 3.. Свойства ковариационной функции обсуждаются в разд. 4. В. разд. 5 вводится понятие спектральной плотности. Особое вни­ мание уделяется понятию белого шума с дискретным непрерыв­ ным временем. Разд. 6. посвящен методам, необходимым для' анализа случайных процессов с непрерывным временем.

2. ПОНЯТИЕ СЛУЧАЙНОГО ПРОЦЕССА

Случайный процесс (стохастический, вероятностный процесс или случайная функция) можно определить как семейство слу­ чайных переменных {x(t), teT}, которые зависят от параметра, или индекса t, принадлежащего соответствующему множеству 7"

(множеству

параметров

или мнооюеству индексов).

 

Параметр t

часто будем

интерпретировать

как

время

и

будем

рассматри­

вать

два разных множества индексов. Если

7 = { . . . , — 1 , 0,

1...}

или

7 =

{0, 1, 2,...}, то случайный

процесс

называется процессом-

с дискретным

параметром

или

процессом

с дискретным

време­

нем.

Если T={t,

0s£^<;оо} или

T={t;

— оо<</<;оо},

то

про­

цесс

называется

процессом

с непрерывным

параметром

или

про­

цессом

с непрерывным

временем.

Мы

будем

предполагать

так­

же,

что

случайные

переменные

x(t)

принимают

значения

на

действительной

оси

или

в

/г-мерном

евклидовом

пространстве..

Случайный процесс

{x(t),

teT}

есть

функция

двух

аргументов

{x(t,

со), teT,

coeQ}, где Q называется

выборочным

 

пространст­

вом.

Следовательно,

для

фиксированного

teT

функция

x(t,

•)

есть

случайная переменная, а для фиксированного

со

функция-

х(-,

со) есть функция времени, которая называется

 

реализацией-

процесса, выборочной

функцией,

траекторией. Выборочные функ-

22

Глава 2

 

ции можно рассматривать как элементы пространства X, кото­

рое

называется пространством выборочных

функций.

 

Основной трудностью теории случайных

процессов является

определение вероятностной меры на подмножествах выборочно­

го пространства Q (или пространства выборочных функций

X),

поскольку меру можно

определить не на всех подмножествах

Q,

а только на борелевском поле В подмножеств.

 

 

Определение вероятностной меры Р на борелевском поле под­

множеств

Я требует привлечения теории

меры. Для

обычных

случайных

переменных,

пространствами

выборочных

функций

которых служат евклидовы пространства, вероятностную меру можно определить по обычной функции распределения. Колмо­ горов показал, что аналогичным образом можно определять ве­ роятностную меру на борелевском поле подмножеств бесконеч­

номерного

выборочного

пространства

случайного

процесса.

Пусть

{x(t);

t

еТ}

— случайный процесс. Предположим, что рас­

пределение

вероятностей

многомерной

случайной

величины

x(ti),

x(tk)

для

любого

k и произвольного

titT

можно

пред­

ставить

функцией

распределения

 

 

 

 

 

 

 

 

F(g|t

1 2

, . . . , t u

i,,...

,tk) =

P

fc)

< %

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(2.1)

удовлетворяющей условиям

симметрии

и согласованности.

Рас­

пределение

(2.1)

называется

конечномерным

 

распределением

процесса.

 

 

 

 

 

 

F — симметричная

 

Условие

симметрии

означает, что

функ­

ция для всех пар (£,-,

Условие согласованности

определяется

следующим соотношением:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(2.2)

Из теории Колмогорова следует, что вероятностная мера может

быть определена на борелевском

поле

 

подмножеств Q и

что

существует стохастический

процесс

{x(t);

teT},

такой, что

сов­

местное распределение

значений

х

в

моменты

tu

tu имеет

функцию распределения

F(lu

g2,

 

Ы

tu

t2, ....

h).

Вероятност­

ная мера обозначается Р. Таким образом, вероятность по тео­ реме Колмогорова единственным образом определяется конеч­ номерными распределениями.

Итак, случайный процесс

{x(t, со), teT)

есть функция, которая

отображает выборочное

пространство Q в пространство выбо­

рочных функций X. Мера

Р,

определенная на подмножествах Q,

и функция x(t, со)

будут

порождать меру на X следующим об­

разом. Рассмотрим

множества А'еХ,

такие, что множества

 

 

 

 

 

Случайные

процессы

 

 

 

 

 

23-

{со;

х(•,

со)б A'} eQ измеримы.

Тогда

 

можно

 

определить

Р{хеА'}

=

Р{со;х(-,со)еЛ'}.

 

 

 

 

 

 

 

 

 

 

Сучайный процесс можно также описать, представив х как

функционал от известного

случайного процесса.

 

Рассмотрим,,

например, процесс с дискретным временем при Т=

{...,1,

0, 1,...}.

Пусть случайный процесс

{e(t),

teT}

есть просто последователь­

ность

нормальных

случайных

величин

с

параметрами

(0,1).

Введем

случайный

процесс

{x(t),

teT],

определяемый

соотно­

шением

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x(i)

= e(t) + cle(t-l)

 

 

+ --- + cne(t-n),

t£T.

(2.3)

Этот

процесс называется

процессом

скользящего

среднего

по­

рядка п. Если все корни полинома

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

••• + а „ = 0

 

 

 

 

находятся внутри круга единичного-ради-уса, можно

ввести так­

же процесс {x(t),

teT}, описываемый

выражением

 

 

 

 

 

x(t)

+ alX(t-l)

+ .--+anx(t-n)

 

= e(t),

t£T.

(2.4)

Этот

процесс называется

процессом

авторегрессии

порядка

п.

Выше

было

отмечено, что

 

невозможно

определить

вероят­

ностную меру на всех подмножествах Q, а только на тех множе­

ствах,

которые принадлежат борелевскомуполю подмножеств Q,

т. е. на множествах,

которые

получаются

бесконечным пересече­

нием

и объединением интервалов. Что касается приложений, то-

это в общем не сильное ограничение для

 

процессов

с дискрет­

ным параметром. Однако

оно существенно

для процессов с не­

прерывным временем, так как, например, множество

 

 

 

 

 

 

{to; x(t, со)<с

для

всех

t^(a,b)}

 

 

 

 

не есть борелевское

множество.

 

 

 

 

 

 

 

 

 

Можно показать, что на .таких множествах мера по конечно­

мерным распределениям процесса определяется не единствен­

ным образом. Следовательно, для

процессов

с

непрерывным

временем, определяемых

только

конечномерным

распределени­

ем, невозможно вообще найти такие вероятности,

чтобы все вы­

борочные функции были

ограничены,

непрерывны,

дифферен­

цируемы и т. д.

 

 

 

 

 

 

Среднее значение процесса,

определяемое

выражением

(0 = Ех (0 =

j х (t, со) Р (dto) = J UF (Е, 0,

(2.5).

есть функция времени. Аналогичным образом определяются мо­ менты высших порядков. Ковариация x(s) и x(t), например, оп­ ределяется соотношением

2 4

 

Глава 2

<:ov (s), x (01 = E [x (s) — m (s)) [x (t) m (t)] =

=

j

[* (s, со) — m (s)] [л (/, со) — m (t)] P {dm) =

 

a

 

=

J

J [Sl - «(*)] & - ( ' ) ] ^ d i . «. t). (2.6)

Упражнения

1. Пусть Q — сегмент [0, l ] на действительной оси и мера Р— равномерное распределение. Пусть множество Т есть ин­ тервал [0, 1]; рассмотреть случайные процессы {x(t), ОТ) >и {у(0> ^П> определяемые соотношениями

x(t, со) = 0 для всех t и со,

1для t=(it,

У{t, ш) = 0 в противном случае.

Показать, что случайные процессы имеют одинаковые конечно­ мерные распределения и что

 

Р {со; x(t,

со) <

0,5

для всех /) = 1,

 

 

Р (со; y(t,

со) <

0,5

для всех t) = 0.

 

2. .Для процесса

скользящего среднего первого порядка

 

 

x(t)

= e(t) +

ce(t-l),

 

•где {e{t)\

t=..., — 1, 0,

1,...}

есть

последовательность

независи­

мых нормальных случайных величин с параметрами

(0,1), оп­

ределить ковариацию x(t) и

x(s).

 

 

3. Для процесса

авторегрессии

 

 

 

 

x(t)+ax(t—l)

= е(1),

 

где | а | < 1 и {e(t),

t=...,—[,

 

0, 1,...} есть последовательность не-

-зависимых

нормальных

случайных величин с параметрами (0,1),

найти ковариацию x(t)

 

и x{s).

 

 

3.НЕКОТОРЫЕ ТИПЫ СЛУЧАЙНЫХ ПРОЦЕССОВ

Вразд. 2 дано слишком общее определение случайного продесса. Для разработки приемлемой теории необходимо его кон­ кретизировать. Особенно привлекательны такие построения тео­

рии, которые позволяют получить распределение x(t{),

x{t2),..-,

x(th) простым путем. В этом разделе мы рассмотрим

некоторые

типы случайных процессов, которые представляют особый инте­ рес для теории управления.

 

 

Случайные

процессы

25-

Стационарные процессы

 

 

Случайный процесс

{x(t), t

еТ} называется

стационарным,.

если распределение x(ti),

x(t2),...,

x(th) тождественно равно рас­

пределению x{t\-\-x),

x(t2-{-%)

x{th-\-x) для всех т, таких, что

tt еТ и (U-\-x) eTi=l,

2,

k. Если равны только первые и вторые

моменты распределения, то процесс называется стационарным в широком смысле1 .

Стационарный процесс называется эргодическим, если сред­ нее по ансамблю равно среднему выборочной функции по време­ ни, т. е.

Ex (t) = [х (t, со) Р (da) = lim —

.1

т^°°

я

—г

почти для всех со.

г

 

Г х (t, со) dt

(3.1)

J

 

Нормальные процессы

Случайный процесс называется нормальным или гауссовым, если совместное распределение x(ti), x(t2),..., x(th) является нормальным для каждого k и всех U е Т, i ' = l , 2,...,k. Нормаль­ ный процесс полностью определяется средним значением

 

 

trii =

Exfti),

i = 1, 2, ...,k,

 

 

и ковариациями

 

 

 

 

 

 

 

 

Гц = cov [х (t;),

х (t,)]

=E[x

(tt) — m,] \x (/,) — m,]T,

 

 

ij = 1,2,...,A.

 

 

 

 

 

 

Если ввести вектор m и матрицу

 

 

 

 

 

 

m1

 

 

Гц

 

 

 

 

 

m =

Щ

 

 

Га

Г22 "• ' Г2k

 

 

 

 

 

 

 

 

_/lfc

•'rkk-

 

 

где

— невырожденная матрица, то совместное

распределение

Л'(^),

x(t2),...,

x(th)

можно

охарактеризовать плотностью

рас­

пределения

 

 

 

 

 

 

 

 

 

f © =

(2n)-f t / 2 (det /?)-, / 2 ехр -

- i -

(l~rn)T

R-\^-m)

(3.2)

1 Автор пользуется термином «стационарный», подразумевая стационар­ ность в узком смысле; для процессов, стационарных в широком смысле, ис­ пользуется термин «слабо (weakly) стационарный процесс». — Прим. ред.

2 6

Глава 2

Из теоремы Колмогорова следует, что нормальный процесс можно определить, если известны среднее значение и ковариация для всех возможных t\, t2,..., tk е Т. Таким образом, нормаль­ ный процесс полностью определяется двумя функциями:

т (() = Ех (/)

и

 

 

 

 

 

 

 

г (s, t) =

cov

(s), х (0] = Е

(s) — т (s)\

[х (t) — т

({)}Т,

которые называются

функцией

среднего значения

и

ковариаци­

онной функцией

соответственно.

Для стационарного нормально­

го процесса

среднее

значение

постоянно,

а

ковариационная

•функция зависит только от (s—t).

Марковские процессы

Пусть ti и t есть элементы множества Т, такие, что /i<;^2< — <th<it. Случайный процесс {x(t), t еТ} называется марков­ ским процессом, если

Р \х(t) <Цх(Q,

х ( 4 ) , х =

Р {х(I) < £| х(У),

(3.3)

где через Р{-1*(4)}

обозначена условная вероятность

при

фик­

сированном x(tk).

Если

даны функция

распределения

x(t{),

на­

чальная

функция

распределения

 

 

 

 

 

F(ti,

tl)=P\x(t1)<b\

 

 

(3.4)

и функция

распределения

вероятностей

перехода

 

 

 

F (£,,

* | | s )

s) = Р [х(0 < Ь |х(s) = Ц,

 

(3.5)

то по правилу Байеса функция распределения случайных пере­

менных x(ti),

x(t2),...,

x(th)

определяется

соотношением

 

F ft, %,...,

lk; tv t2

tk)

= j

j •. •

)lF

[ln, tn J v . , , ^ )

x

 

 

 

0

0

0

 

 

 

•XdF{X_vtn_x\X__vtn_^

 

...dFfa.ti).

(3.6)

Таким образом, марковский процесс определяется двумя функ­

циями:

абсолютной

функцией

распределения

F(i\; s) и

вероят­

ностями

перехода

t\t], S).

 

 

 

 

Процессы второго порядка

 

 

 

 

 

Случайный процесс {x(t),

t

е

Т) называется процессом

второ­

го порядка, если £ х 2 ( 7 ) < ° °

Д л я

всех t е Т.

Функция

среднего

значения и ковариационная функция для таких процессов опре­ деляются соотношениями

 

Случайные процессы

27

m(i) =

Ex(t),

 

г (s, t) =

E[x (s) — т (s)] [х (0 т

(/)]Т.

Для распределения данного типа характеристики второго по­

рядка могут быть выражены через эти две функции.

 

Процессы с независимыми приращениями

 

Случайный

процесс {x(t), t е Т}

с U е Т для i=l,

2,..., k и

^ i < ^ 2 < . . . < 4

называется процессом

с независимьши

прираще­

ниями, если случайные величины

взаимно независимы. Если переменные только не коррелироваиы,

то процесс {x(t),

t е Г} называется процессом с

некоррелирован­

ными пли ортогональными

приращениями.

 

 

Процесс с независимыми приращениями определяется рас­

пределением приращений x(t)—x(s)

для произвольных

t и s и

распределением

x(ti). Если

распределение x(t)—x(s)

зависит

только от t—s,

то говорят, что процесс называется

процессом со

стационарными приращениями. Если {x(t)—x(s)}

 

имеет

нор­

мальное

распределение,

то

{x(t),

teT}

называется процессом

с независимыми нормальными

приращениями.

 

 

 

 

Для

{x(t),

teT}—векторного

 

процесса

с независимыми

ор­

тогональными

приращениями — можно

найти функции F,

такие,

что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

F(i)—F(s)

= cov fx(/), x(t)\

cov

\x(s),

x(s)J.

 

(3.7)

Выражение (3.7)

можно записать также в виде

 

 

 

 

 

 

 

cov \dx, dx] = dF (t).

 

 

 

 

 

Дифференциал

dF называется

ковариацией

приращений

 

про­

цесса.

 

 

{x(t),

teT}

 

 

 

 

 

 

 

 

 

 

Если

процесс

имеет

стационарные

приращения,

разность

F(t)—F(s)

зависит

только

от s — t.

В

этом

случае

разность

обозначают через Fx(t

— s),

s<ct.

Следовательно,

 

 

 

Fx

(t + s) =

Fx

(t) + Fx

(s),

s>0,

t^O.

 

 

 

(3.8)

Для процесса с непрерывным параметром непрерывная функ­ ция, удовлетворяющая условию (3.8), имеет вид

 

 

 

Ft

(0 = At.

 

(3.9)

Рассмотрим свойства ковариационной

функции для

процесса

с ортогональными приращениями. Для s^t

имеем

 

г (s, t) =

cov

fx (s), X

(t)]

=

cov fx (t) +

x (s) — X (f), X

(/)],

r (s, t) =

cov

[x (t), X

(t)]

+

cov [x (s) — X (t), X (/)],

 

'28

Глава 2

r(s,t) = COV \x(t),

x(t)\,

где третье равенство следует из определения ковариации, а по­

следнее— из того, что процесс {x(t),

teT)

имеет

некоррелиро­

ванные приращения.

 

 

 

 

Итак, мы нашли, что

ковариационная

функция

процесса с

•ортогональными

приращениями имеет

следующие свойства:

 

= cov (min (s, t)), х (min (s, t))].

(3.10)

Винеровский процесс

 

 

 

 

Винеровский

процесс,

или процесс

броуновского

движения,

•является нормальным процессом. Он

имел большое значение

для разработки теории случайных процессов. Как показано в последующих главах, многие распределения, используемые в системах управления, можно моделировать процессами, порож­ даемыми винеровскими процессами.

Английский ботаник Броуи в 1827 г. заметил, что маленькие частицы (диаметром~0,001 мм), погруженные в жидкость, на­ ходятся в движении. В 1905 г. Эйнштейн показал, что это дви­ жение можно было бы объяснить, если считать, что оно вызыва­ ется столкновениями частиц с молекулами жидкости. Эйнштейн дал также математическую модель этого движения и определил число Авогадро.

Строгий математический анализ этого процесса был дан Винером в 1923 г. Эвристически броуновское движение можно объяснить следующим образом. Рассмотрим отдельную части­ цу, погруженную в жидкость. Обозначим через x(t) одну из ко­ ординат частицы с начальными условиями, выбранными так, что х(0) =0 . Движение этой частицы на достаточно большом ин­ тервале времени есть результат изменения импульса вследствие многих столкновений. Поэтому разумно считать, что применима центральная предельная теорема и распределение нормально. Также естественно допустить, что статистические свойства рас­

пределения на интервале (t, t-\-x)

такие же, как и на интервале

(s, s + т ) , т. е. что распределения

на непересекающихся

интер­

валах времени независимы и что трение при движении

отсутст­

вует. Аксиоматически винеровский процесс можно определить •следующими условиями:

1)х ( 0 ) = 0 ;

2)x(t) —нормальный процесс;

3)Ex(t)=0 для всех zf>0;

4)процесс имеет независимые стационарные приращения.

Случайные

процессы

29

Поскольку винеровский процесс нормальный, он может быть полностью охарактеризован функцией среднего значения и ко­ вариационной функцией. Третье условие означает, что

 

 

m{t) = Ex{t) = 0.

 

Так

как винеровский

процесс

имеет

независимые

стационар­

ные

приращения и л:(0)=0, то из выражений (3.9)

и (3.10) со­

ответственно следует, что

 

 

 

и

 

varx{t)

= ct

 

(3.11)

 

 

 

 

 

 

г (s, t) =

cov (s);

x (/)] =

cmin (s, 0-

(3.12)

Обычно с называется параметром дисперсны. Допуская некото­ рую неточность в выражении, векторный процесс с нулевым средним значением и независимыми нормальными приращения­ ми также называют винеровский процессом. Выборочные функ­ ции винеровского процесса имеют интересные свойства. Можно показать, что они непрерывны с вероятностью 1, не имеют про­ изводных, а их траектории имеют бесконечную длину.

Сингулярные, или чисто детерминированные, процессы"

Понятие вырожденного

процесса представляет

интерес для

теории упреждения (прогнозирования). Оно также

иллюстриру­

ет тот факт, что не совсем

тривиально получить

модель случай­

ного процесса.

 

 

 

 

 

Пусть вектор-столбец х

есть /г-мерная

случайная

перемен­

ная. Распределение х называется сингулярным,

или, более точ­

но, линейно-сингулярным,

если существует

м-мерный

вектор а,

такой,что

 

 

 

 

 

Р{т;атх{а)ф0}=0.

 

 

 

(3.13)

Аналогично случайный процесс {x(t, со), t е Т} называется син­ гулярным (линейно-сингулярным), если существует линейный оператор X , такой, что

Р {а;£х

Ф 0} =

0.

 

(3.14)

Процесс

 

 

 

 

 

х (t, со) = а (со)

для

всех t,

 

(3.15)

где а — случайная переменная,

есть

простой

пример

сингуляр­

ного процесса. Очевидно, что x(tu

со)—x(t0 ,

со)=0 для всех t

и со. Это означает, например, что процесс может быть

представ­

лен точно на любом интервале времени. Поэтому он называется

чисто детерминированным процессом. Процессы вида