Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Острем К.Ю. Введение в стохастическую теорию управления

.pdf
Скачиваний:
10
Добавлен:
24.10.2023
Размер:
10.97 Mб
Скачать

230

Глава 7

2. ПОСТАНОВКА ЗАДАЧ УПРЕЖДЕНИЯ И ФИЛЬТРАЦИИ

Задачи фильтрации и упреждения можно сформулировать следующим образом. Рассмотрим два действительных стохасти­ ческих процесса {s(t), te Т) и {n(t), teT}, которые назовем со­ ответственно сигналом и шумом. Допустим, что сумма

y(t) = s(f) + n(l)

наблюдаема и может быть измерена. В момент времени t полу­ чаем реализацию у(х), t0<ix-^t, измеряемой переменной. На ос­ нове этой реализации требуется определить наилучшую оценку величины сигнала в момент времени t\. При t\<Ct поставленная

задача называется задачей сглаживания

или интерполяции,

при

i\ = t — задачей

фильтрации,

при ty>t

задачей

прогноза

или

упреждения.

 

 

 

 

 

 

 

 

 

 

В несколько более общей постановке задачи требуется оце­

нить функционал от сигнала типа ds/dt или J sdt,

исходя из наб­

людаемой суммы сигнала и шума.

 

 

 

 

 

s(ti),

Множество наблюдений, которые служат для

оценки

 

будем обозначать через Y. Для процессов с дискретным

време­

нем множество Т является множеством

целых

чисел, a

Y есть

вектор:

 

 

 

 

 

 

 

 

 

 

 

Y = {yT(t0),

yT(t0

+ l),...,

 

yT(t)).

 

 

 

функ­

Для процессов с непрерывным временем Y является

 

цией, определенной на интервале [t0, t). Иногда

будем

 

явно

указывать,

что Y зависит

от t. Для

этого будем

использовать

обозначение

Yt.

Пусть

Y и

seS.

Оцениватель

(интерполя­

тор, фильтр, упредитель) является функцией, которая отобража­

ет

S. Значение этой функции при конкретном значении У на-

 

 

л

зывается оценкой и обозначается через s.

 

Для полного описания любой из этих задач необходимо опре­

делить, что представляют собой

сигнал и шум, критерий, по ко­

торому определяется наилучшая

оценка, и ограничения на допу­

стимые оцениватели.

Сигнал и шум можно определить многими способами. Их можно представить процессами с дискретным и непрерывным временем, можно охарактеризовать ковариационными функция­ ми, спектральными плотностями, стохастическими разностными или дифференциальными уравнениями.

Много возможностей также существует для определения «наилучшей» оценки. Например, можно определить функцию по­ терь / как действительную функцию со следующими свойства­

ми: / > 0 , 1 ( х ) = /(—х)

и / не убывает для х>Ь.

Тогда потери яв-

 

л

 

ляются стохастической

переменной I(s—s), а

наилучшая оцен-

Теория фильтрации и упреждения

231

Л

ка, которая минимизирует средние потери El(s—s). Оцениватель мы определили как функцию, которая отображает У в 5. Можно потребовать, чтобы эта функция была линейной или имела ка­ кие-либо другие свойства.

Оценка состояния

По-видимому, существует много возможностей для постанов­ ки задачи оценки. Для стохастической теории управления наи­ больший интерес представляет тот случай, когда сигнал и шум

можно задать

стохастическими разностными или дифференци­

альными

уравнениями. Для процессов с дискретным временем

будем иметь уравнения вида

 

 

 

 

x(t+l)

= <bx(t) + v(t),

(2.1)

 

 

y(t)

= Qx(t) + e(t),

(2.2)

где {v(t)}

и {e{t)}—последовательности

независимых гауссо­

вых случайных

переменных. Для процессов с непрерывным вре­

менем имеем

 

 

 

 

 

dx = Axdt + dv,

(2.3)

 

 

dy = Cxdt - j - de,

(2.4)

где {v(t)} и {e(^)} — винеровские процессы. Предположим, что известна реализация наблюдаемого выхода у(х), t o ^ t ^ t и тре­ буется оценить вектор состояния .(2.1) или (2.3). Эта частная задача называется задачей оценки состояния.

Предварительные результаты

Сделаем предварительно несколько замечаний, которые поз­ волят установить эквивалентность различных постановок задач оценки. Прежде всего заметим, что вся необходимая статистиче­ ская информация, извлекаемая из наблюдений стохастической переменной s(t\), содержится в условном распределении

P[s(tl)<<J\y(%)=4(%),

t Q < r < t \ = ^ ( a | t i ) .

(2.5)

Плотность распределения обозначается через f(o/r\).

Предпо­

ложим, что наилучшая оценка

определяется как оценка,

мини­

мизирующая среднюю величину функции потерь /.

 

Для нахождения наилучшего оценивателя необходимо, таким

л л

образом, найти функцию s=s(r)), такую, что критерий

EI(s — s]

(2.6)

232

Глава 7

имеет минимальное значение. Для этого перепишем критерий в

л

таком виде, в котором зависимость s отг| будет явной. Имеем

 

£ / ( s - s ) = £ 4 [ £ { / ( s - s ) h } ] ,

 

(2.7)

где Tfl-lri}

обозначает условное

математическое

ожидание при

у ( т ) = т ) ( т ) ,

£ 0 < ^ < ^ - Минимизация выражения

(2.7*)

по всем

л

л

 

 

 

функциям s = s (л.) эквивалентна, таким образом,

минимизации

 

£ { / ( 5 - 5 ) | т , } =

J/(a - s)/(a |T|)rf(r .

(2.8)

Фундаментальные результаты изложены в теореме 2.1. Теорема 2.1. Предположим, что условное распределение s(ti)

при у—ч] имеет функцию плотности, симметричную относитель­ но условного математического ожидания пг = $а}(о\т\)с1о и невозрастающую при а^т. Пусть функция потерь / является симметричной и неубывающей для положительных значений аргумента. Тогда наилучшая оценка задается условным мате­ матическим ожиданием

s = s(n) = £ { s h }

= Ja/(a|ti)da.

(2.9)

Доказательство.

Доказательство основано

на следующей

лемме для действительных функций:

 

Лемма. Пусть g

и h — две

интегрируемые

действительные

функции со свойствами

 

 

 

 

g(x)>0,

h(x)>0,

 

g(x) = g i—x),

h(x) = h (—x),

 

g (x) не убывает

при x >- О,

 

h (x) не возрастает

при х > 0.

 

Тогда

 

 

 

 

оо

 

оо

 

 

[ g (х

+ а) h (х) dx > |

g (х) h (х) dx,

 

— ос

 

— с о

 

 

если интегралы существуют.

Доказательство. Предположим, что интегралы существуют и что а ^ О . Тогда

—а/2

f [g(x + a)h(x) — g(x)h(x)]dx=

j" \g(x + a) —

Теория фильтрации и упреждения

233

 

— g(x)]h(x)dx+

 

f

[g(x

+

a)~g(x)]h(x)dx

 

 

=

 

 

 

 

 

 

 

 

 

-а/2

 

 

 

 

 

 

 

 

 

 

 

 

 

со

 

 

 

 

 

 

 

 

 

оо

 

 

 

 

 

 

=

j [g (х — а) — g (х)} h(x)dx+

j

[g (x) —

 

 

 

 

 

a/2

 

 

 

 

 

 

 

 

 

a/2

 

 

 

 

 

 

 

— g (x — a)] [h (x — a)} dx —

 

 

 

 

 

 

 

 

 

=

со

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f [g (*) — g {* — a)\

[h [x — a) — h (x)\

dx.

 

 

 

 

 

a/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Первое

равенство

получается

с

помощью

разбиения

ин­

тервала

интегрирования.

Второе

равенство следует

из

замены

х-*—х

в первом

интеграле

и х-^х—а

во

втором.

Рассмотрим

функцию g (х) —g

(х—а).

 

 

 

 

 

 

 

 

 

 

 

 

Имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g(x) — g (х — a) =

g (х) — g (a — х) >

0

при

a/2 <

х < а,

 

так как g не убывает при положительных значениях

аргумента.

По той же

причине

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g(x)

— g (х — a) >

0

 

при

х >

а.

 

 

 

 

Следовательно,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

g(x)

— g(x

— a ) > 0

при

x > a / 2 .

 

 

 

 

 

Таким же образом находим, что

 

 

 

 

 

 

 

 

 

 

h(x)

— h(x—a)<0

 

при

 

х >

a/2.

 

 

 

 

 

Итак, подынтегральное выражение [g(x)—g(x—a)]

 

[h(x—a)

—h(x)]

неотрицательно

во всей области интегрирования, и лем­

ма доказана.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Для л доказательства

теоремы

2.1

заметим,

что

 

наилучшая

оценка s получается при минимизации функции

 

 

 

 

 

 

£ [ / ( s - s ) h ] =

J

/(a-s)f(cr|T])da=

]""/(/

+

 

 

 

 

 

 

 

+

m — s) f [t + m I iy)

tf.

 

 

 

 

 

Последнее

равенство получается

с помощью замены

f = o — m .

При g(x)=I(x)

 

и

/г{» =jF(^+m|ii)

полностью

выполняются

условия леммы. Таким образом, получаем

 

 

 

 

 

 

 

£ [ / ( s - s ) h ]

-

J/(/

+

m - s)/( * + /n|Ti)<tt>

 

 

 

 

 

 

 

 

 

— -о

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

оа

 

 

 

 

 

 

 

 

 

 

 

234 Глава 7

где равенство достигается при

 

л

л

~

s =

s (г|) = т =

а / (а | r|) da.

 

 

— оо

Теорема доказана.

 

 

Замечание 1. Из

теоремы следует, что, если условная плот­

ность удовлетворяет условиям теоремы, выбор функции потерь несуществен, если только эта функция симметричная п неубы­ вающая при положительных значениях аргумента.

Замечание 2. Нормальная плотность удовлетворяет услови­ ям теоремы. Для нормальных случайных переменных известно также, что условное математическое ожидание .Efslri} является линейной функцией т). Таким образом, для нормальных процес­ сов наилучшая оценка будет линейной функцией от наблюдений для всех функций потерь, удовлетворяющих условиям теоре­ мы 2.1.

Замечание 3. Если сигнал и шум заданы как случайные про­ цессы второго порядка, задачу оценки можно сформулировать, используя критерий

Л

Е (s — s)2 = min

л

при условии, что оценка s линейно зависит от г). Из замечания 2 следует, что наилучший оцениватель будет таким же, какой по­ лучился бы, если положить, что процессы гауссовы с теми же моментами первого и второго порядка, что и у данных процес­ сов второго порядка. Никакие ограничения на оцениватели не накладываются.

Теорема 2.1 может привести нас к заблуждению, что услов­ ное математическое ожидание всегда дает решение задач уп­ реждения. Следующий пример показывает, что это, конечно, не так.

Пример

Рассмотрим стохастический процесс, определенный следую­ щим образом:

 

dx=—xdw,

(2.10)

где {w(t),

teT}—винеровский

процесс с бесконечно

малой

дисперсией rdt. Определим наилучший упредитель на интерва­ ле (t, t-\-h), когда критерий равен минимуму среднеквадратиче­ ской величины и наиболее вероятной величине.

Так как уравнение однородно по времени, можно определять упредитель на интервале (0, h). Уравнение (2.10) имеет реше­ ние

 

Теория фильтрации и

упреждения

235

 

x(t)

- \ w ( t ) + l . r i \

 

 

 

 

х(0).

 

Условное

распределение

log (x(t))

при условии х(0) являет­

ся, таким образом, нормальным:

 

 

 

 

N[~±rt

+ logх{0),

У*},

 

а условное

распределение

x(t)

при

условии х(0)

будет лога­

рифмически

нормальным.

 

 

 

 

Функция плотности

равна

 

 

 

 

 

 

l o g ( E / * ( 0 ) + Y r f

 

 

 

ехр

 

 

 

 

 

 

/(5,0 =

о, £ < о .

 

Для среднего значения

имеем

 

 

 

Мода распределения, т.е. величина |, при которой функция плотности / ( | , t) достигает своего максимума, дается формулой

*о(9

о - 3 / 2 " х(0).

Отсюда находим, что «минимальный среднеквадрэтический» упредитель x(t-\-h), полученный из наблюдений x(t), дается формулой

x(t + h\t) = x(t),

в то время как «наиболее вероятным» упредителем будет

А—3/2rft

x{t + hlt) = e

x{t).

Упражнения

1. Пусть сигнал {s(t), teT) и шум {n(t), teT} являются независимыми стационарными стохастическими процессами с ковариационными функциями rs{t) и rn(t) соответственно. По­ ложим, что линейная комбинация

y=s+n

наблюдаема и требуется предсказать s на интервале длиной h с помощью линейной операции

236 Глава 7

s{t + h)= j

g{t — x)y{t)d% =

j' g(u)y(t — u)du.

oa

6

Показать, что среднеквадратическая ошибка упреждения определяется выражением

£ [ s ( f + A ) - s ( / + A)]» = r , ( 0 ) - 2 ^ g(u)rs(h+u)du

+

о

+ j £ (") da j g (о) [г, (и о) + гп (и — v)) dv.

оо

Задачу упреждения можно сформулировать, таким образом, как задачу минимизации среднеквадратической ошибки упреж­ дения.

2. Рассмотреть среднеквадрэтическую ошибку упреждения, полученную в упражнении 1, как функционал от весовой функ­ ции g упредителя

оо

га

 

J[g) = r s ( 0 ) - 2 \g(u)r,(u

+ h)du+\\g(u)[r,(u-v)

+

о

о

 

+ гп (и — v)] g (и) du dv.

Показать, что первая и вторая вариации этого функционала имеют вид

 

 

J\g

+ 6g]=J

[g]

+ J„

где

 

 

 

 

 

 

 

се

 

со

 

 

h

= ~

2 j &g(u) [rs (и +

h)~

j [rt (u~v)

+

 

 

о

 

0

 

 

 

 

+

rn(u

— v)] g(v)

dv\ du,

h

= j

j Sff (и)6c? (o) f's (" — ») +

/•« (" — v)] dudv.

 

 

0

 

 

 

 

Показать также, что необходимым и достаточным условием того, чтобы g была весовой функцией оптимального упредителя, будет

оо

 

 

 

rAt + h)-\[rt(t-v)

+ ra(f~v)]g(v)do

= Ot t>0

(2.11)

6

 

 

 

и rs-\-rn— положительно определенные функции. Интегральное уравнение (2.11) называется уравнением Винера—Хопфа.

Теория фильтрации и упреждения

237

3. Рассмотреть

скалярный

стохастический

процесс

{y(t),

t е Т} с дискретным

временем

 

 

 

 

 

 

 

0 ( 0 = Е

ёЦ,п)е{п),

 

 

 

 

 

n=t„

 

 

 

 

 

где {e{t), teT}

— последовательность

независимых

одинаково

распределенных

нормальных с

параметрами (0,

1)

случайных

переменных и g(t,

t)^0 для каждого

/. Определить

наилучший

среднеквадратический ^-шаговый упредитель и ошибку упреж­ дения для этого процесса.

 

Указания.

 

Величины

е(г'о), е(^ 0 +1)

e(t) можно вычислить

по

значениям

y(t0),

#(^о-И),--->

ll{t)-

Сравнить

с результатами

разд. 3 гл. 6.

 

 

 

 

 

 

 

 

 

 

 

{y{t),

 

4.

Рассмотреть

скалярный

 

стохастический

процесс

t еТ}

с непрерывным временем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

УЦ) = §

 

g(t,s)dw(s),

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

 

 

 

где

{w(t),

teT}—винеровский

 

процесс

с единичной

диспер­

сией. Определить наилучший

среднеквадратический

упредитель

на

интервале

(t, t-\-h).

 

Определить также

ошибку

упреждения.

Ограничиться

случаем g(t, s) =

(i—s)e-(,_s!

и

t0=—со.

 

 

Указание.

 

Оператор G

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

Gu =

 

j (t s) e"{t~s)

и (s) ds

 

 

 

имеет обратный оператор

 

 

 

 

 

 

 

 

 

 

 

 

 

,

и =

d2u

 

, n du .

 

 

 

 

 

 

 

 

 

G

г

dt*

h 2

H .

 

 

 

 

 

 

 

 

 

 

 

 

 

dt

 

 

 

 

 

Наилучшим упредителем тогда

 

будет

 

 

 

 

 

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

y{t

+ h) =

f (t + h - S) e~'t+h-s)

 

\y{s)ds+2^ds

+

d(^£]

 

 

 

 

CO

 

 

 

 

 

 

 

 

 

 

 

Заметим, что dy/dt

непрерывно

в среднеквадратическом

смыс­

ле. Интегрирование по частям

дает

 

 

 

 

 

 

 

 

 

л

 

 

 

 

 

 

 

du

 

 

 

 

 

 

 

y{t + h) = (l + h) е-ь у (t) -i- he-» -± .

 

 

5. Оптимальный упредитель из упражнения 4 содержит диф­ ференциатор. Определить наилучший среднеквадратический уп­ редитель вида

238

Глава 7

y(t + h) = ay(t)

для задачи из упражнения 4. Сравнить с результатами упраж­ нения 4.

3.ПРЕДВАРИТЕЛЬНЫЕ РЕЗУЛЬТАТЫ

Вэтом разделе получены некоторые предварительные ре­ зультаты, необходимые при решении задачи оценки. Сначала выведены некоторые свойства условных распределений для га­ уссовых случайных переменных. Затем даны геометрическая

интерпретация

полученных

результатов

и

краткое

обобщение

на случай бесконечного множества переменных.

 

Многомерное гауссово

распределение

 

 

 

 

Пусть

у есть

«-мерный

нормальный

вектор с математичес­

ким ожиданием т и ковариационной матрицей R. Распределе­

ние называется

вырожденным (сингулярным),

если .R — вырож­

денная

(сингулярная)

матрица, и

невырожденным

(регуляр­

ным), если R регулярна. Все массы

вырожденного распределе­

ния располагаются на гиперплоскости в n-мерном пространстве. В этом разделе мы полагаем, что R — невырожденная матрица. Это не является сильным ограничением, так как, если распреде­ ление вырожденное, всегда можно сделать проекцию на гипер­ плоскость, на которой распределены массы, и получить невы­ рожденное распределение. Формально эту задачу можно ре­ шить введением псевдоннверсии, когда требуется инверсия ко­ вариационной функции.

Функция плотности вероятности нормальной переменной с

математическим

ожиданием т и ковариацией R имеет вид

f (х) = ( 2 я р / 2

(det R)~in exp {— -j (x — mf R~l (x — m) j . (3.1)

(Сравнить с результатами гл. 2.) Часто представляет интерес анализ свойств двух векторов, имеющих совместное гауссово распределение.

Теорема 3.1. Пусть х и у есть п Х 1 - и pXl-мерные векторы. Предположим, что вектор [*] имеет гауссово распределение с

математическим ожиданием

ковариацией R — Rx

Rxy

Тогда вектор

Ryx

Ry j

 

 

г = х - тх — RxlJ

R-' (у - ту)

(3.2)

не зависит от ;/, имеет нулевое математическое ожидание и ковариацию

Теория

фильтрации и упреждения

239-

Rt

= Rx-RxaR7lRyx.

(3.3)

Доказательство. Имеем

Ez = Ex — mx— RxyRJ1 (Ey my) - 0. Рассмотрим равенства

 

Ez {у myf = E (x — mx) (y my)T

£ (у — '",,) — >пу)т = — RXy RV1 Ry = 0,

из которых следует, что векторы z и у не коррелированы. По­ скольку эти векторы гауссовы, то они также и независимы. Так как Ez=0, то

Rz

= EzzT

= E[x

— mx— Rxy R~l my)] [x — mx

 

— RXy RV1

mv)]T

= E[x

— mx]

[x — m / —

 

 

 

— E (x -

mx) (y -

mf

R^1

RyX-

 

 

 

 

— ERxy

R^1

(y

tny) (x — mf

+

 

 

 

 

-f ERxy

Ri1

(y -

my)

(y - mf

RJ1

Ryx = Rx -

Rxy

Ry~lRyx.

Теорема

доказана.

 

 

 

 

 

 

 

 

Теорема 3.2.

Пусть

х

и у — векторы,

имеющие

совместное

гауссово распределение. Если условное распределение х отно­

сительно у является нормальным с математическим

ожиданием

E[x\yl

= mx

+ Rxy

Ry~l (у-

my)

(3.4)

и ковариацией

 

 

 

 

 

Е {[х - Е (х | у)] [х—Е(х\

y)V

ly) =

Rx - Rxy

Ryl Ryx

= Rz, (3.5)

то стохастические переменные у и х — £[л:|г/] независимы. Доказательство. Теорема может быть доказана непосред­

ственно из определения условной плотности и из формулы (3.1) для плотности вероятности гауссовых векторов. Алгебраичес­ кие преобразования будут проще, если использовать перемен­ ные 2 и у, определяемые следующим образом:

Z

1

-KxyR?

' X — тх~

.У~ту .

о

 

 

.у— ту

Следовательно,

 

 

 

 

' х— тх~

/

 

RxyR^

2

.У- ту-

0

/

. .У — ту.

Так как якобиан преобразования равен 1, то совместную плот­ ность х и у можно переписать в виде