Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Острем К.Ю. Введение в стохастическую теорию управления

.pdf
Скачиваний:
10
Добавлен:
24.10.2023
Размер:
10.97 Mб
Скачать

160

 

Глава 5

 

становления переменных

состояния

используем математическую

модель

 

 

 

 

x(t+l)

= Ox(f)

+ Tu(t)

+ K[y(t) — Bx{f)].

(4.8)

Блок-схема системы, описываемой моделями (4.6) — (4.8), при­ ведена на рис. 5.7. Сформулируем задачу параметрической оп­ тимизации.

Задача 4.1

Задан произвольный постоянный вектор а. Найти такую по­ следовательность матриц K(t), для которой среднеквадратическая ошибка восстановления скалярного произведения атх ми­ нимальна.

Решение

Для решения задачи оценим сначала среднее и дисперсию ошибки восстановления, а затем произведем минимизацию. Вы­ ведем предварительно уравнение для ошибок восстановления. Вычитая выражение (4.8) из выражения (4.6), получим

x(t+ l)=x(t+

l)

x(t + l) =

Ox(t)

+ v(t)

— K[y(t)

— Qx(t)}.

Используя уравнение

(4.7), найдем

 

 

 

x(t

+ 1)

= (Ф — Щ

x{t) +

v(t)

Кг (t).

(4.9)

Таким образом, ошибка восстановления определяется стохасти­

ческим

разностным уравнением. Такое

уравнение

рассмотрено

в гл. 3

(теорема 3.1). Среднее значение

ошибки восстановления

равно

 

 

 

 

 

Ex(t+l)

= [0 — KQ]Ex(t).

(4.10)

Следовательно, если выбрать начальное условие такие образом,

~

 

л

 

 

 

 

 

чтобы Ex(t0)=E(x(t0)

—пг)=0,

то ошибка восстановления об­

ратится в нуль независимо от выбора

матрицы

К. Дисперсия

ошибки восстановления

равна

 

 

 

 

 

Р(t)

= Е (х(t) — Ex(t)]

[x(t)

— Ex(t)]T.

(4.11)

Ее можно вычислить из уравнения

 

 

 

P(t+l)

= [Ф-Щ

Р (0 [Ф—Щ

T + Rx +

KRZКт

 

 

 

при

P(tQ)

= R0,

 

(4.12)

которое следует из теоремы 3.1 гл. 3. Этот результат можно так­ же получить непосредственно умножением выражения (4.9) на

Параметрическая оптимизация

161

транспонированное выражение и переходом к математическому ожиданию.

Получив уравнение для дисперсии ошибки восстановления, выберем теперь матричный коэффициент усиления К таким об­ разом, чтобы дисперсия скалярного произведения атх была мини­ мальной. Так как

 

Е (атх)2

= Еатх

 

хта = ат {Ex хт)

а=ат

Р (t) а,

 

 

 

то, используя уравнение

(4.12), получим

 

 

 

 

 

 

 

 

 

aTP(t+

1) а = ат

{ФР (t) Фт

+ RL

— KQP (t) Фт

 

 

 

 

-

ФР (/) QTKT

+ К [R2 + QP (t) QT] Кт\ а.

 

 

(4.13)

Теперь

коэффициент усиления можно • определить

рекурсивно.

При t=t0

правый

член

выражения

(4.13)

представляет

собой

квадратичную

функцию

К. Путем

подбора

К

можно

добиться

того, что P.(i?o+l)

будет минимально. После этого положим

t0=

= ^о+1

и

определим

 

K—K(t0-\-l)

таким

образом,

чтобы

Я ( / 0 + 2 )

было

минимальным. Для этого

перепишем

 

выражение

(4.13), дополняя его до полного квадрата

 

 

 

 

 

 

 

 

Р (t + 1) =

ФР (t) фт л- рг

— ФР (t) 9Г \R2 + QP (/) б7 "]-1

QP (t) Фт

+

 

~

[К — ФР (t) QT [R2

+ QP (t) е г Г' ) [R2

+ QP (t) QT\

x

 

 

X [К— ФР (0 QT

[R2

+ QP (t) 9 Г Г ' ] 7

 

 

 

 

 

(4.14)

Рассмотрим теперь скаляр

 

 

 

 

 

 

 

 

 

ат Р it 1) а = ат \ФР (t) Фг

-f- # х ФР (t) QT

[R2 + QP (t) QT]~l

x

j

 

X QP (t) Фт] a + aT \K — ФР (t) QT

[R2

+ QP (t) QT]_1}

X

X[R2

+ QP(t)QT] [K~OP(i)QT

[R2 + QP(t)QTr1\Ta.

 

 

(4.15)

Правая часть этого равенства является функцией двух членов: первый член не зависит от К, а второй неотрицателен, поскольку матрица Р 2 + 0 Р ( ^ ) 6 Г неотрицательно определена. Таким обра­ зом, левая часть выражения минимальна, если К выбрано так, что второй член в правой части (4.14) равен нулю. Итак, по­ лучим

К = К (0 = ФР (t) QT [R2 + QP (t) Q7]-1,

(4.16)

P (t + 1) = ФР Ц)фт + Rt — ФР (t) QT[R2+QP (t) 0r ]-] 0P (t) Фт. (4.17)

Отметим, что результат не зависит от а. Следовательно, если вы­ брать К так, чтобы минимизировать среднеквадратическую ошибку восстановления хотя бы для одной линейной комбина­ ции переменных состояния, то тем самым будет найден мини-

11—403

162

Глава 5

 

 

 

мум среднеквадратической ошибки

восстановления

для

произ­

вольных линейных комбинаций.

 

 

 

Отметим также, что выражение

(4.17) дает дисперсию

ошиб­

ки восстановления для

случая оптимального восстановления.

Первый член ФР(^)Ф Т

правой части этого выражения

показыва­

ет, каким образом изменяется ошибка восстановления от момен­

та t до момента £ +1 . Член R\ представляет собой

увеличение

дисперсии ошибки восстановления из-за помехи v,

которая дей­

ствует на систему, а третий член выражения (4.17) показывает, как уменьшается ошибка восстановления при получении инфор­ мации из результатов измерений.

Из выражений

(4.16) и (4.17) следует, что

 

 

 

 

 

P(t+l)

= ФР (t) ФТ + R± — f((t)

QP (t) ФТ =

 

 

 

 

 

 

= [<S>-K(t)Q]P(f)<DT

 

+

RLT

 

 

 

 

 

 

К (0 R2

+ К (t) QP (t) e r

= ФР (t) QT.

 

 

Вычитая из первого уравнения второе, помноженное на

KT{t),

получим

 

 

 

 

 

 

 

 

 

 

 

 

Р{t

+ 1) =

ФР (/) ФТ

+ RT

— K(t) QP(/) ФТ

ФР(/) 9 Г К Т ( t )

+

 

 

+

к (/) RT кт

(t) + к (о ер (t) Qt кт

(t) =

 

 

 

 

=

[Ф - - К (0 6] Р (f) [Ф -

К (0 9]T

+

R1

+ К (t)R2K

T(t).

Из этого уравнения легко вывести чисто алгебраически,

что ес­

ли P(t)

неотрицательно определена, то P(t-j-l)

также

неотрица­

тельно определена.

 

 

 

 

 

 

 

 

 

 

Итоги сформулированы в теореме 4.1.

 

 

 

 

 

 

Теорема 4.1. Рассмотрим

динамическую систему (4.6)

с вход­

ным

сигналом (4.7).

Восстановление

переменных

состояния

системы

с помощью

математической

модели

(4.8) оптимально

по

среднеквадратической

ошибке,

если

коэффициент уси­

ления

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

K{t)

=

<bP{t) QT [R2

+

QP(t)QT\-\

 

 

где P{t) —дисперсия оптимального восстановления, определяе­ мая формулой

Р (t - f 1) = ФР (t) фт

+

R±

— фр (/) 9Т [R2 + QP (t) QT]~}QP

(t) ФТ =

- 1Ф-КЦ)ЩРУ)ФТ

+ RX=№-K(t)Q)P(t)

[Ф-

-K(t)Q}T-{

R1

+

K{t)RIKT(f)

(4.18)

при

 

 

 

 

P(t0) = R0-

Параметрическая

оптимизация

163

Примечание 1. Отметим, что

решение

задачи

оптимизации

позволяет восстановить состояние

системы

по формуле (4.8) с

минимальной среднеквадратической ошибкой. В гл. 7 показано, что метод восстановления, соответствующий формуле (4.8), яв­ ляется оптимальным.

 

Примечание

2.

Из дифференцирования

вытекает,

что

теоре­

ма 4.1 остается верной и в том случае, когда

матрицы Ф,

Г,

0,

R\

и R2

зависят от времени. Если учесть зависимость от

време­

ни, то модель, описываемую уравнениями

(4.6)

и (4.7),

можно

представить в виде

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

х (t +

1) = Ф it +

1;

t) х (f) +

Г (t) u(f)

+

v (О,

 

 

 

 

 

y(t)

=

B(f)x(f)

+

e(f),

 

 

 

 

 

 

 

 

 

 

где

R\(t)

и R2(t)—ковариационные

 

матрицы

 

процессов

v(t)

и e(t) соответственно. Оптимальное

восстановление

определяет­

ся формулой

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x(t+l)

= 0(i+

 

1; f)x(f)

+

T(t)u(t)

 

+

K(t)

 

\y(t)-B(f)x(f)],

 

где

K{t)

задается

формулами

(4.16)

и

(4.18) с Ф =

Ф ( £ + 1 ;

t),

 

 

г =

г (о,

е =

е (л,

RX = Rx

(t) и

# а

=

R2

(/).

 

 

 

Упражнения

1. Рассмотреть динамическую систему, описываемую уравне­ ниями

x(t+l)

=

i j

'

[i e(t),

*/(/) =

[1

0]x(t),

 

где {e(t), t eT}—последовательность

 

независимых нормаль­

ных случайных величин с параметрами

(0, 1). Предположим, что

начальное состояние х(0)

нормально со средним значением

Ех(0)= П

1

и ковариационной матрицей

covfjc(O), х(0)]

о

0 о?

Найти коэффициент усиления оптимального восстановления по формуле (4.8). Определить также ковариационную матрицу ошибки восстановления.

11*

164

Глава 5

2.Рассмотреть динамическую систему

х(t + 1) = Фх (0 + Ти (0 + v (t),

выходная переменная которой определяется формулой iKQ = e*(/)-f еЦ),

где {е(г)} и {v(t)} —белый шум с дискретным временем с ну­ левыми средними и ковариационными матрицами

Ev(t)vT(s) = 8STRV

Ev(t)eT(s) = 8STRYL,

Ee(t)eT (s) =

8SIRR

Показать, что переменные состояния можно восстановить с по­ мощью математической модели

 

 

х (t+i)

 

=

Фх (о + ги (о +

К [у (0 -

е*'(/)],

 

 

в которой оптимальное значение К определяется

формулой

 

к

=

к

=

[ФР (о е т

+

R12)

[ЭР (t)

е г

 

 

+R2}-\

 

 

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(t

+

1)

= ФР

(t) ФТ

+ RLк

 

[R2 +

е р

(о е7 ]

к г

(t).

 

3. Восстановление

по формуле

 

(4.8)

обладает

тем свойством,

что значение

вектора

состояния

в

момент

t

восстанавливается

по t — 1

наблюдаемым

значениям

выходной

переменной

y(t—1),

y(t—2)

 

 

Другой

метод

 

восстановления,

который

также использует y(t)

для восстановления

x(t),

можно

пред­

ставить уравнением

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x(t+

\)

= <S>x{t) + TuU)+K(t+

 

l){y(t+

 

1 ) -

 

 

 

 

 

 

 

-

6 [ф£(/) +

Ги (*)]}.

 

 

 

 

 

(4.19)

Показать, что если управление системой осуществляется

урав­

нениями

(4.6)

и

(4.7), то оптимальный

выбор К

 

определяется

формулами

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

K(t)

= P(t)QT

[ R Z

+

 

QP(t)QT}~\

 

 

 

 

 

 

 

 

p(f)

= q>s(t—

1 ) Ф г

+

«1,

 

 

 

 

 

 

 

 

 

 

 

 

S(t)

= P(t)-K(t)

 

QP(t),

 

 

 

 

 

S(t0) = R0.

Дать также физическую интерпретацию матриц.

Параметрическая оптимизация

165

4. Рассмотреть систему из упражнения 1. Определить мат­ ричный коэффициент усиления при оптимальном восстановле­ нии по формуле (4.19). Найти ковариационную матрицу ошибки восстановления. Сравнить это с результатами, полученными

вупражнении 1.

5.В уравнении (4.18) теоремы 4.1 существуют три способа рекурсивного вычисления матрицы Р (t). Исследовать вычисли­ тельные аспекты этих методов.

5.ВОССТАНОВЛЕНИЕ ПЕРЕМЕННЫХ СОСТОЯНИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВНЫМ ВРЕМЕНЕМ

Введение

Перейдем к решению задачи для систем с непрерывным вре­ менем. Рассмотрим систему, описываемую стохастическим диф­ ференциальным уравнением

 

 

dx = Axdt + Budt + dv,

 

 

(5.1)

где

.v — n-мерный вектор состояния,

и — /--мерный

вектор

вход­

ного сигнала

и v —винеровский

процесс с ковариацией

прира­

щений R\dt. Предположим,

что

выходной

сигнал системы опи­

сывается уравнением

 

 

 

 

 

 

 

 

 

dy = Cxdt + de,

 

 

(5.2)

где

выходной

сигнал у — р-мерный

вектор

и е — винеровский

процесс с ковариацией приращений

R2dt.

Матрицы

А, В,

С,

Ri

к R2

могут зависеть от времени. Предполагается, что их элемен­

ты

являются

непрерывными

функциями

времени. Матрица

/?2

положительно

определена,

a Ri неотрицательно

определена.

На рис. 5.8 приведена блок-схема физической системы, кото­ рую приблизительно можно представить моделью (5.1), (5.2).

Р и с. 5.8. Блок-схема физической системы, которую можно представить мо­

делью

(5.1)

и (5.2). Случайные процессы v и е имеют конечные дисперсии

и постоянные

спектральные плотности в интервале (—а>0> шо). где ш0

велико

по

сравнению с максимальным собственным значением матрицы

А.

166 Глава 5

Из рассуждений, аналогичных приведенным в разд. 4, найдем, что восстановление можно представить в форме

dx = Axdt + Budt • Ь К \dy — Cxdt\,

(5.3)

где К — матрица /гХр порядка с зависящими от времени аргу­ ментами. Чтобы определить, может ли модель (5.3) соответство­ вать правильному восстановлению, введем ошибку восстановле­ ния

Используя уравнения (5.1) и 5.2), получим, что ошибка восста­ новления является марковским гауссовым случайным процес­ сом, удовлетворяющим стохастическому дифференциальному уравнению

dx = (A — KC,xd( + dv — Kde.

(5.4)

Для изучения свойств восстановителя (5.3) необходимо исследо­ вать стохастическое дифференциальное уравнение (5.4). Исполь­ зуя теорему 6.1 гл. 3, получим, что среднее значение ошибки вос­ становления определяется уравнением

 

 

~(Ех)

= (А-КС)(Ех),

 

(5.5)

 

 

at

 

 

 

 

 

 

 

Ex(t0)

=

Ex(t0)-x(t0)

 

и что ковариационная матрица ошибки

восстановления

 

P(t) =

E\x(t) —

Ex(t)\

\x(t)

Ex(t)\T

(5.7)

определяется уравнениями

 

 

 

 

 

=

(А -

КС) Р + Р (А -

КС)Т

+ R, - f KR2 Кт,

(5.8)

Р(t0)

=

Е {х(t0)-х(t0)}

\х(t0-х(Щт

= R0.

(5.9)

Следовательно, если К выбрать из условия устойчивости урав­

нения (5.5), то среднее значение ошибки

восстановления

долж­

но быть равно нулю. Из уравнения

(5.5)

также

следует,

что ес­

ли ошибка восстановления

имеет

нулевое среднее значение

в любой момент времени t0,

то она

будет равна

нулю для

всех г1.

Дадим физическую интерпретацию членам уравнения

(5.8),

которое перепишем в виде

 

 

 

 

 

=АР+РАТ

+ R±~

{КСР + РСТКТ~

KR2KT).

(5.10)

Первые два члена представляют собой изменение ковариацион-

Параметрическая оптимизация

167

ной матрицы ошибки восстановления, связанное с динамикой системы. Член R i представляет увеличение ковариационной мат­ рицы ошибки восстановления, вызванное помехой v, действую­ щей на систему. Последний член представляет уменьшение ко­ вариационной матрицы ошибки восстановления в результате проводимых измерений. Он зависит конечно от выбора матрич­ ного коэффициента усиления.

Задача параметрической оптимизации

После того как получены уравнения для ошибки восстановле­ ния, рассмотрим вопрос об оптимальном выборе К . Предполо­ жим, что Ex(t0) = 0, т. е. что среднее значение ошибки восста­ новления равно нулю. В качестве критерия выберем среднеквадратическую ошибку восстановления линейной комбинации пере­ менных состояния атх. Имеем

Е (атх)2 = Е {атх) (ха) = ат Еххта = ат Р (7) а,

(5.11)

где последнее равенство вытекает из того, что среднее ошибки восстановления равно нулю. Используя дифференциальное урав­ нение (5.8), получим

 

 

— aTP(t)a

=

ат

{ А Р +

 

Р А Т + R x ) а

-

 

 

 

dt

 

 

 

 

 

 

 

 

 

 

+ ат { K R 2 K T

КСР

РСТКт)а.

 

(5.12)

Для дальнейшего необходимо доказать лемму.

 

 

Лемма 5.1. Пусть Р и Q — решения уравнений

Риккати

=

АР +

Р А Т +

Rx

+ K R o K T

- K C P - P C T Кт>

(5.13)

dt

 

 

 

 

 

 

 

 

 

 

 

М.

=

Л<2 +

Q A T

+

 

— Q C T

R T l CQ

 

(5.14)

dt

 

 

 

 

 

 

 

 

 

 

 

с начальными условиями

 

 

 

 

 

 

 

 

 

 

 

P(t0)

= Q(t0) = Ra,

 

(5.15)

где матрица

R 0 симметрична,

a R 2

положительно

 

определена.

Тогда матрица P(t)—Q(t)

 

неотрицательно определена и

 

 

 

 

P(t)

= Q(t)

 

(5.16)

при

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

К

=

Р

С Т

R T 1 .

 

(5.17)

168

 

 

Глава

5

 

 

 

 

Доказательство.

Из уравнений

(5.13)

и

(5.14)

следует,

что

A(/>_Q)

= А(Р—

Q) + (P — Q)AT

+ KR* Кт

— КСР — РСТКТ

+

dt

 

 

 

 

 

 

 

 

+ QCT R7X CQ = (Л — КС) (P -

Q) - f (P -

Q) (A -

KC)T +

 

4- (K—QCTRT1)RoAK-QCTRr)T.

 

 

 

 

(5.18)

Пусть W(t;

s) — решение дифференциального уравнения

 

 

 

= [A (t) -K(t)

С (t)\ Ч (/; s),

 

 

 

 

dt

 

 

 

 

 

 

 

W(t;t) = I .

 

 

 

'

(5.19)

Решение уравнения

(5.18) можно представить в виде

 

 

 

 

i

 

 

 

 

 

 

 

P(t)-Q

(t) = j V (t- s) [K (s) - Q (s) CT(s) R7l

(S)\ R2

(S)

[R (S)

-

 

— Q(s)CT(s)RTl(s)]TWT

(f; s)ds.

 

 

(5.20)

Однако матрица в правой части всегда неотрицательно опреде­ лена при любом К. При

К = QCT RT1

получим P(t)=Q(t), т. е. равенство (5.16), и лемма доказана. Таким образом, доказано, что при произвольном выборе К величина aTP(t)a минимальна для всех а. Оптимальное значение матричного коэффициента усиления определяется выражением (5.17). Оптимальный выбор К приводит, таким образом, к мини­ мальной ошибке восстановления для любой линейной комбина­

ции переменных состояния. Выводы

сформулированы в теоре­

ме 5.1.

 

 

Теорема 5.1. Пусть динамическая

система подвергается дей­

ствию помех и ошибки измерений

 

описываются уравнениями

(5.1) и (5.2). Восстановление (5.3)

оптимально в смысле крите­

рия среднеквадратического отклонения, если

начальное условие

 

x(il))

= Ex(t0)

 

(5.21)

и если коэффициент усиления выбран так, что

 

 

K(t)

= P(t)CTRf,

 

(5.17)

где P(t)—ковариационная

матрица ошибки

при

оптимальном

восстановлении. Матрица

P(t)

удовлетворяет

уравнению Рик­

кати

 

 

 

 

^ dt — АР -f- РАТ +

# j + РСТ RA CP

(5.22)

Параметрическая оптимизация

169

с начальным условием

 

P(t0)=Ro-

(5-23)

Замечание. Задача параметрической оптимизации для вос­ становления состояния решена для восстановления в форме (5.3). В гл. 7 доказано, что такая структура фактически является оптимальной.

Упражнения

1. Рассмотреть движение частицы вдоль прямой линии. Пред­ положить, что ускорение частицы представляет собой белый шум

со спектральной плотностью 1/(2 я)

и что измерение координат

частицы сопровождается ошибками,

представляющими

собой

белый шум со спектральной плотностью г / ( 2 я ) . Найти

мини­

мальную дисперсию восстановления по формуле (5.3) для поло­ жения и скорости частицы. Определить также ковариационную матрицу ошибки восстановления.

2. Рассмотреть динамическую систему, описываемую уравне­

ниями

(5.1) и (5.2), где е

и v — коррелированные винеровские

процессы с нулевыми средними значениями

и ковариационной

матрицей

приращений

 

 

 

 

 

 

 

 

dv

[dvT

deT]

=

Rl2

dt.

 

 

 

de

 

 

 

 

 

Rn

R*

 

 

 

 

 

 

 

 

 

Показать,

что минимальная дисперсия

восстановления (5.3)

по-

 

 

 

 

 

 

 

л

 

лучается в том случае, если выбрать начальное условие x(t0)

=

=Ex(to)

и матричный коэффициент усиления

 

 

 

 

K(t) =

[P(f)CT

+

R]RTl,

 

где ковариационная матрица ошибки восстановления удовлетво­ ряет уравнению Риккати

*L = [A-R12RTlC]P

+ P[A~ RltRTlC]T+

Ъ-

at

 

 

 

 

— RuR7lRl*-PCT

RT'CP,

 

P(t0)

= R0-

 

 

3. Сигнал акселерометра дает информацию о вертикальной составляющей ошибки, который используется для поддержания сервоплатформы перпендикулярно вертикали (рис. 5.9). Для не­ больших отклонений сигнал акселерометра можно описать урав­ нением

у = И + п,