Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Липцер Р.Ш. Статистика случайных процессов. Нелинейная фильтрация и смежные вопросы

.pdf
Скачиваний:
19
Добавлен:
27.10.2023
Размер:
20.66 Mб
Скачать

ВВЕДЕНИЕ

1.

Значительный круг задач статистики случайных процес­

сов формулируется в рамках следующей схемы.

задан

На

некотором вероятностном пространстве (Q, 9~, Р)

частично наблюдаемый случайный процесс (Ѳ, £) — (Ѳ,, %t),

t ^ O ,

у которого наблюдаться может лишь вторая компонента

£=(£*),

0.В каждый момент времени t требуется, основываясь на

наблюдениях £g={gs, давать оценку (ненаблюдае­ мых) значений Ѳ^. Эта задача оценивания (иначе — задача филь­

трации)

по Ц и будет изучаться в настоящей

книге.

Хорошо

известно, что если МѲ^<оо,

то

оптимальной

в среднеквадратическом смысле оценкой Ѳ, по

 

является апо­

стериорное

среднее mt = М (Ѳ ,|^ ), где £Г\ — о {со: ls, s <

есть ст-алгебра, порожденная величинами

Таким образом,

решение задачи оптимальной (в среднеквадратическом смысле) фильтрации сводится к отысканию условных математических ожиданий mt — М (Ѳ, |

В принципе, условные математические ожидания М (Ѳ ,|^ )

могут быть вычислены по формуле Байеса. Однако даже во многих сравнительно простых случаях выражения, полученные с помощью формулы Байеса, являются слишком громоздкими, что сильно затрудняет как практическое использование, так и исследование структуры и свойств найденных таким образом оценок.

С вычислительной же точки

зрения желательно, чтобы фор­

мулы, определяющие «фильтр»

mt, t '^

0,

носили рекуррентный

характер.

Грубо говоря, это означает, что значение пц+д, А > 0,

должно восстанавливаться

по

значению

mt и наблюдениям

^ +i = {£s,

f ^ s ^ f + A}.

В

случае

дискретного времени

t — 0, 1, 2, . . . простейшей формой таких рекуррентных соот­ ношений может служить, например, уравнение

Аmt = a{t, mt) + b(t, mt){lt+x — \ t),

(1)

где Amt — mt+[ mt. В

случае непрерывного времени

0

такой формой обладают

стохастические дифференциальные

8

ВВЕДЕНИЕ

 

уравнения

mt) dt + b(t, mt) dlt.

(2)

dmt — a{t,

Ясно, что без специальных предположений о структуре про­ цессов (0, I) трудно рассчитывать на то, что оптимальные оценки mt будут удовлетворять рекуррентным соотношениям типа (1) и (2). Поэтому, прежде чем описывать структуру рас­ сматриваемых нами процессов (Ѳ, g), для которых в данной книге изучаются задачи фильтрации, начнем с некоторых при­ меров.

Пусть Ѳ—гауссовская случайная величина с МѲ = т , D0=y> что для краткости будем записывать в виде 0 ~ N (т, у). Пред­ положим, что наблюдению подлежит последовательность

6/ = Ѳ + в„

/ - = 1 , 2 , . . . ,

(3)

где 8j, е2, ... — независимые

между собой

(и от 0) гауссовские

случайные величины с нулевыми средними и единичной дис­ персией. Пользуясь теоремой о нормальной корреляции (тео­

рема 13.1)*), легко найти, что

оценка /п ^= М (Ѳ [|1, . . . , gt)

и ошибка «отслеживания»

у<= М ( 0 — mt)2 определяются

фор­

мулами

 

 

 

t

 

 

 

т+ 2

h

 

 

=

У ^ Т + ^ Г

(4)

Отсюда для mt и yt получаем следующие рекуррентные урав­ нения:

 

 

Лш<=

ТТ ^7 [If-и — “ 'I'

 

!"j|

 

 

4v,= —

 

(6)

где Amt — mt+x — mt, Ayt — Yt+i ~ Ye

е2, ...

та­

Усложним

рассмотренный пример. Пусть 0 и eIt

ковы же, что и в предыдущем примере, а наблюдаемый

про­

цесс gf, t — 1,

2, . . . ,

определяется соотношениями

 

 

 

lt+ t =

^о(^> I) + Ai (U І) 0 + В(+н

 

(7)

где функции A0(t, g) и A {(t, g) п р е д п о л а г а ю т с я { с о :

g0, ■■■,%}•

измеримыми

(т. е.

A0(t,

g) и A {{t, g) при каждом

t зависят

лишь от значений

g0,

. . . ,

%t).

 

 

*) В книге принята двойная нумерация теорем, лемм и формул. Первая цифра указывает номер главы, вторая — порядковый номер в данной главе.

 

 

ВВЕДЕНИЕ

9

Отметим, что необходимость рассмотрения коэффициентов

A0(t, |)

и

Л, (/, |), зависящих от

всех

«прошлых» значений

( |0,

ІО,

возникает, например,

в задачах управления (§ 3,

гл. 14), где эти коэффициенты играют роль «управляющих»

воздействий, в задачах теории информации (§

4, гл. 16), где

пара функций

(Л0(^, |), Л, (t, |)) трактуется как «кодирование»,

использующее бесшумную обратную связь.

оценка

mt —

Оказалось,

что для схемы (7)

оптимальная

= М (Ѳ,|^"|) и условная дисперсия

yt — М [(Ѳ — mtf \&~\]

также

подчиняются рекуррентным уравнениям (см. § 5, гл. 13):

=

у.А. (t, £)

 

l)mt), mQ= m, (8)

, , :2- ,, .. ' (1<+1 A0(t, D — Ai(t,

 

1-h Л, (t, l ) y t

 

 

 

A](t, l ) y 2t

 

(9)

Ayt =

1+ A\ (/, І)V/ ’ Yo = Y-

 

 

 

В схемах (3) и (7), по существу,

речь

шла о традиционной

задаче

математической статистики — о байесовской оценке слу­

чайного параметра по наблюдениям

Следующий шаг в услож­

нении схемы (7) состоит в том, чтобы вместо случайной вели­

чины Ѳ рассматривать случайный процесс

Ѳг.

 

 

 

 

< =

Будем

предполагать, что случайный

процесс (Ѳ, %) — (Ѳ*, | (),

0, 1, . . . , описывается

рекуррентными уравнениями

 

 

 

 

 

Ѳ<+і =

a0(t,

I) +

ах (t,

|) Ѳ; + b (t,

I) в, (t + 1),

 

 

 

 

 

!*-н =

Лэ(/,

£) +

A ^t,

+

 

|) е 2(Ң - 1),

 

(

}

где

e, (t),

s2(t),

t = 1,

2, . . . , — последовательность независимых

величин, имеющих нормальное распределение N (0, 1) и не за­

висящих также

от (Ѳ0, | 0). Коэффициенты

a0(t, |), . . . ,

B(t,

|)

предполагаются ^-измеримыми при каждом

^ = 0, 1, . . .

 

 

 

Чтобы

получить для оценки т t — М {Q

 

и условной

дис­

персии

— М {[0,— mtf\@~))

рекуррентные

уравнения,

пред­

положим,

что

условное

распределение

Р(Ѳ0^ х | | 0) является

(для почти всех | 0)

нормальным, N (т,

у).

Суть этого

предпо-

ложения состоит в том, что оно позволяет доказать (см.

гл. 13),

что тогда последовательность (Ѳ, |), управляемая уравнениями (10), является условно-гауссовской. Это означает, в частности, что условное распределение Р(Ѳ<^ х |5 г|) является (почти на­

верное) гауссовским. Но такое распределение характеризуется лишь своими двумя условными моментами mt, yt, что дает возможность получить для них следующую замкнутую систему

10

 

 

 

 

ВВЕДЕНИЕ

 

 

 

 

 

 

 

 

 

 

 

уравнений:

 

 

 

 

 

 

 

tn(+{ =

а0 + almt +

в

2

- 1

[h+i

A m/]>

то

m>

 

 

т

-^iYf

 

 

 

 

Vt+i =

lab t + b2\ -

 

 

 

Yo =

Y

 

 

(у коэффициентов

aQ,

. . . .

В для

простоты

записи

опущены

аргументы / и |).

Уравнения (11) выводятся (в несколько более общей ситуа­ ции) в тринадцатой главе. Для их вывода ничего, по существу, кроме теоремы о нормальной корреляции, не требуется. В этой же главе выводятся уравнения и для оптимальных оценок в зада­

чах экстраполяции (оценивания

Ѳг по |£, когда %> f) и интер­

поляции (оценивания Ѳт по

при т < ty Применениям этих

уравнений к разнообразным задачам статистики случайных последовательностей, к задачам управления и к построению псевдорешений линейных алгебраических систем посвящена четырнадцатая глава.

Эти две главы могут читаться независимо от остального материала книги, и именно с них следует начинать читателю, который интересуется проблематикой нелинейной фильтрации, но еще недостаточно знаком с общей теорией случайных про­ цессов.

2. Основной материал книги представляет собой задачи оптимальной фильтрации (а также смежные задачи интерпо­ ляции, экстраполяции, последовательного оценивания, разли­ чения гипотез и т. п.) для случая непрерывного времени. Привлекательность этих задач в случае непрерывного времени объясняется (помимо их собственного интереса) тем, что для них удается получать прозрачные формулировки и компактные формулы. Следует также добавить, что зачастую легче сначала изучить непрерывный аналог задач, сформулированных для дискретного времени, а затем уже использовать полученные

результаты в исследовании

первоначальных задач.

Отмеченная (для случая

непрерывного

времени) простота

формулировок, естественно,

даром не

дается — приходится

привлекать, и причем довольно сложный, аппарат теории слу­ чайных процессов. Конкретнее о методах и аппарате, исполь­ зуемом в этой книге, мы скажем несколько позднее, а сейчас в целях иллюстрации остановимся на некоторых случаях филь­ трации, которые будут нами рассмотрены.

Предположим, что частично наблюдаемый случайный про­ цесс (Ѳ, !) = (Ѳ^, %t)> 0. является гауссовским, управляемым

ВВЕДЕНИЕ

11

стохастическими дифференциальными уравнениями (ср. с си­

стемой

(10))

 

 

 

 

 

 

 

dQt =

a(t)Qt d

t b{t)dwi{t),

d \t = A{t)Qt dt + B{t)dw2{t),

(12)

где wx{t) и ^ ( O - -независимые

между собой и от (Ѳ0,

| 0) стан­

дартные винеровские процессы,

а B { t ) ^ C > 0. Будем

считать

компоненту Ѳ=

(Ѳ/), t ^ O ,

ненаблюдаемой. Рассматриваемая за­

дача фильтрации состоит

в том, чтобы в каждый момент вре­

мени

0 оптимально (в

среднеквадратическом смысле)

оце­

нивать

по Ѵ0.

 

 

 

 

 

 

Процесс (Ѳ, I) по предположению является гауссовским, по­

этому оптимальная оценка

m t — М(Ѳ; |^ |)

линейным

образом

зависит от наблюдений £g={£s>

Более точно, существует

 

 

 

 

 

t

 

 

 

(лемма 10.1) такая функция G{t, s) с J G2(t, s)ds < оо, t > 0,

что

(почти

наверное)

 

 

о

 

 

 

 

 

 

 

 

 

 

 

mt =

m0-{- J G {t,s)dls.

 

 

(13)

 

 

 

 

о

 

 

 

Если формально продифференцировать это выражение,

то

получим

 

 

 

 

 

 

 

 

dmt = G (t,

 

+

dGg ; s)

ds^jdt.

 

(14)

Правую часть этого выражения можно преобразовать, если воспользоваться тем, что функция G(t, s) удовлетворяет урав­ нению Винера—Хопфа (см. (10.25)), которое в рассматриваемом случае сводится к уравнению

 

 

dG (t, s)

 

 

A4t) 1

 

 

 

 

Ft

 

 

B2(t) JG(t, s),

t > s,

(15)

 

 

G (s ,S) = l

^

,

Ys — M [0S— tns]2.

(16)

t >

Учитывая (15) и (14),

получаем,что оптимальная оценка ть

0,

удовлетворяет

линейному

стохастическому

дифферен­

циальному уравнению

 

 

у. А (t )

 

 

 

 

dmt = а (t) mt dt +

 

(17)

 

 

ßi ^

[ d tt~ A{t)m t dt}.

В

это

уравнение входит

величина ошибки «отслеживания»

Yt — М [0* — tnt\2, которая

в

свою

очередь является

решением

12

ВВЕДЕНИЕ

 

 

 

уравнения Риккати

 

 

yt = 2a(t)yt - - ~ f + b2(t).

(18)

(Уравнение (18) легко получить, применяя формулу замены переменных Ито к квадрату процесса [Ѳ* — mt] с последующим

усреднением.)

Остановимся несколько подробнее на уравнении (17), считая для простоты !0 = 0. Обозначим

(19)

Тогда уравнение (17) можно переписать в следующем виде:

 

V, А (t)

t.

(20)

dmt — a{t ) mt d t d w

Введенный процесс (wt),

0, весьма примечателен и играет

в задачах фильтрации фундаментальную

роль. Дело

в том,

что этот процесс, во-первых,

оказывается

винеровским

(отно­

сительно системы а-алгебр {@~\), 0), а во-вторых, он содержит в себе ту же самую «информацию», что и процесс £. Более точно,

это означает, что для всех t ^ O

о-алгебры Т™ =

0 {ак ws, s ^ .t}

и

= * {ш: ls,

s <Д} совпадают:

 

 

 

 

 

9 7 = &\,

і > 0

 

 

(21)

(см. теорему 7.16).

процесса w

 

 

 

Именно эти

свойства

послужили

основанием

называть его обновляющим

процессом

(innovation

process).

Совпадение

ст-алгебр 9~\

и @~Т наталкивает

на

мысль, что

для

mt справедливо не

только

равенство (13),

но

и предста­

вление

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

mt ==tn0+ J

F{t, s)dws,

 

(22)

 

 

 

 

о

 

 

 

 

где w = ( w t), / > 0 , — обновляющий процесс, а функции F(t, s)

таковы, что J F2{t, s)ds < oo. В основном тексте (теорема 7.16)

о

показывается, что представление (22) в самом деле можно получить из общих результатов (о структуре функционалов от процессов диффузионного типа). Отправляясь же от предста­ вления (22), уравнение (20) можно вывести более простым путем,

ВВЕДЕНИЕ

13

 

нежели исходя из представления (13). Правда, следует заметить, что доказательство представления (22) требует в свою очередь большего труда, чем установление справедливости представ­ ления (13).

В рассмотренном примере, восходящем к Калману и Бьюси, оптимальная фильтрация была линейной, что явилось след­

ствием предположения гауссовости

процесса

(Ѳ, £). Приведем

теперь пример, в

котором оптимальная фильтрация является

нелинейной.

— марковский процесс,

выходящий из нуля,

Пусть (Qi), t ^ O

с двумя

состояниями 0 и 1 и единственным

переходом 0 — 1

в случайный момент ст, который распределен

(в силу предпо­

лагаемой

марковости) экспоненциальным

образом: Р (<?>/)==

= е~и , X > 0. Предположим, что наблюдаемый процесс £ = (£;),

0, имеет дифференциал

 

 

 

 

 

äh — Qt dt-\- dwt,

g0 =

0,

(23)

где w = (wt), t ^ 0—винеровский процесс,

не зависящий от про­

цесса Ѳ=

(Ѳг), t ^

0.

 

Ѳ из «нулевого» со­

Будём

трактовать переход процесса

стояния в «единичное» как появление «разладки» (в момент о). Возникает следующая задача: в каждый момент времени t > 0

по наблюдениям

определить,

произошла ли

до этого

мо­

мента «разладка» или нет.

 

t\ &~f).

Ясно,

что

Обозначим

nt =

Р (Ѳ, = 11&~Ѵ) — Р ^

nt — m t = М

I &~f).

Поэтому апостериорная

вероятность

п(,

і ^ О , является

оптимальной (в

среднеквадратическом

смысле)

оценкой состояния ненаблюдаемого процесса Ѳ= (ѲД

0.

Для апостериорной

вероятности щ,

0,

можно

вывести

(используя, например,

формулу

Байеса и результаты

относи­

тельно производной меры,

отвечающей процессу g, по вине-

ровской мере) следующее

стохастическое дифференциальное

уравнение:

 

 

dnt = X ( \ nt)d t-\-n t ( l — я t)[d%t nt dt\, я0 = 0.

(24)

Важно подчеркнуть, что если в схеме Калмана — Бьюси опти­ мальный «фильтр» был линейным, то уравнение (24) является существенно нелинейным. Таким образом, уравнение (24) опре­ деляет оптимальную нелинейную фильтрацию.

Как и в предшествующем примере (обновляющий) процесс

14

ВВЕДЕНИЕ

 

 

 

 

 

 

 

 

оказывается винеровским и

0.

Следовательно,

уравнение (24) может быть записано также в следующем

экви­

валентном виде:

 

 

 

 

 

сІщ = К(1щ) dt +

Л(( 1 — щ) dwt,

я0 = 0.

(25)

3.

Оказывается, что все эти примеры укладываются в рамк

следующей общей схемы, принятой в данной книге.

 

Пусть

(Q, ЗГ, Р) — некоторое вероятностное

пространство

с выделенным на нем неубывающим семейством о-алгебр (ЗГt),

 

0 (£Tss ^ s ^

,

s<^)- На этом вероятностном пространстве

предполагаются

заданными

частично

наблюдаемый

процесс

(Ѳ^,

It),

0, и

оцениваемый

процесс (ht),

0, зависящий,

вообще

говоря,

как от ненаблюдаемого

процесса

Ѳ^, t ^

0,

так и наблюдаемой компоненты (£*),

0.

 

£ = (£*, ЗГt)

бу­

дет

Относительно

 

наблюдаемого

процесса*)

предполагаться, что он допускает стохастический дифферен­

циал

 

d lt= At(а) dt + dwt, ^

=

0,

 

 

(26)

 

 

 

 

 

где

w — (wt,3T^),

t ^ 0 , — стандартный

винеровский

процесс

(т. е. квадратично

интегрируемый

мартингал

с непрерывными

траекториями с

М [(wt w^f- \ !FS]= t s

при

t ^ s

и да0 =

0),

а Л = (ЛД(о), ЗГt),

0, — некоторый интегрируемый случайный

процесс **).

 

 

 

 

Ѳ== (Ѳ^, $Гt),

0,

не­

 

Структура ненаблюдаемого процесса

посредственно не конкретизируется, зато предполагается, что

оцениваемый процесс h =

(ht, Srt),

0, допускает следующее

представление:

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ht — h0-f f as {(ü) ds + xt,

/ > 0 ,

(27)

 

 

 

 

о

 

 

 

 

где

а =

(щ(а>),

ЗГt),

0, — некоторый

интегрируемый

процесс,

x =

(xt, &~t),

0, — квадратично интегрируемый мартингал.

 

Для

всякого интегрируемого процесса

g = (gt, 3Tt), t ^ 0 ,

обозначим nt (g )= М [

g

, Тогда,

если

М ^ < о о ,

т оя Д^ )

будет оптимальной (в среднеквадратическом смысле) оценкой gt

по U = { l s,

.

*) Запись | = (It,

t) подразумевает, что величины g1 являются йД-из-

меримыми при каждом Г^О.

**) На самом деле в книге рассматриваются процессы £ несколько более общего вида (см. гл. 8).

 

 

 

 

 

ВВЕДЕНИЕ

 

 

15

Один из

основных

результатов

книги

(теорема 8.1)

утвер­

ждает,

что

для

nt (h)

справедливо

следующее представление:

 

 

t

 

 

t

 

 

 

 

яД/г) =

я0 (/z) + J

яS(a)ds +

J

яS(D) dws +

 

 

 

 

 

 

-f

J

[ns{hA) — я5(/і)я^(Л)] dws.

(28)

Здесь

w =

(wt,

i ^ O , — винеровский

процесс (cp.

с обно­

вляющим процессом в предыдущих двух примерах), а процесс

D = (Dt, 9~t),

 

0,

характеризует

«корреляцию» между ви.не-

ровским процессом

w = {wt,

9~t),

0,

и мартингалом

х —

= {xt, 9~t),

0.

Точнее,

процесс

 

 

 

 

 

 

 

Dr

d (х, w)t

 

 

 

(29)

 

 

 

dt

 

 

 

где (х, w)t — случайный

процесс,

участвующий

в разложении

Дуба — Мейера произведения

мартингалов х и

w:

 

М \xtwt xsws I 9~s\ =

M [(x, w)t — (x, w)s I 9~s).

(30)

Представление

(28)

мы

называем

основным уравнением

(оптимальной нелинейной) фильтрации. Большинство известных

результатов

(в рамках

предположений (26),

(27)) может быть

выведено из этого уравнения.

 

 

 

Покажем, например, как из (28) выводятся уравнения филь­

трации

(17),

(18) в схеме

Калмана — Бьюси,

считая для про­

стоты

b(t) =

В (/)=

1.

(26)

и (27),

видим, что ЛДсо) == A (t) Ѳ„

Сравнивая (12)

с

wt — w2(t). Положим

ht — Qt. Тогда

в силу (12)

 

 

 

 

 

 

t

 

 

 

 

 

ht = h0 +

J a{s)Qs ds +

да, (0-

(31)

 

 

 

 

 

 

о

 

 

 

Процессы Wi — (w{(t))

и w2 = (w2(t)),

0,

являются незави­

симыми квадратично интегрируемыми мартингалами, поэтому

для них Dt s=0 (Р-п. н.). Тогда

в силу (28)

яДѲ) имеет диффе­

ренциал

 

 

 

dnt (Q) = a(t)nt (B)dt +

А {t)\nt {&) -

n2t {ü)\dwt,

(32)

т. е.

 

 

(33)

dmt = a(t) mt dt -j~ A (t)yt dwt,

где мы воспользовались тем, что в силу гауссовости

процесса

9, I), Р-п. н.

 

 

 

я, (Ѳ2) - п] (Ѳ) = М [(0, - m ty j 9~Ц = М [0t - mtf «

yf.

16

ВВЕДЕНИЕ

 

Чтобы вывести из (28) уравнение для

у(,

возьмем

ht =

Q2.

Тогда из первого уравнения системы (12)

по

формуле

замены

переменных Ито (теорема 4.4)

получаем

 

 

 

 

 

t

 

 

 

 

 

 

Ѳ2== Ѳц + J

as(®) ds +

xt,

 

(34)

о

 

 

 

 

 

 

где

 

t

 

 

 

 

 

 

 

 

 

 

as(co) = 2a(s)02 + b2(s)

и xt =

j

2b(s)Bs dwl(s).

 

 

 

о

 

 

 

 

Поэтому согласно (28)

 

 

 

 

 

 

dnt(Ѳ2) = [2a(t) яДѲ2)+ b2(t)\ dt Ar А (t) [nt(Ѳ3) — nt(0) яД Ѳ2)] dwt.

(35)

Из (32) и (35) видно, что при использовании основного уравнения фильтрации (28) мы сталкиваемся с той трудностью, что для нахождения условных младших моментов требуется знание старших моментов. Так, при отыскании уравнений для яДѲ2) требуется знание третьего апостериорного момента яДѲ3) = М (Ѳ ]|^|). В рассматриваемом случае эта трудность

легко преодолевается, поскольку в силу гауссовости процесса

(Ѳ, I) моменты я* (Ѳ'г) =

М (Ѳ" |

) для всех д ^ З выражаются

через я/ (Ѳ)

и

яДѲ2).

В

частности,

лДѲ3) — nt (Ѳ) яДѲ2) =

= М [6f(0t — >nt)\@~}] =

2 т гу;,

и, значит,

 

 

dnt (Ѳ2) =

[2а (t) яДѲ2) +

b2 (/)] dt +

(t) mtyt dwt.

(36)

По формуле замены

переменных Ито

из (33) находим, что

dm2 =

2mt [a (t) m t dt +

А (t) уtm t dw^ + A2{t) y2(t) dt.

 

Вместе с уравнением (36) это соотношение дает искомое урав­ нение (18) для У; = яДѲ2) — т2.

Описанный вывод уравнений (17), (18) поучителен в том смысле, что из него видно, что для получения замкнутой си­ стемы уравнений, определяющих оптимальную фильтрацию, надо привлекать дополнительные сведения о соотношениях между старшими условными моментами.

В настоящей книге существенное внимание уделяется так называемым условно-гауссовским процессам (0, £), для которых оказалось возможным получить замкнутую систему уравнений оптимальной нелинейной фильтрации. Тем самым выделен широкий класс случайных процессов (включающий в себя про­ цессы, описываемые схемой Калмана — Бьюси), для которых удается эффективным образом решить задачу построения опти-

Соседние файлы в папке книги из ГПНТБ