Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания

.pdf
Скачиваний:
39
Добавлен:
19.11.2023
Размер:
26.49 Mб
Скачать

Контрольные вопросы

1.Сформулируйте задачу оценивания в рамках байесовского под­ хода. Поясните, чем отличается оптимальная в среднеквадрати­ ческом смысле байесовская оценка от оптимальной линейной и небайесовской оценок. К чему сводится правило нахождения оптимальной в среднеквадратическом смысле байесовской оценки?

2.Перечислите и поясните основные свойства оптимальной в среднеквадратическом смысле байесовской оценки.

3.Перечислите и поясните условия, обеспечивающие гауссовский характер апостериорной плотности в задаче оценивания векто­ ра х по измерениям (2 .1 .2 1 ), сформулированной в рамках байе­ совской постановки.

4.Почему при решении нелинейной задачи оценивания вводят условную и безусловную апостериорные матрицы ковариаций? В чем их отличие? Почему при использовании линейных алго­ ритмов условная и безусловная апостериорные матрицы кова­ риаций совпадают?

5.Как характеризируется потенциально достижимая точность оценивания при рассмотрении задачи в рамках байесовского подхода, в чем ее отличие от потенциальной точности?

6 . Запишите алгоритм нахождения оптимальной в средиеквадратическом смысле оценки в линейной гауссовской задаче. Пояс­ ните, как получить этот алгоритм. Какова связь этого алгоритма с алгоритмом МФП и различными вариантами алгоритмов МНК?

7.Опишите идею использования метода сеток при решении зада­ чи синтеза алгоритма в рамках байесовского подхода. Может ли этот алгоритм быть использован при решении линейной за­ дачи?

8 . Поясните, в чем заключается проблема адекватности вырабаты­ ваемой в алгоритме расчетной характеристики точности.

9.Почему вырабатываемая в линейном оптимальном алгоритме расчетная матрица ковариаций адекватна действительному зна­ чению матрицы ковариаций?

10. Поясните методику, используемую при анализе эффективности разрабатываемых субоптимальных алгоритмов.

11.Приведите пример задачи, в которой точность оценивания при использовании нелинейных алгоритмов выше точности, дости­ гаемой с помощью линейных алгоритмов. Поясните причины такого отличия.

^.Проанализируйте основные отличительные особенности байе­ совского и небайесовского подходов.

2.6.Реализация алгоритмов комплексной обработки избыточных измерений

При решении прикладных задач могут быть использованы раз­ личные схемы построения процедур обработки избыточных изме­ рений, реализующие рассмотренные в предыдущих разделах алго­ ритмы оценивания. Обсудим в этом разделе некоторые из таких схем.

2.6.1. Инвариантная схема обработки

При наличии данных от двух и более измерителей нередко ис­ пользуется схема обработки, суть которой заключается в форми­ ровании разностных измерений, не содержащих искомого вектора, и последующем решении задачи оценивания ошибок одного изме­ рителя на фоне ошибок другого измерителя, результаты которой используются для уточнения показаний одного из измерителей (рис. 2 .6 .1 ).

Априорная информация об ошибках измерения

Рис. 2.6.1. Инвариантная схема построения алгоритма комплексной обработки

Проиллюстрируем применение этой схемы и проанализируем свойства получающихся при этом оценок на примере рассмотрен­ ной в разделе 2 . 1 задачи комплексной обработки данных от двух измерителей, представленных в виде (2.1.33). При этом будем по­ лагать, что ошибки измерения v ,, v2 - некоррелированные между собой центрированные векторы с известными матрицами ковариа­ ций Rj > 0 , j - 1,2 .

Сформируем разностные измерения

*У = У \ - У г =vi _v2’

(2.6.1)

из которых исключается отыскиваемый вектор JC, и используем их для оценивания ошибок одного измерителя на фоне ошибок друго­ го измерителя. Для определенности будем считать, что в качестве оцениваемого вектора выступает v ,, а в качестве ошибок измере­

ния - вектор v2.

Наличие информации о математических ожиданиях и матрицах ковариаций v ,, v2 позволяет получить для V] оптимальную в среднеквадратическом смысле линейную оценку и соответствую­ щую ей матрицу ковариаций по измерениям Ду, которые, как не­ трудно показать, могут быть определены как:

Оценку искомого вектора х сформируем в виде

X = У\ ~ V, = xX + vV,. -V, = (V + R ? У [(V + л ;1)у, - я;'(у, - у ,)]. (2.6.4)

Очевидно, что ошибка оценки е = х - х = v —v не содержит

в правой части слагаемых, зависящих от оцениваемого вектора, и таким образом обладает свойством инвариантности. Именно это и определило название инвариантная для такой схемы обработки. Соответствующие алгоритмы получили наименование инвари­ антных алгоритмов обработки. Иногда говорят об инвариантном характере оценок. В англоязычной литературе для алгоритмов та­ кого типа используется термин complementary filter. Матрица ко­ вариаций для полученной таким образом ошибки оценки х будет совпадать с матрицей (2.6.3) для ошибок оценки Vj

Любопытно отметить, что сопоставление полученных выраже­ ний с выражениями (2.2.42), (2.2.43), соответствующими решению рассматриваемой задачи с помощью ОМНК, показывает их полное совпадение. Такое совпадение не случайно. Приведенный выше алгоритм в точности совпадает с алгоритмом ОМНК, в котором вместо исходного составного вектора измерений, включающего у\

и у 2, используется составной вектор Ду, и у 2 (задача 2.6.1). Не­ трудно заметить, что этот вектор может быть сформирован из ис-

V

- Е ~У\

Уг_

0

Е _ Уг_

Таким образом, причиной совпадения является тот факт, что оценки, получаемые с использованием различных наборов измере­ ний, связанных между собой невырожденным преобразованием, совпадают (см. задачу 2 .2 .8 ).

Из сказанного следует, что инвариантную схему в рассмат­ риваемом случае можно трактовать как специальным образом организованную процедуру получения оценок, соответствую­ щих ОМНК. Ее особенность заключается в том, что не требуется вводить каких-либо предположений об искомом векторе х при получении алгоритма оценивания.

Если дополнительно предположить, что vf и v2 гауссовские, то оценка (2 .6 .2 ) для ошибки v, первого измерения становится опти­ мальной байесовской оценкой, а оценка (2.6.4) будет совпадать в свою очередь с оценкой, максимизирующей функцию правдопо­ добия, т.е. оценка, полученная с использованием инвариантного алгоритма, будет соответствовать оценке МФП. В этих условиях можно говорить о том, что инвариантная схема обеспечивает по­ лучение оценок, соответствующих МФП, ошибка которой также не зависит от вектора оцениваемых параметров.

Описанный выше прием может быть использован и при обра­ ботке измерений типа (2.1.36). Полагая, что исходные измерения заданы в виде:

У1 = л* + V, ;

(2.6.5)

y2 =Hx +v2,

(2.6.6)

для получения инвариантного алгоритма в этом случае следует сформировать разностное измерение

Ду = у 2 - Ну{= —Hv| + v2 .

Далее, считая ошибки v ,, v2 некоррелированными между со­ бой центрированными векторами с известными матрицами кова­ риаций Rj > 0 , j = 1,2 , нетрудно в рамках байесовского подхода

получить следующие выражения для линейной оптимальной оцен­ ки и соответствующей ей ошибке вектора Vj по измерениям

Ау = у 2 - Нух

V, = {R ; 1 + H TR ; lH Y H TR ; l { y 2 - H y J ,

P Vi = ( v + Н лЯ ^ н У

Вычитая полученное значение оценки ошибки первого измери­

теля V, из его показаний

, для оценки х получаем

х = у,- (<

+НХнУ1ГКЦуг - НУУ (2-6-7)

Нетрудно убедиться (задача 2.6.2) в том, что и в этом случае полученная таким образом оценка и соответствующая ей матрица ковариаций будут соответствовать оценкам ОМНК или МФП, если предположить гауссовский характер ошибок измерений.

Важно подчеркнуть, что для построения инвариантной схемы среди используемых измерений можно было бы выделить хотя бы одно измерение типа у = х + v , обеспечивающее непосредственное измерение искомого вектора х .

2.6.2. Неинвариантная схема обработки

Следует обратить внимание на тот факт, что описанная в 2.6.1 инвариантная схема обеспечивает нахождение оптимальных в среднеквадратическом смысле байесовских оценок по разностным измерениям Ду лишь для ошибок измерений, а не для искомых параметров. Для получения оптимальной байесовской оценки ис­ комого вектора х требуется вводить предположение о его случай­ ном характере. Поскольку ошибка оптимальной байесовской оценки х —х(у) = ( Е - КН)(х - x ) +Kv зависит не только от ошибок измерения, но и от самого оцениваемого параметра, алго­ ритм, с помощью которого отыскивается эта оценка, называют иногда неинвариантным алгоритмом. Соответствующая этому алгоритму блок-схема приведена на рис. 2.6.2. Здесь в отличие от предыдущего случая оба измерения равноправно используются в алгоритме, в котором привлекается априорная информация, как об ошибках измерения, так и о самом оцениваемом векторе.

Заметим, что инвариантная схема также может быть представ­ лена в виде блок-схемы, в которой каждое измерение используется равноправно, если под алгоритмом понимать часть, выделенную пунктиром (см. рис. 2 .6 .1 ).

Априорная информация о векторе х и ошибках

Рис. 2.6.2. Неинвариантная (байесовская) схема построения алгоритма комплексной обработки

Принципиальное отличие двух алгоритмов заключается в том, что в первом случае используется априорная информация только об ошибках измерения, а во втором - привлекается еще информа­ ция и о векторе оцениваемых параметров.

Достоинство инвариантной схемы заключается в том, что не требуется вводить каких-либо предположений об оцениваемом векторе. В ряде случаев это оказывается вполне оправданным, так как зачастую ввести адекватное описание для х бывает затрудни­ тельно. Вместе с тем следует помнить, что при наличии информа­ ции о векторе оцениваемых параметров отказ от нее может при­ вести к существенной потере в точности.

♦ Пример 2.6.1. Предположим, что в моменты времени tj ( / = 1 .ni ) проведены измерения высоты летательного аппарата не только с исполь­ зованием спутниковой системы, но и с данными от баровысотомера. За­ пишем эти измерения:

y f HC = h i + v f HC =

(2.6.S)

y f B = h; + v fB, i = \.m .

(2.6.9)

При этом будем считать, что векторы ошибок различных измерителей некоррелированны между собой, и матрицы ковариаций для каждого из них заданы как Rj = /•?£,„, j = СНС,БВ

п

;

v

СНС

-

, СНС

СНС

СНС ч т

Введем векторы

x = (h^....hm)

 

(v,

 

v2

,...vm )

vSB = (уf Bv BB

и матрицу

H = Em , тогда

измерения

(2.6.8),

(2.6.9) могут быть представлены в виде (2.1.33). Решая задачу с исполь­ зованием инвариантной схемы и разностных измерений

287

нетрудно убедиться в том, что матрица ковариаций ошибок оценивания

2

для вектора х будет диагональной, и при Vj —г , j - СНС9БВ для нее

будет справедливо выражение р м^п - — Ет. Отсюда следует, что дис­

персия ошибки измерения высоты в каждый дискретный момент снизит­ ся лишь в два раза.

Будем теперь полагать, что на интервале наблюдения высота постоян­ на, и учтем это обстоятельство при получении оценок х. Принимая во внимание факт постоянства оцениваемой высоты и считая ее неизвестной

~ ~ - « 2

центрированной случайной величиной с дисперсией а 0 , можем предста­

вить матрицу ковариаций в виде Р х = OQ1тхт> где Ллх/л ~~ матрица, составленная из единичек. Поскольку в силу вырожденное™

Р= а 01тхт использовать выражение для вычисления матрицы кова­

риаций ошибок оценивания в виде (2.4.20) не представляется возмож­ ным, используем выражение (2.4.18). Учитывая специфику матрицы

Н = Ет , получаем

01/лх/л [Ет OAJ

+ 2/ ^ Ет) 0*01шхт

).

P = a i l

 

Принимая во внимание вытекающее из (П1.1.59) соотношение

, 2 ,

2

1_

1

Е,п~

2а,о

Ллх/л

\ а 0 1 тхт +

/"

~

2Г

2/72Q5 + /*

-, ^ т )

2

 

можно показать, что диагональные элементы матрицы ковариации для оцениваемого вектора, собственно, определяющие точность оценивания высоты, будут задаваться соотношением

1

УрГ1

(2.6.10)

ог = ■

 

2moQ+rz

Смысл этого выражения вполне понятен, так как при сделанных предположениях в сущности решается задача оценивания постоянной скалярной величины по независимым между собой измерениям с

дисперсиями г 2

Пренебрегая вкладом априорной информации и полагая г

2

2

 

« C J 0,

получаем, что дисперсия ошибки определения высоты снизится в

раз, т.е. сг^ я -— , что существенно выше, чем в предыдущем случае. ♦

1 2т

Рассмотрим обсуждавшуюся в подразделе 2.1.8 задачу ком­ плексной обработки набора измерений типа (2.1.42) в целях полу­ чения оценки и-мерного вектора х . Запишем эти измерения

y j = H j X

+ Vj , у = 1 л ,

(2.6.11)

где H j - тj х п матрицы; vj -

/Иу-мерные векторы ошибок из­

мерения; у - номер измерения.

 

 

Введем составные векторы измерений Yj и их ошибок Vt раз-

мерности

I

, а также тгхп матрицу Н, в виде

 

7 = 1

' я , '

я .

н , =

‘у\ V

У2 v2

=

J ’i.

, v / _

 

Тогда измерения (2.6.11) могут быть записаны как

Y; = H,.v + Vj.

Полагаем, что х и Vj - случайные центрированные векторы с

заданными матрицами ковариаций Рх, R j,j =\.i. В целях про­

стоты считаем, что все эти векторы некоррелированны между со­ бой. В этом случае матрица ковариаций R f для составного векто­

ра V,- будет иметь следующий вид:

Xi

0

0

0

R. = 0

*2

0

0

0

 

0

0

0

0

R,

При сделанных предположениях легко получить выражение для оптимальной в среднеквадратическом смысле линейной оценки

x.(Y.) = Р Я Ж 'У

(2.6.12)

Л //

l i l t

 

и соответствующей ей матрицы ковариации

 

 

f

;

V 1

 

Pi =

 

>-1

(2.6.13)

(РХУ + ZH'jRjHj

 

 

7=1

 

 

Отсюда имеем

 

\ “1/ .

>

/

 

а д ) = ( п ч

+ i

я ; я; 'я у

я ; * ; ч

(2.6.14)

V

7=1

У

47=1

J

При получении оптимальной оценки по всему имеющемуся на­ бору измерений могут быть использованы две схемы обработки. Одна из них получила название централизованной схемы обра­ ботки (рис. 2.6.3). Такое название объясняется тем, что выполне­ ние всех вычислений предполагается осуществлять централизо­ ванно в одном алгоритме.

Рис. 2.6.3. Централизованная схема вычисления оптимальной оценки

Вместе с тем при вычислении искомой оценки может быть ис­ пользована и другая схема. Для ее получения справедливо нера­ венство

(PТ 1« Я

H j , j = Ü ,

(2.6.15)

означающее, что априорной информацией о векторе х можно пре­ небречь. Введем частные оптимальные оценки

 

- {рЧ))н'л-'ур

(2.6.16)

где

Pt,‘ = ш ] к - ' н , у ' ,

(2.6.17)

Соседние файлы в папке книги