книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания
.pdfВ частности, при Ь = Ь( = (0,...0,1,0000)т из (2.4.12) вытекает |
|
I |
|
М {eyj} = 0, /' = 1 .т . |
(2.4.13) |
Равенства (2.4.10), (2.4.11), (2.4.13) означают, что ошибка оценки е = д: —х(у) ортогональна вектору оценки х(у), век
тору измерений у, произвольной линейной комбинации его компонент и каждой компоненте по отдельности.
Поскольку х = х(у) + х - х ( у ) , из сказанного следует, что век тор х может быть представлен в виде суммы двух некоррелиро ванных (ортогональных) случайных векторов [16,47]
х = х(у) + е |
(2.4.14) |
Один из этих векторов х(у) = К1"'у представляет собой линей ное преобразование исходных измерений у, , / = 1./и, его называ
ют также ортогональной проекцией вектора х на пространство,
образованное у ,, i = 1 .т . Второй вектор е = л- - Je(у) ортогона
лен этому пространству в том смысле, что м|е(/,у)т}=0 при произ вольной п х т матрице L .
Равенство (2.4.10) нередко используется как определение ли нейной оптимальной оценки, т.е. задача оценивания может быть сформулирована так: найти линейную оценку х(у) = Ку , ошибка которой ортогональна вектору измерений, т.е. удовлетворяет уравнению (2.4.10). Решение будет определяться соотношением (2.4.8) и в этом смысле такая постановка задачи оценивания экви валента задаче нахождения линейной несмещенной оценки с ми нимальной дисперсией.
Заметим, что при наличии информации о первых двух момен тах для составного вектора г = (хт,ут)т , представление, аналогич ное (2.4.14), может быть легко получено и для вектора у. Т.е. век тор измерений может быть представлен в виде суммы
у= у(х) + 8 двух векторов: линейного преобразования вектора х
инекоррелированного с ним вектора ошибок (см. задачу 2.4.5).
Св о й с т в о 3. Матрицы ковариаций ошибки линейной оп
тимальной оценки, удовлетворяют следующему неравенству
[16, 80]: Р - Р > 0, где Р - матрица ковариаций произвольной ли нейной несмещенной оценки, отыскиваемой в виде (2.4.3).
Напомним, что выражение Р> 0 для матрицы означает неот рицательную определенность соответствующей ей квадратичной формы. В связи с приведенным неравенством молено говорить о том, что линейная оптимальная в среднеквадратическом смысле оценка минимизирует матрицу ковариаций ошибок оценивания, а сама апостериорная матрица ковариаций Р характеризуют потен циальную точность оптимального оценивания в рамках байе совского подхода в классе оценок, линейным образом завися щих от измерений. Диагональные элементы этих матриц соответ ственно определяют потенциальную точность оценивания компо
нент X j , j = \.n.
Св о й с т в о 4. Оценка (2.4.8) минимизирует определители матриц Р [80].
Св о й с т в о 5. Оптимальная линейная оценка т -мерного вектора х , связанного с п -мерным вектором х линейным преоб
разованием х = 7х, где Т - произвольная m х п матрица, опреде
ляется как х(у) = 7 x (v ), где х(у) - оптимальная линейная оценка вектора х [16, 80].
2.4.3. Решение линейной задачи.
Взаимосвязь с алгоритмами метода наименьших квадратов
Из выражения (2.4.8) следует, что для получения линейных оп тимальных оценок необходимо располагать математическими
ожиданиями х , у и матрицами |
Рх, |
Ру Рху задающими два |
первых момента вектора z =(хт |
,у т)т |
Как отмечалось выше, при |
решении задач обработки навигационной информации обычно считаются известными статистические свойства для оцениваемого
вектора и ошибок измерения, т.е. для вектора z - (хт |
,vT)T В |
||
связи с этим возникает проблема нахождения значений |
у , |
Ру и |
|
Рху которая легко решается для линейной |
задачи |
(2.1.10), |
|
(2.1.11). Действительно, задаваясь 7 = (хт ,vт )Т |
p x , v _ |
Рх |
В |
|
|
ВТ |
R |
и принимая во внимание результаты решения примера |
1.3.5, |
||
212 |
|
|
|
Анализ приведенных соотношений показывает, что с их ис пользованием не только удается синтезировать алгоритм, но, в сущности, и решить задачу анализа точности, поскольку для этих целей следует использовать матрицу ковариаций ошибок оценива ния, которая вычисляется с помощью выражений (2.4.18) или (2.4.20). Причем весьма существенно, что для ее нахождения не требуется специальных процедур, поскольку она фактически фор
мируется, как следует из (2.4.19), при вычислении К 1т
♦ П р и м е р 2.4.1. Найдем выражение для оптимальной линейной оценки и соответствующей ей дисперсии скалярной случайной величины
х, |
равномерно распределенной |
в интервале |
Ь Ъ , по измерениям |
|
|
|
2 ’ 2 |
у |
—х + Vj, i —1.т , в которых |
V,- независимые между собой и от х |
а а
случайные величины, равномерно распределенные в интервале
Применительно к рассматриваемой задаче для оптимальной линейной оценки и соответствующей ей дисперсии получим:
|
Cf2 |
|
|
III |
Xй"(у ) = х + |
0 |
|
■£ {у, - X - v) ; |
|
Г + суп |
,=] |
|||
p lin |
_ |
|
2 |
2 |
° 0 |
Г |
|||
|
г |
2 |
|
2 |
|
|
+ а 0т |
которые после подстановки значений математических ожиданий х = 0 ,
v = 0 и дисперсий a Q - о |
! 12, г = а /12 запишем: |
|
||
|
т |
|
2 » п |
|
(а |
+ b т)Хы\ у, • f" “ - 12(а2 +Ь2т) |
|
||
В частности, при а « b |
I |
т |
.2 |
|
имеем: хИл(у) « — У ] у |
> Pîin |
• |
||
|
т |
1 |
12т |
|
Приведенный алгоритм будет оптимальным линейным алгоритмом не только для случайных величин с равномерным распределением, но и для любых центрированных случайных величин, имеющих произвольное распределение и заданные дисперсии <JQ =Ь2 /\2, г2 = а2 / 12. В частно
сти, этот алгоритм будет оптимальным для центрированных гауссовских случайных величин с такими же дисперсиями.
в качестве х принимается значение, совпадающее с матема
тическим ожиданием вектора х, a D = (Px)~l, QrR'1, оценки
ММНК совпадают с линейными оптимальными оценками.
Отсюда, в частности, следует, что при выполнении указанных выше условий, оценки ММНК в линейной задаче обладают всеми свойствами, перечисленными в предыдущем подразделе, в том числе они являются несмещенными байесовскими оценками с ми нимальной дисперсией среди всех линейных оценок.
Сопоставление между собой различных вариантов МНК было проведено в подразделе 2.2.4. Поскольку при сделанных предпо ложениях линейная оптимальная оценка совпадает с ММНК, по лученные в подразделе 2.2.4 выводы относительно взаимосвязи ОМНК и МНК с ММНК в полном объеме распространяются на случай выявления их взаимосвязи с оптимальными в среднеквад ратическом смысле линейными оценками.
В частности, если считать выполненным условие
(Px)~l « H TR~lH |
(2.4.21) |
и, кроме того, принять R = r2E , т. е. полагать, что ошибки измерения есть некоррелированные между собой случайные величины с одинаковыми дисперсиями, то тогда можно говорить о практиче ском совпадении оптимальных в среднеквадратическом смысле линейных оценок с оценками обычного МНК. В частности, усло
вие (2.4.21) в примере 2.4.2 сводится к неравенствам a j} » — ,
|
т |
q 2 >:> |
г2 9при выполнении которых все рассматриваемые оценки |
1 |
т |
1 'г
н
будут между собой совпадать.
Из сказанного следует, что оценки и соответствующие им ха рактеристики точности, полученные для ММНК в рассмотренных примерах 2.2.2-2.2.5, можно трактовать как линейные оптималь ные байесовские оценки.
2.4.4. Решение нелинейной задачи
Обсудим возможность построения линейного оптимального алгоритма оценивания вектора х по измерениям у применитель
задачи, в которой для построения алгоритма достаточно распола гать только первыми двумя моментами для составного вектора, требуется еще и знание ф.п.р.в. f(x) для оцениваемого вектора.
Для лучшего понимания сути линейного алгоритма примени тельно к нелинейной задаче запишем исходные измерения с по мощью линейного представления в виде
y = ÿ + H ( x - x ) + v , |
(2.4.26) |
где у - независимый от д: центрированный случайный вектор с
матрицей ковариаций P v
Найдем такие значения Я и Pv , при которых матрицы кова
риаций Ру и Рху будут совпадать с соответствующими матрица
ми ковариаций для нелинейных измерений. Сделать это нетрудно,
если учесть, что в линейной задаче Рлу = РхЯ т |
а |
Ру = НР ХН Т + R и таким образом:
н= р ух(р хУ
р7 = р у ~ р ух(рхУ р ху
Принимая во внимание эти соотношения и выражения (2.4.24), (2.4.25), получаем:
|
Я = { (s(x) - у)(х - х)тf{x)dx[px)~‘ |
(2.4.27) |
|
P7 = p ad +R, |
(2.4.28) |
где |
Pad = J(J (X) - ÿ)Cï(x) - у)тf(x)dx - |
|
~ J CK*) - ÿ)(x - x)T f(x)dx(px) 1J (x - х )(ф ) - ÿ)T)f(x)dx . (2.4.29)
Из (2.4.28) следует, что случайный вектор v может быть пред ставлен в виде суммы двух векторов
V = vad + V, |
(2.4.30) |
где vad - независимый от v центрированный случайный вектор с
матрицей ковариаций, определяемой (2.4.29).
Таким образом, можно дать следующую интерпретацию проце дуры получения линейного оптимального алгоритма: исходные
нелинейные измерения заменяются на их линейное представление в виде (2.4.26), а для учета такой замены в модели измерений к исходному вектору ошибок v добавляется вектор дополнительных методических ошибок vad.
♦ П р и м е р 2.4.3. Построим оптимальный линейный алгоритм в зада че оценивания скалярного параметра по набору скалярных измерений вида
Ух =ax + bx* +Vj, / = 1 .т , (2.4.31)
в которых х и v,-, / = 1 ,т - центрированные гауссовские независимые
между собой случайные величины с дисперсиями GQ и г2
В этом случае, используя выражение (1.1.22) для четных моментов га уссовских случайных величин, т.е.
J (х - x ) kf x (x)dx = 1X 3 X ..(2к - 1)<т2* , к = 1,2 |
(2.4.32) |
|
нетрудно убедиться в том, что |
у = 0; |
|
РХу = р ( я + Ъх2) /,тхшf(x)dx =<7Q (я + 3ba l ) I Umx |
; |
|
P y = [a2a l + l 5 b 2a l + 6abaA0)[mxm+ r 2Em ; |
|
|
H = (a + 3b a 2)Ilxm, P ad = 6b2a 0Imxm,6 |
(2.4.33) |
где / 1хш , Imxm - столбец lx /л и квадратная т*т матрица, составленные
из единиц; Еш - единичная гпхт матрица.
Таким образом, представление вида (2.4.26) для исходных нелиней ных измерений в рассматриваемом примере может быть записано:
Ух = h х + vz- + vacl ; h = {а + 3bo^) ; i = 1 .m , |
(2.4.34) |
где va(f = d - постоянная для всех измерений составляющая ошибки с
дисперсией с 2 = 6Ô20Q , т. е. дополнительная методическая ошибка в
этом примере является систематической составляющей общей ошибки
v^. Таким образом, матрица ковариаций |
может быть представлена в |
виде R- = г2Ет +сг%1тхт . Исходная нелинейная функция s(х) = ах + Ьх3
и ее линейное представление s(x)^hx при а =2, 6=0,5 и двух значениях
< 0=1 и 0,5 изображены на рис. 2.4.1.