Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Казаков В.А. Введение в теорию марковских процессов и некоторые радиотехнические задачи

.pdf
Скачиваний:
21
Добавлен:
23.10.2023
Размер:
7.76 Mб
Скачать

обусловленное его внутреплим шумом. До срыва угловое рассогласование Ѳ флюктуирует в области слежения, в окрестности значения Ѳі, где находится дно потенци­ альной ямы. Срыв слежения наступает в том случае,

frei

 

 

 

т і /

 

\

f[Bt)

ч«\

 

i

\

а)

 

1

 

ff,

 

0

 

 

 

0

2

,1

 

ФѲ

*)

\

У7

\

 

-

 

и (ff,)

 

 

Рис. 4.15.

 

когда частица (координата. Ѳ) под действием шума пре­ одолевает потенциальный барьер и скатывается по его правому склону.

Вероятность срыва слежения P(t) за время t рассчи­ тывается по формуле

о

где о(Ѳг) поток вероятности через сечение 02. При ма­ лой вероятности срыва поток G(ßz) считается постоян­ ным и его величина определяется выражением {22, 23]:

G (Ѳ,) = ^

V-U"

(8.) U" 2) exp

[ -

* ^

- ]

. (4.125)

Поток через

потенциальный

барьер

Ѳз

согласно

(4.Г25) зависит,

с одной стороны, от характеристики по­

тенциального

рельефа

в экстремальных

точках

0j и 02, и,

160

с Другой стороны, определяется уровнем флюктуации,

ПОСКОЛЬКУ

При этом поток

G(02 ) тем меньше, чем больше высо­

та потенциального

барьера U(Q2) и чем меньше уровень

флюктуации, что находится в полном соответствии с фи' зическимй представлениями описываемого явления.

Вопрос о достижении поглощающих границ много­ мерным марковским процессом представляет собой гораздо более сложную проблему, чем разобранная выше задача для одномерного процесса. Определение вероят­ ности достижения границы двумерным марковским про­ цессом, в частности, обсуждается в работах (27, 28], где формулируются условия поглощения в двумерном случае и рассмотрен ряд примеров. Количественные соотноше­ ния в конкретных задачах удается получить, только используя ЭВМ.

5

ТЕОРИЯ УСЛОВНЫХ МАРКОВСКИХ ПРОЦЕССОВ

ИЕЕ ПРИМЕНЕНИЕ В ЗАДАЧАХ ФИЛЬТРАЦИИ

ИОБНАРУЖЕНИЯ СЛУЧАЙНЫХ СИГНАЛОВ

5.1.Вводные замечания

Прежде чем переходить к изложению теории условных марков­ ских процессов, обсудим постановку задачи о фильтрации случайных сигналов, с которой связаны основные применения указанной теории.

Пусть на вход приемника поступает реализация %{t), которая является смесью сигнала S (s, t), помехи V(r|, і) и белого шума n(t). Предполагается, что функции 5 и V детерминированы, а функции x(t) и т) (t) случайны. Взаимосвязь сигнала и помехи выражается некоторой детерминированной функцией Ф; белый .шум обычно

аддитивен, так что

І(0=Ф[5(*, 0. Ѵ(ті, t)]+n(t).

В предположении, что известны статистические характеристики случайного сигнала, помехи и шума, наблюдателю необходимо опти­ мальным образом решить, какая реализация сообщения x(t) содер­ жится в принятом колебании

Из-за наличия помехи f\(t) и шума n(t) оценочное значение сообщения х*{і) не будет в точности совпадать с переданным x(t), что приводит к ошибкам фильтрации. Очевидно, что чем меньше ошибка, тем выше качество фильтрации. Количественно качество фильтрации можно оценивать по-разному. В некоторых задачах ка-

11—186 161

чест.во фильтрации характеризуется величиной средней квадратичен

ской погрешности е 2 = <[**.(*) —x(t)]->. При ѳтом

оптимальное

фильтрующее устройство

должно

обеспечивать

минимум

величи­

ны Б2. В ряде случаев фильтрация

осуществляется

по

критерию

максимума апостериорной

вероятности, а точность

фильтрации сце-

ннвается ее дисперсией.

 

 

 

 

 

В дальнейшем будет рассматриваться практически важный слу­ чай, когда сигнал и помеха являются стационарными процессами и взаимодействуют аддитивно

 

Ut)°°S(x,

*) +1/(11. /)+я'('0.

(б.і)

Сформулируем сначала

задачу линейной фильтрации.

Пусть

S(x, i)=x(t)

и Ѵ(\], 0 =

ч(0і

причем сообщение x(t) и помеха ц(<)

являются независимыми

стационарными нормальными процессами

с известными

характеристиками

 

<*(0>=0, <іі(0>=0,

<x(t)x(t+r)>=kx(z),

<vj (Ol С + ' ) >

Требуется определить характеристики системы, осуществляющей оптимальную фильтрацию сигнала (сообщения) из колебания £(/)• Решение поставленной задачи дается теорией линейной фильтрации, разработанной А. Н. Колмогоровым и Н. Винером. По этой теории импульсная характеристика оптимального фильтра G0 (0 должна

удовлетворять интегральному уравнению t

j [A, (* - У) + А, <?-у) + А» - U)\ Go (</) dy = kx (г),

(5.2)

и

 

которое называется уравнением Винера—Хопфа.

При этом среднеквадратнческая погрешность оптимальной филь­ трации е2 определяется выражением

е* = 'l+ [ G 0 (X,) d4 I j [*» (*» - 'i) + A, Сч - t.) +

ôlo -

 

+ кЛч-^г)}

Go (*,) их, -

2ft. Ы J.

(5.3)

Заметим, что обычно [1, 2] рассматривается задача

фильтрации,

когда в

смесь входят лишь два случайных

процесса.

Естественно,

в таком

случае

в соотношениях (5.2), (5.3) фигурирует корреля­

ционная

функция

лишь одного

мешающего

колебания.

 

Разберем простой пример [3].

Пусть необходимо отфильтровать с минимальной среднеквадратической погрешностью нормальный стационарный процесс x(t) с функцией-корреляции

от аддитивного белого шума n(t).

L62

Уравнение

Винера— Хопфа

(5.2)

для этого -случая

запишется

в виде

 

 

 

 

 

2 e - « I W l + ! ^ -2 e ( T - 0 )

G o ( y ) ^ = 4 e ~ a | t |

(5 '4 )

u

 

 

 

 

 

0

 

 

 

 

 

или после преобразований

 

 

 

 

t

t

 

 

 

 

е - " j e«*G„ ((/) Л/ + e" j e—'ff, (</) dy = e " " -

ЛГ(x).

 

 

 

 

 

(5.5)

Умножим

левую и правую

части

уравнения (5.5)

на е^т ц затем

дважды продифференцируем по т. В результате вместо интегрально­

го уравнения (5.5) получим дифференциальное

уравнение второго по­

рядка

G"o(T)-Y2 G0 (t)=0,

.

- (5.6)

где

 

 

 

 

4aL\

 

 

Общее решение этого уравнения имеет вид

 

 

 

G0 (x) = C l e - ^ + ?2eT\

 

(5.8)

где

(a + Y)2 («-Y)

 

 

 

 

 

с, = (« -Ь Т)а — (« — Г)2 е ~ 2 ^ '

 

=

(а + •() fg - Y) 2

 

 

С г

(« + Y ) 2 e 2 7 ' - ( * - Y ) 2

 

Величины С] и сг определяются из системы уравнений, которая полу­ чается* подстановкой решения (5.8) в уравнение (5.5) и приравнива­ нием коэффициентов при еat и е—a (t—t)

Если теперь найденное выражение для импульсной характери­ стики GO(T) оптимального фильтра подставить в соотношение (5.3) и выполнить довольно громоздкие вычисления, то для t—»-°° можно получить следующую формулу, определяющую величину минималь­ ной среднеквадратической погрешности:

е 2 = - ^ - У Ѵ 0 ( г - а ) .

(5.9)

Этот результат будет использован в дальнейшем.

В рассмотренном примере уравнение Винера—Хопфа решается сравнительно просто. В большинстве же случаев решение этого урав­ нения наталкивается на значительные трудности, что является су­ щественным недостатком линейной теории. Кроме того, теория линей­ ной фильтрации охватывает мало практически интересных случаев.

Действительно,- линейные

фильтры

способны выделять

сообщение,

л и н е й н о связанное с

сигналом

и подчиняющееся

нормальному

11*

 

 

163

закону распределения. Однако в радиотехнике обычно используются радиосигналы, которые не являются нормальными процессами, хотя модулирующее сообщение чаще всего предполагается нормальным. Иначе: для радиотехники актуальна задача фильтрации нормального сообщения, которое существенно и е л и и е й и ы м образом связано с сигналом. Из других недостатков линейной теории следует отме­ тить то обстоятельство, что в результате весьма сложного решения уравнения (5.2), характеристики оптимальных фильтров получаются трудно реализуемыми. В разобранном выше простом примере опти­ мальный фильтр должен иметь импульсную характеристику, которую

на практике

нелегко

получить из-за наличия функций

е

и е 1

В радиотехнических устройствах рекомендации теории

линейной

фильтрации

можно

использовать при проектировании

низкочастот­

ных трактов, расположенных в функциональных схемах после ди­ скриминаторов сообщения.

В связи с приведенными соображениями особый практический интерес представляет созданная Р. Л. Стратоновичем [4, 5, 6]. теория условных марковских процессов, на основе которой построена теория н е л и н е й н о й фильтрации. Настоящая глава посвящена изложе­ нию основ этой теории.

Отметим, что используемые в дальнейшем интегралы, содержа­ щие в подынтегральных выражениях случайные функции, будут по­ ниматься как снмметризовапные [6, 7]. Операции дифференцирования и интегрирования с симметрированными интегралами можно произво­ дить по правилам, которые справедливы для обычных интегралов.

5.2. Рекуррентные соотношения для условных вероятностей состояний марковского процесса

Рассмотрим сначала простой случай, когда

 

S(x,t)=x(t),

Ѵ ( Л ,

0 = л ( 0

 

 

 

и

 

 

m=x(t)+4(t),

 

 

 

 

 

где x(t)

и r\(t)—одномерные

 

марковские

процессы,

не­

обязательно непрерывные.

 

 

 

 

 

 

 

 

В качестве критерия оптимальности выберем крите­

рий максимума

апостериорной

вероятности*)

wps(x,

t)

параметра х(і)

при известной

реализации

l(t).

 

 

Рассмотрим

двумерный

процесс

[x(t),

l(t)].

 

Каждый

из двух

компонентов этого

процесса

является

марков­

ским процессом, следовательно, и сам двумерный

процесс

также является

марковским.. Компонент

£ (t)

на

прием­

ной стороне известен, компонент x{t)

требуется

опреде­

лить. Таким образом, основная задача

теории

условных

*) -Ниже для вероятности -и .'плотности вероятности попользуется одно и то же обозначение, которое позволяет проводить выкладки, не конкретизируя вид марковского процесса.

164

марковских процессов состоит в том, чтобы, р а с п о л а ­

г а я о д н и м из ко м п о н е н т о в

м н о г о м е р н о г о

м а р к о в с к о г о п р о ц е с с а , в ы ч и с л и т ь

р а с п р е ­

д е л е н и е в е р о я т н о с т е й д л я з н а ч е н и й

н е н а ­

б л ю д а е м о г о к о м п о н е н т а .

 

 

Следуя [4, 8], рассмотрим

отсчеты

принятого колеба­

ния, взятые с интервалом At.

Тогда | m

= (t0 , ёь • • •. Im) —

вектор поступивших на вход 'приемника да'нных за время от 0 до t = niAt\ х,„= (л'о, xlt..., хт) —• вектор неизвестных значений сигнала. Обозначим совместную плотность рас­

пределения

значений | т

п х т через

ш ( | т , х,„). В силу

марковкости

процесса

(§„,, х,п )

многомерную

плотность

вероятности

w(%m,

х,„)

можно представить в

виде (3.5)

w(tm,

xm)

= w0(%,x0)Д

ü ( ^ , ^ f t l ^ _ , . ^ f t - i ) .

(5.10)

 

 

 

 

 

k=\

 

 

 

 

 

где vfâk,

Xk\£,k-i,

Xk-i) —плотность вероятности

перехода

двумерного процесса (g,„, х,„).

 

 

 

 

 

По аналогии с (5.10)

запишем

 

 

 

 

 

 

 

 

 

 

/п+і

 

 

 

 

W ( | m

+ l ,

X m +

1 ) =

Wa

X0)

Y[ V ft,

Хк

\ Çft.j, xk_t)

=

 

 

 

 

 

 

ft=l

 

 

 

 

 

 

 

 

(І7П> "m) ^ (^/;г + і I X m+ 1

I

£m , X m ) .

 

По формуле

условной плотности

 

вероятности имеем

 

 

 

« ( x w i u = =

w{bi%y

 

 

(5-И)

Подставляя

в

(5.11)

соотношение

(5.10),

 

получаем

M ( x m | § m ) =

^ ( Ѵ )

П 0

^ - - ^ - , . - * * _ , ) ; (5.12)

аналогично

V m+l

Будем интересоваться апостериорным распределением последнего значения хт сигнала, для которого введем специальное обозначение

w(xm\%m)=Wps(Xm,

m),

(5.13)

165

Одномерную плотность (5.13) определим из многомер­ ной (5.12) интегрированием по «лишним» аргументам

wP8 т, m)

J - • • j дао ft. хй) X

X П V

(tk. х„. \%h_v

хк.,)dxk•_,.

Точно так же имеем

 

 

*>Р*(хм+ , . т+

1) =

j • • j ®о №.. А 'о) X .

Х П У (?ft. хк I Sft_л-,£ _, )гіл',£_,и(Е,„+1,

•^от+і I 5m. X m ) d x m

Исключим из (5.14) неизвестный множитель

. ,

для

чего проинтегрируем (5.14) по хт+,-

По усло­

вию

нормировки левая часть должна быть

равна

едини­

це,

так что

 

 

 

 

^ =

= ш (I ^,) j J

(•^mi

(5">+i> ^m+i|5m.

Xm)dXmdXm+1.

 

 

 

 

 

(5.15)

С учетоім (5.15) из (5.14) окончательно получаем рекур­

рентное соотношение для апостериорной

плотности веро­

ятности на (/п+1)-м шаге

 

 

 

 

 

 

 

 

 

 

MPS {хт+ѵт-\-1)

 

=

 

 

 

 

 

= T 7 J

 

 

 

 

 

 

 

 

(5.16)

Если

 

] J'^ps ( \ . « ) ö (im + i . *m + t I S.u. *m)

dxmdxm+l

марков­

сигнал

(сообщение)

представляет

собой

ский

процесс

с дискретными состояниями,

то

соответст­

вующие

интегральные

выражения заменяются суммами

 

 

 

Wps

{Хт + 1,

/П-\-1)

 

=

 

 

 

 

 

 

У Ща т,

т) V (1,п+ 1, хт

+ 1

I

 

 

 

 

 

~

Е Е

Wv(*m,

'П)ѵ(£т+1,

X

m + i \ l

m ,

Хт)

'

( 5 - 1 7 )

46fi

Соотношения (5.16), (5.17) позволяют по мере наблю­ дения одного компонента |.г- (г'=0, \,...,т) двумерного марковского процесса вычислять условное распределение для другого компонента х{. Рекуррентные формулы (5.16), (5.17) дают возможность пересчитывать значения апостериорных вероятностей от шага к шагу. При этом не требуется помнить все значения go, gi, ... , gm наблю­ даемой реализации, посколькудля определения апосте­ риорной плотности на следующем шаге используются лишь последние значения gm и | m + i . .

5.3. Фильтрация марковского процесса с двумя состояниями из белого шума

Продемонстрируем применение рекуррентных соотно­ шений, полученных в предыдущем параграфе, на кон­ кретном примере (4, 5, 8]. Пусть x(t)—марковский про­ цесс с двумя состояниями, a r\(t) =n(<t). Таким образом, необходимо отфильтровать процесс х(і) из белого шума.

Марковский процесс с двумя состояними рассматри­ вался в § 2.5. Положим для простоты

М < 0 - « .

M * ) = ß .

* І = 0 , * 2 = 1 ,

(5-18)

и а п р и о р н ы е

сведения (2.61),

(2.62) о процессе x(t)

с учетом новых обозначений

(5.18)

примут вид

 

^

=

- а р в

( 0 +

РР,(').

(5.19)

^

=

- В Р . ( 9 +

« Л Ю -

(5-20)

Поскольку рекуррентные соотношения (5.16), (5.17) «ра­ ботают» при дискретном времени, то ниже нам понадо­

бятся априорные сведения

(5.19), (5.20), записанные так­

же в дискретном

времени. Если производную

dpi(t)/dt

заменить допредельным

соотношением

 

 

dpt (t) __

Pi(t + àt) — Pi (t) ^

• ^21)

то с учетом (5.21)

вместо

(5.19), (5.20) будем

иметь

p0(t+At)=po(t)(l—aAt)+Pi{t)№t;

(5.22)

 

Pi(t+At)

=РІ(І)

(1 — ßAO +ро(і)Ш.

(5.23)

Итак, на

вход приемника

поступает реализация

 

 

•№=x(t)+n(t),

(5.24)

которая подвергается дискретизации во* времени.

167

Случайный процесс ii(t) при дискретном времени это последовательность независимых значений гауссовой слу­ чайной величины.

В качестве .дискретного отсчета будем использовать среднее за интервал дискретизации (th—At, th) значение колебания n(t):

Подобная замена справедлива в интересующем нас слу­ чае, когда Д/-9-0. Вычислим характеристики величины nr.

< я к > =

_±-

j " < и ( * ) > Л = 0;

(5.26)

 

 

th-At

 

 

fh

 

< = < < > = W

j * f < " f t ) ^ a ) > ^ = w -

 

 

 

(5.27)

Здесь учтено, что < « {ts) a ( У > = -^£ - 8 (tt — t).

С учетом (5.26), (5.27) закон распределения пк запи­

шется в виде

 

• » W = ) / ^ e x p ( - 4 ^ ) .

(5.28)

В рекуррентных соотношениях (5.16), (5.17) фигурирует плотность вероятности перехода процесса ( | т , х,„), осо­ бенностью которого в данном случае является то обстоя­ тельство, что один компонент (|т а ) является непрерывной случайной величиной, а второй т ) принимает только

два

значения. Запишем плотность вероятности перехода

процесса {\т, х т ) за один шаг Д^ из состояния Цн-и

Xh-i)

в состояние (£h , x h ) :

 

= ö(*f t |i,l _.b xk-i)v(lh\xh,

Ik-i, xh-i).

(5.29)

Поскольку

вероятность значения

хи не зависит

от вели­

чины l h - h

то

 

 

 

^ - * Й 1 ^ - І . ^ - І ) =

Я(-*)ІІ-**-І)-

(5-30)

168

Выражение (5.30) представляет собой матрицу перехода

__(Р(О/О)

P W ) \ =

(1-*U

pa*

V

( 5 3 1 )

4/>(i/o)

/7(і/і) ;

V ад;

î — рдг.

 

Каждый из элементов

матрицы (5.31)

легко находится

по уравнениям (5.'22),

(5.23).

 

 

 

 

Второй сомножитель в (5.29) является вероятностью

образования случайной величины %к

при условии

после­

довательного осуществления

событий хк-і, %к-і, хк.

Из-за

независимости отсчетов белого шума вероятность обра­

зования

| Й не зависит от значения хк

и

£/t_i

в

преды­

дущий момент времени, поэтому

 

 

 

 

 

 

v(lk\xh,

 

xk-i)=v(lk[xh).

 

 

 

(5.32)

Закон

распределения

при условии

хк

находится

просто, поскольку эти величины связаны

соотношением

(5.24)

со случайной

величиной пи, для

которой известен

закон

распределения

(5.28). Учитывая,

что

 

= 1 , и

подставляя в (5.28)

обратную функцию пь. = \ъ.—хк,

полу­

чаем

 

 

 

 

 

 

 

 

Таким образом, с учетом (5.31), (5.33) вместо (5.29)

имеем

 

 

 

 

 

 

 

 

 

и &, хк 1 -,. Хц _, ) = V (хк I хк _, ) у / - ^ - X

X ехр

No

 

Отметим, что составление выражения для плотности вероятности перехода многомерного марковского про­ цесса представляет собой одну из основных трудностей при решении конкретных задач с использованием рекур­ рентных соотношений (5.16), (5.17).

Конкретизируем формулу (5.17) для рассматриваемо­ го случая, расписав подробно числитель

w„<p.l + At) = ^jgg- К . (0,0(1

+

169

Соседние файлы в папке книги из ГПНТБ