Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Учебное пособие 800326

.pdf
Скачиваний:
45
Добавлен:
01.05.2022
Размер:
1.62 Mб
Скачать

скрытности.

Выражение (5.14) является не вполне точным решением задачи определения потенциальной скрытности, так как при оптимизации использовались непрерывные значения длин ветвей дерева поиска (5.12), а фактически они всегда имеют целочисленные значения, то есть длина ветви li является це-

лым числом, удовлетворяющим неравенству

l*

l

i

l*

1.

(5.16)

i

 

i

 

 

Тогда точное значение потенциальной скрытности S находится в границах неравенства (4.13),

H(X ) S H(X ) 1.

(5.17)

Таким образом, полученные выражения позволяют опре-

делять потенциальную скрытность объекта при отсутствии ошибочных измерений. Однако проведенный анализ не позволяет получить правило формирования оптимального дерева и соответствующий ему алгоритм поиска. Для этого необходимо провести дополнительные исследования на базе известных результатов теории кодирования.

Как видно из (5.12) или (5.15), оптимальные длины ветвей дерева поиска тем больше, чем меньше вероятности соответствующих реасобытий, то есть

li l j если Pi Pj .

(5.18)

Это условие, которое будем называть иерархическим принципом, полезно для выбора и анализа оптимального алгоритма поиска.

39

5.3. Оптимизация поиска на основе методов безызбыточного кодирования сообщений

5.3.1. Двоичное кодирование

В проводной и радиосвязи широко используются различные методы кодирования дискретных сообщений посредством двоичных символов 0 и 1.

Известны так называемые блочные коды, в которых сообщениям (буквам) ставятся в соответствие блоки двоичных символов (кодовые комбинации) одинаковой длины n. В целях защиты информации от ошибок, вызываемых помехами, блоки наращиваются дополнительными проверочными символами, позволяющими обнаруживать и исправлять ошибки.

Рассматривается также статистическое безызбыточное кодирование, при котором длина кодовой комбинации согласуется с частостью передачи разных сообщений (букв алфавита) по каналу связи. Чем больше статистическая вероятность возникновения данного сообщения в тексте, тем более короткая кодовая комбинация выбирается для его передачи.

Таким образом, удается сжать передаваемый по каналу текст в двоичных символах. Количество информации, достигающей приемника, в расчете в среднем на один элемент сообщения оказывается максимальным.

Сходная в своем существе задача стоит перед автоматом, управляющим поисковым процессом. Необходимо так его организовать, чтобы количество двоичных проверок для прояснения обстановки было минимальным.

Остановимся на двух известных методах безызбыточного кодирования, описываемых ниже.

5.3.2. Метод Шеннона-Фано

Исходное множество элементов сообщения (состояний объекта) с заданным распределением их вероятностей разбивается на два подмножества с номерами 0 и 1 так, чтобы ве-

40

роятности попадания в них были максимально близки (равны 0,5). Затем каждое из полученных подмножеств отдельно разбивается на два подмножества с тем же условием и ном5ерами соответственно 00, 01 и 10, 11. Разбиение заканчивается, когда все подмножества будут иметь только по одному элементу.

В качестве примера рассмотрим множество состояний из A 5 элементов с распределением вероятностей, представленном в табл.5.1.

Таблица 5.1

 

xi

1

2

3

 

4

5

 

 

 

 

 

 

 

 

 

 

 

Pi

0,30

0,25

0,2

 

0,15

0,1

 

 

 

 

 

 

 

 

 

При первом делении (N=1, q=1) множество Х разбивается

на два подмножества X 0(1,1) и X1(1,1)

с равными или сколь воз-

можно близкими суммарными значениями вероятностей входящих в них элементов. В рассматриваемом случае получим

X

 

(1,1)

[x x

2

]; P( X

(1,1) )

0,55,

 

0

1

 

 

0

 

 

X1

(1,1)

[x3 x4 x5 ];

P( X1

(1,1) )

0,45.

 

При втором измерении N

2 множество X 0(1,1) разбива-

ется на два подмножества X 00(2,1)

и X 01(2,1) ,

 

 

X

00

(2,1)

[x ],

P( X

 

(2,1) )

0,3, P( X

(2,1) / X

(1,1) )

0,3 / 0,55

0,545,

 

 

1

 

00

 

00

 

0

 

 

 

X

01

(2,1)

[x2 ];

P( X 01

(2,1) )

0,25, P( X 01

(2,1) / X 0

(1,1) )

0,25 / 0,55

0,455.

Так как полученные подмножества содержат по одному элементу, то в этом направлении разбиения прекращаются.

Аналогично проводится разбиение множества X1(1,1) на

два подмножества X 10

(2,2) и X11(2,2) ,

 

 

 

 

 

X 10

(2,2)

[x3 ], P(X 10

(2,2) )

0,2, P(X 10

(2,2)

/ X 1

(1,1) )

0,2 / 0,45 0,444,

X 11

(2,2)

[x4 , x5 ], P(X 11

(2,2) )

0,25, P(X 11

(2,2)

/ X 1

(1,1) )

0,25 / 0,45

0,556.

 

Подмножество

 

 

X 10

(2,2) содержит один

элемент,

а для

X11(2,2)

необходимо провести третье разбиение на две части

X 110

(3,1)

и X111(3,1) ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X 110

(3,1)

[x4 ], P(X 110

(3,1) )

0,15, P(X 110

(3,1) / X 11

(2,2) )

0,15 / 0,25

0,6,

X 111

(3,1)

[x5 ], P(X 111

(3,1) )

0,1, P(X 111

(3,1) / X 11

(2,2) )

0,1/ 0,25 0,4.

Как видно, все разбиения обеспечивают примерное равенство условных вероятностей появления реасобытия в каждом из подмножеств.

Описанный метод Шенно- на-Фано позволяет построить показанное на рис. 5.2 дерево поиска с отмеченными двоичными кодами соответствующих подмножеств, разрядность которых равна длинам ветвей.

Рис. 5.2 Оптимальность кода Шен- нона-Фано обусловлена рациональным сочетанием длин ветвей дерева поиска с частостью

употребления состояний объекта и последовательным делением множества Х на равновероятные подмножества с максимумом получения информации при каждом измерении. Выполняется иерархический принцип сочетания Pi и li (5.18).

Среднее число двоичных измерений в соответствии с де42

41

ревом поиска (рис. 5.2) равно

 

A

 

 

 

R

Pi li 0,3 2 0,25 2

0,2

2 0,15 3 0,1 3 2,25 ,

(5.19)

 

i 1

 

 

 

 

Энтропия множества

X в соответствии с табл. 5.1 опре-

деляется выражением

 

 

 

 

 

5

 

 

 

H ( X )

Pi

log2 Pi 2,228.

(5.20)

 

 

i 1

 

 

Как видно, среднее число двоичных измерений R для полученного оптимального алгоритма поиска близко к энтропии множества, причем H(X ) R H(X ) 1, что соответствует оценке потенциальной скрытности (5.17).

5.3.3. Метод Циммермана – Хаффмена

Разработанный независимо Циммерманом для задач поиска и Хаффменом для кодирования сообщений – метод позволяет находить оптимальные алгоритмы и строить соответствующие деревья поиска применительно к нашим задачам.

Алгоритм формирования дерева поиска состоит в следующем. Производится ранжирование состояний по мере уменьшения их вероятностей в виде (5.2). Два наименее вероятных состояния объединяются о одно, образуя узел дерева поиска. Эти состояния исключаются из множества X и заменяются объединенным состоянием, образуя новое множество X (1) . В нем проводится ранжирование состояний по мере снижения их вероятностей. Процесс повторяется до тех пор, пока в преобразованном множестве не окажется лишь два

элемента.

 

Рассмотрим пример для множества X , описанного

в

табл. 5.1. Минимальные вероятности имеют состояния x5

и

43

 

x4 , их суммарное значение равно 0,25. Тогда получается множество, представленное в табл. 5.2.

 

 

 

Таблица 5.2

i

1

2

4 и 5

3

Pi(1)

0,3

0,25

0,25

0,2

Минимальные вероятности имеют состояния x3 и объединенное состояние x4 , x5 , суммарная вероятность равна 0,45. Получается множество, представленное в табл. 5.3.

 

 

 

 

 

 

 

 

 

 

Таблица 5.3

 

 

 

 

 

 

 

i

 

 

 

 

3 и 4 и 5

 

1

 

 

2

 

 

 

 

 

 

 

 

 

 

Pi(2)

 

 

0,45

 

 

0,3

 

 

0,25

 

 

 

 

 

 

В этом случае минимальные вероятности имеют состоя-

ния x2 и x1

с общей вероятностью 0,55 (табл. 5.4).

 

 

 

 

 

 

 

 

 

 

 

 

 

Таблица 5.4

 

 

 

 

 

 

 

 

 

 

i

 

 

 

 

1 и 2

 

3 и 4 и 5

 

 

 

 

 

 

 

 

 

 

Pi(3)

 

 

0,55

 

 

0,45

 

 

 

 

 

 

 

 

 

 

 

Процесс закончен, а оптимальное дерево поиска строится

в обратном порядке. Из корневого узла

выходят две ветви,

разделяющие множество

X

на две части X

(1,1)

[x , x

2

] и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

1

 

X (1,1)

 

[x , x

4

, x ] в соответствии с табл. 5.4. Подмножество

1

 

 

3

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X (1,1)

делится на X

(2,1)

x

и X (2,1)

 

 

x

2

согласно табл. 5.3, а

0

 

 

 

 

 

00

1

01

 

 

 

 

 

 

 

 

 

 

X (1,1)

- соответственно на

X (2,2)

x

3

и

X (2,2)

[x

4

, x ]

 

(со-

1

 

 

 

 

 

 

 

 

 

10

 

 

 

11

 

 

5

 

 

гласно табл. 5.2). И наконец, X 11(2,2)

разделяется на две части

X (3,1)

 

x

4

и

 

X (3,1)

x . Дерево поиска совпадает с показан-

110

 

 

 

 

111

5

 

 

 

 

 

 

 

 

 

 

 

 

 

ным на рис. 5.2 для метода Шеннона-Фано с той же эффективностью процесса оптимизации.

44

5.4. Изменение оптимального алгоритма поиска и потенциальной скрытности

5.4.1. Влияние распределения вероятностей

Рассмотренные процедуры формирования оптимального алгоритма поиска и соответствующего ему дерева свидетельствуют о сильном влиянии на них распределения вероятностей состояний объекта. Не умаляя общности результатов, будем рассматривать ранжированные распределения (5.2). Тогда форма дерева поиска зависит прежде всего от диапазона изменения вероятностей от P1 до PA .

Рассмотрим закон распределения вероятностей состояний объекта в виде показательной функции

 

P

2 i ,

(5.21)

 

i

 

 

где

- коэффициент затухания,

- нормирующий множи-

тель, i 1, A . Так как сумма вероятностей равно единице, то величина в соответствии с выражением для суммы членов геометрической прогрессии (5.21) будет равна

 

2

1

.

(5.22)

 

 

 

 

 

1

2 A

 

При

0 получим равномерное распределение вероятно-

стей Pi

1/ A , а иначе вероятности уменьшаются с рос-

том номера состояния.

Используя (5.22), можно имитировать различные законы распределения вероятностей состояний объекта с разными

значениями

, A и .

На рис. 5.3а приведена диаграмма равновероятного рас-

пределения (

0 ) и A 8 .

 

45

Рис. 5.3

Оба рассмотренных метода формирования алгоритма поиска приводят к дереву, показанному на рис. 5.3б. Полученный алгоритм предполагает разбиение множества состояний на два подмножества с равным числом элементов, каждое из которых вновь разбивается пополам и так далее.

Такого рода алгоритм раскрытия реасобытия называют дихотомическим. Длины всех ветвей дерева поиска одинаковы и равны l0 log2 A , что является нижней границей усло-

вия регулярности (5.9). Таким образом, дихотомический алгоритм поиска имеет минимальное значение максимальной длины дерева поиска.

При равновероятном распределении вероятностей со-

стояний и их арсенале A 2n ( n - целое число) потенциальная скрытность определяется выражением

S log2

A n

(5.23)

двоичных измерений. В рассматриваемом примере S 3 диз.

Можно показать, что если в (5.21) параметр

удовлетво-

ряет неравенству

 

 

 

 

 

 

log2

1

 

0,694,

(5.24)

 

 

 

 

 

 

 

 

1,25

0,5

 

 

 

 

46

 

 

 

то сумма вероятностей двух последних состояний меньше вероятности предшествующего состояния. Тогда в соответствии с методом Циммермана – Хаффмена оптимальным оказывается последовательный алгоритм поиска, при котором проверка начинается с одного первого (наиболее вероятного) элемента x1 , затем следующего и так далее до предпоследнего xA 1 . Если при этом реасобытие не обнаружено, значит, оно соответствует элементу xA . В качестве примера на рис. 5.4а показано

распределение вероятностей вида (5.21) при 1 и A 8 , а на рис. 5.4б – соответствующее дерево поиска для последовательного алгоритма.

Для последовательного алгоритма максимальная продолжительность поиска равна (A 1) диз, что существенно выше, чем у дихотомического.

Рис. 5.4

Если выполняется (5.24), то оптимальным всегда является последовательный алгоритм поиска, а потенциальная скрытность определяется выражением

 

A 1

 

S

2 i i ( A 1) 2 A .

(5.25)

 

i 1

 

Сумма представляет собой арифметико-геометрическую

47

прогрессию и после вычислений получим

 

S

 

1

1

2

 

1 2

( A 2) ( A 1)2 A .

(5.26)

 

 

 

 

 

 

2 A

 

 

 

1

 

1

2

 

 

 

 

 

При A

из (5.26) следует

 

 

 

 

 

 

 

S( A

)

 

1

.

(5.27)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

 

На рис. 5.5 показаны зависимости потенциальной скрыт-

ности S(A)

от арсенала

A для различных значений

, удов-

летворяющих условию (5.24) при последовательном алгоритме поиска. Как видно, в этом случае потенциальная скрытность ограничена величиной (5.27) при неограниченном увеличении числа состояний. В

рассмотренном

 

примере

1

и

A 8

полу

чим S

1,965 диз. Легко про-

верить, что значения S близки к энтропийной скрытности и удовлетворяют неравенству

(5.17).

Если параметр не удовлетворяет условию (5.24), Рис. 5.5 то последовательный поиск не является оптимальным, а

дерево поиска изменяется по сравнению с рис. 5.4б. Например, при 0,3 распределение вероятностей при-

ведено в табл. 5.5 и ближе к равномерному, чем показанное на рис. 5.4а

Соответствующее дерево поиска приведено на рис. 5.6.

48

Таблица 5.5

i

1

2

3

4

5

6

7

8

Pi

0,232

0,188

0,153

0,124

0,101

0,082

0,067

0,054

Рис. 5.6

Для дерева поиска на рис.5.6 и вероятностей из табл.5.5 значение потенциальной скрытности равно

 

8

S

Pili 2,883 диз ,

 

i 1

а энтропия множества

состояний H(X ) 2,847 бит, что

X (1,1)

весьма близко к 0 . Если бы алгоритм поиска остался последовательным, то алгоритмическая скрытность была бы равна 3,402 диз, что заметно выше потенциальной.

Как видно, при выравнивании распределения вероятностей состояний объекта в оптимальном дереве поиска появляются дихотомические фрагменты (рис. 5.6), оно трансформируется от последовательного (рис. 5.4б) до дихотомическо-

го (рис. 5.3б).

49

5.4.2. Влияние ограничения ветвей на продолжительность поиска

При проектировании оптимальной поисковой процедуры могут налагаться ограничения на ее максимальную продол-

жительность l0 . Из условия регулярности (5.9) l0

log2 A , а

иначе алгоритм поиска не реализуем. Если l0

max(

log2 Pi ) ,

 

i

 

то величина l0 не влияет на алгоритм поиска. Таким образом,

ограничение максимальной длины ветви дерева поиска влияет на его форму, если

 

log2 A l0

max( log2 Pi ) .

(5.28)

 

 

i

 

Рассмотрим пример с распределением вероятностей

(5.21), (5.22) при

1 и A

8 (рис. 5.4а), оптимальное дере-

во поиска представлено на рис. 5.4б (последовательный алгоритм). Максимальная длина ветви равна 7 диз, а минимально допустимое значение l0 равно 3 диз.

На рис. 5.7а показано оптимальное дерево поиска при l0 6 , а на рис. 5.7б – при l0 5 . При l0 4 дерево принимает вид, показанный на рис. 5.6.

Рис.5.7

50

Как видно, укорочение ветвей дерева поиска приводит к появлению в нем дихотомических фрагментов, а если задано l0 3 диз (минимально возможное значение), то дерево поис-

ка становится полностью дихотомическим (рис. 5.3б).

Очевидно, что при уменьшении l0

от 7 до 3 диз потенци-

альная скрытность повышается от S

1,965 диз (при отсутст-

вии ограничений) до S 3 диз (при минимальном l0 ). При

больших значениях A рассмотренные эффекты проявляются намного сильнее.

51

Глава 6. КРИВЫЕ СНЯТИЯ НЕОПРЕДЕЛЕННОСТИ

6.1. Изменение неопределенности в процессе поиска

Поисковая процедура состоит в выполнении ряда двоичных измерений, в ходе которых выявляется реасобытие. При отсутствии ошибок каждое измерение снижает неопределенность состояния объекта от исходного значения энтропии H (X ) до нулевого уровня.

Информационные характеристики поиска рассмотрены в главе 4. Общее описание дерева поиска приведено на рис.2.3. При выполнении N -го измерения проверяется наличие реа-

события в одной из частей

X 0( N ,q) и X 1( N ,q ) подмножества

X k( N 1,q) (индекс k равен 0 или 1). После (N 1) -го измерения

остается неопределенность,

характеризующаяся энтропией

H ( X k( N 1,q) ) , а после N -го измерения энтропия принимает

меньшее значение H ( X ( N ,q1) ) . Снижение энтропии определя-

 

k1

 

 

 

ется декрементом неопределенности

 

 

H X ( N 1,q) , X ( N ,q1)

H X ( N 1,q)

H X ( N ,q1)

. (6.1)

k

k1

k

k1

 

Продвижение по ветвям дерева поиска рис. 2.1 (перебор индексов k , k1 и q ) зависит от значения реасобытия xr , и для каждого из них можно записать

lr

 

H X k( N 1,q) , X k(1N ,q1) H ( X ) ,

(6.2)

N 1

то есть, как отмечалось в главе 4, сумма декрементов неопределенности равна энтропии множества состояний объекта.

Усредняя (6.2) по всем реасобытиям, с учетом равенства единице суммы их вероятностей можно записать

52

A

lr

 

P(xr )

H X k( N 1,q) , X k(1N ,q1) H ( X ) ,

(6.3)

r 1

N 1

 

а изменив порядок суммирования по r и N , получим

lmax

 

P(xr ) H X k( N 1,q) , X k(1N ,q1) H ( X ) ,

(6.4)

N 1 r X ( N )

где lmax - максимальное число измерений в ветвях дерева поиска, X (N) - множество состояний объекта, не обнаруженных после N двоичных измерений. Величина

H (N )

P(xr ) H X k( N 1,q) , X k(1N ,q1) ,

(6.5)

 

r X ( N )

 

является средним декрементом неопределенности для

N -го

измерения. Согласно главе 4 эта величина не более единицы. После N -го измерения при заданном реасобытии xr ос-

таточная неопределенность

равна H ( X ( N ,q1) ) , а

ее среднее

 

k1

 

значение равно

 

 

H (N )

P(xr )H k( N ,q) ,

(6.6)

r X ( N )

 

где индексы k и q определяется составом множества X (N) .

6.2. Кривая снятия неопределенности

Назовем кривой снятия неопределенности (КСН) гра-

фически выраженную зависимость средней остаточной неопределенности (энтропии) состояния объекта H (N) от числа

53

выполненных двоичных измерений N согласно (6.6).

При отсутствии ошибочных измерений функция H (N) из (6.6) не возрастает при увеличении N и стремится к нулю при N lmax .

Вычисление КСН при заданном дереве поиска проводится следующим образом.

После первого измерения выделяются два подмножества

X 0(1,1) и X1(1,1) из общего множества состояний

X , определя-

ются вероятности их выбора P( X 0(1,1) )

 

 

и P( X 1(1,1) ) ,

 

 

 

 

P( X

(1,1) )

 

P(x

r

),

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xr

X 0(1,1)

 

 

 

 

 

 

 

(6.7)

 

 

P( X

(1,1) )

 

P(x

 

),

 

 

 

 

 

 

 

r

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xr

X1(1,1)

 

 

 

 

 

 

 

 

условные энтропии состояний в этих подмножествах

 

H ( X

(1,1)

)

 

 

P(xr )

 

log

 

P(xr

)

,

 

0

 

X (1,1)

P( X 0(1,1) )

2

P( X 0(1,1) )

 

 

x

r

 

 

 

 

(6.8)

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H ( X

(1,1)

)

 

 

P(xr )

 

log

 

P(xr

)

,

 

1

 

X1(1,1)

P( X1(1,1) )

2

P( X1(1,1) )

 

 

xr

 

 

 

 

 

и среднюю остаточную энтропию после первого двоичного измерения

H (1) P(X 0(1,1) )H (X 0(1,1) ) P(X1(1,1) )H (X1(1,1) ) .

(6.9)

Далее процесс продолжается аналогично. При N -м измерения определяется множество X (N) реасобытий, поиск которых не заканчивается после (N 1) измерений, для каждой части ветви дерева поиска длиной не менее (N 1) диз выде-

54

ляются пары подмножеств X 0( N ,q) и X 1( N ,q ) ( q 1,2... - индек-

сы подмножеств) и вычисляются вероятности вида (6.7) и условные энтропии (6.8). Остаточная энтропия после N измерений равна

H (N ) P X (N )

P( X 0( N ,q) )H ( X 0( N ,q) ) P( X 1( N ,q) )H ( X 1( N ,q) ) . (6.10)

 

q

Помимо усредненной КСН H (N) можно рассматривать частные кривые снятия неопределенности в виде зависимостей H ( X k( N ,q) ) для определенных значений реасобытия., от выбора которого зависят значения индексов k и q .

6.3. Примеры КСН

6.3.1. Показательный закон распределения вероятностей состояний объекта и последовательный поиск

Обратимся к рассмотренному ранее закону распределения вероятностей состояний объекта (5.21) и (5.22),

P

2 i ,

 

 

 

 

 

(6.11)

i

 

 

 

 

 

 

 

 

 

 

2

 

1

.

(6.12)

 

 

 

 

 

 

 

 

1

2

A

 

 

 

На

рис.6.1 показана

за-

висимость

Pi

от

номера

со-

стояния

i

при

1

и

 

A 8 .

 

 

 

 

 

 

 

 

При условии (5.24)

в

Рис. 6.1

виде

0,694 оптималь-

 

55

 

 

 

 

 

 

 

ным оказывается алгоритм последовательного поиска, дерево поиска которого с необходимыми обозначениями показано на рис. 6.2.

Рис. 6.2

Исходная энтропия множества X для рассматриваемого распределения вероятностей из(4.1) с учетом (6.11) и (6.12) равна

H ( X )

log

 

 

 

 

1 A 2 A

 

2

(1

2

( A 1) )

. (6.13)

2

1

2 A

 

 

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

График

зависимости

эн-

 

 

 

 

 

 

тропии

H из (6.13) от пара-

 

 

 

 

 

 

метра

 

 

показан на рис. 6.3.

 

 

 

 

 

 

Как видно, в рассматривае-

 

 

 

 

 

 

мом

примере

неопределен-

 

 

 

 

 

 

ность

 

состояния сравнитель-

 

 

 

 

 

 

но невелика, быстро снижа-

 

 

 

 

 

 

ется с ростом параметра

и

 

 

 

 

 

 

слабо

 

зависит от арсенала

 

Рис. 6.3

 

множества

состояний A

в

 

 

 

 

 

 

56

 

 

 

 

 

 

 

области A

1 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

После первого измерения с вероятностью

P(X (1,1) )

P

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

1

реасобытие

x1

будет

 

обнаружено, при этом

энтропия

H ( X (1,1) ) равна нулю, а с вероятностью

P( X (1,1) )

1

P

по-

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

1

 

иск продолжится с условной неопределенностью

 

 

 

 

 

 

 

 

 

A

 

Pi

 

 

 

 

 

 

 

 

Pi

 

 

 

 

 

 

 

 

H ( X (1,1) )

 

 

 

 

 

 

 

log

 

 

 

 

.

 

 

 

(6.14)

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

 

 

1

P

 

 

1

P

 

 

 

 

 

 

 

 

 

 

i

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

1

 

 

 

 

 

 

После второго измерения с вероятностью

 

 

 

 

 

 

 

 

 

P( X (2,1) )

 

(1

 

P )

 

 

P2

 

 

 

 

 

P

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

1

(1

P )

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

будет обнаружено реасобытие x2

и энтропия H (X 0(2,1) )

 

0 , а

с вероятностью P( X (2,1) )

 

1

P

 

P

поиск будет продолжен с

 

 

0

 

 

 

 

1

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

условной остаточной энтропией

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

 

Pi

 

 

 

 

 

 

 

 

 

Pi

 

 

 

 

 

H ( X

(2,1) )

 

 

 

 

 

 

log

 

 

 

 

 

 

.

 

(6.15)

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

1

 

1

P

 

P

 

1

P

P

 

 

 

 

 

i

3

 

 

 

 

 

 

 

 

 

 

 

1

 

2

 

 

 

 

 

 

 

1

 

2

 

 

 

 

Далее расчет проводится аналогично, а если реасобытием являются xA 1 или xA , то после измерения с номером N A 1

поиск завершится, и неопределенность состояния объекта будет равна нулю.

На рис. 6.4 представлены зависимости условной энтропии H ( X1( N ,1) ) и усредненной энтропии H (N) от номера измерения N при A 8 . Условная энтропия H ( X 0( N ,1) ) 0 , так как в состав подмножества X 0( N ,1) xN входит только один элемент,

переход к ней показан на рис. 6.4 пунктирными линиями.

Как видно, первое измерение снижает среднюю энтропию

57

примерно на 1 бит, а для последующих измерений декремент неопределенности значительно ниже.

Условная энтропия H ( X1( N ,1) ) уменьшается с ростом N существенно медленнее, чем средняя H (N) . Это обусловлено

тем, что в каждом измерении проверяется лишь одно реасобытие, и если результат отрицателен, то сохраняется значительная неопределенность относительно других состояний объекта поиска.

Рис. 6.4

Среднее число измерений (потенциальная скрытность) в рассматриваемом примере определяется выражением (5.26) и при A 8 равна S 1,965. Максимальное число измерений

для последовательного алгоритма равно lmax A 1 и сущест-

венно больше S . Это означает, что продолжительность поиска может быть различной в зависимости от реасобытия.

Для оценки этого эффекта целесообразно рассматривать

пик-фактор поисковой процедуры

, равный

 

lmax

.

(6.16)

 

 

 

S

 

В данном случае

 

58