Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Толстоусов, Г. Н. Прикладная теория информации учеб. пособие

.pdf
Скачиваний:
9
Добавлен:
19.10.2023
Размер:
4.97 Mб
Скачать

раскрываемое на.втором этапе Нг

, т .ѳ .

математическое ожида­

ние величины

.

 

 

Величина HI

получается в

случае, если состояние вспомо­

гательного источника содержится

в группе

£^ . Вероятность это­

го, как было указано ранее, равна pL . Следовательно, для ма­ тематического ожидания

 

 

 

Рь

(**}

_

Если

раскрыть

неопределенность вспомогательного

источника

с

равновероятными состояниями

непосредственно,

то согла­

сно

(4.10)

получим

 

 

 

№ )

Согласно третьей аксиоме неопределенность не зависит от

способа раскрытия,

поэтому

 

 

Подставляя значения

из

(4 .13), (4.16)

и (4 .17), имеем

logt KL=n(p„ps,...pj%

ft CcgKc .

 

Отсюда искомое значение энтропии исходного источника

н(РиР*>..РЛ)=

Я

ъ .

 

Умножая второе

слагаемое на величину У р.

равную ѳди-

нице, получаем

 

 

 

 

 

 

 

Kl

 

Учитывая (4 .12), имеем окончательное»выражение

Н(Р,*Р*.:РП.)=-£РС&ЧРС -

K«)

Таким образом,

основываясь на трех аксиомах,

изложенных в

§ 3, мы получили выражение для энтропии дискретного источника информации.

Рассмотрим некоторые свойства энтропии. Следует сразу от­ метить, что I - 3-ѳ свойства вытекают из трех аксиом и поэтому

19

здесь не рассматриваются.

4. Энтропия есть вещественная, ограниченная и неотриц ная функция. Это следует из того, что значения вероятностей за­ ключены в пределах

 

5.

Для систеиы с однии возыовныы состоянием энтропия р

нулю.

В этом

случае ѵ. в ' (4.18) следует

положить р= 1,

Dl- О

( і,

= 2 . . .

гг

) . Тогда,

очевидно,

для первого источника^

имеем

 

 

 

 

 

 

 

 

 

= 0 .

 

 

 

При вычислении последующих слагаемых сталкиваемся с неопре­

деленностью вида

О ‘ о° ,

Раскрывая

неопределенность,

получим

&/пр&зср= Ііпг^Я£--£йп

=Зслгр-Зоде-О.

 

P-о

Р-'О ф р-*о

 

*

 

Таким образом, каждое слагаемое в (4.18) равно нулю, и эн­ тропия равна нулю. Действительно, никакой неопределенности у системы с одним, а следовательно, известным состоянием, не мо­ жет быть.

6 . Если вероятности состояний источника изменяются та их величины сближаются, энтропия увеличивается. Рассмотрим веро­

ятности р ,

и

рл

двух

произвольных состояний. Пустьр,

.

Изменим эти значения в сторону сближения. Обозначим новые зна­

 

чения через

рі

и

рі

. Учитывая, что сумма всех вероятнос­

 

тей постоянна

(она

равна

единице), получим

 

РМ +& Р.

p ’=pz - b p .

Предполагая, что д р мало, вычислим вариацию энтропии

ЛН :

(-*9« ' 8* *

20

+ & $ ф р = (& $ -$ )А р .

Так как р г ^Р/ и

Ар^О ,

ю

вариация положительна и

свойство

доказано.

 

 

 

7 .

 

Энтропия максимальна

в

случае равновероятных состояний

источника. Для доказательства необходимо найти условия экстре­

мума функции

(4 .18). При решении задачи необходимо учесть, что

аргументы

р^

функции не могут изменяться произвольно. Вероят­

ности всегда подчиняются условию

 

 

 

 

£ / > . = / .

 

 

Для решения используем метод неопределенных множителей Лагранжа.

Составим вспомогательный функционал

F = -iPcto9Pi+A(£f Pc - l) ,

№ )

где Ä - неизвестный постоянный множитель Лагранжа.' Составим условия экстремума функционала:

Заметим, что условия экстремума функционала (4.20)

и функции

(4.18) одинаковы. Указанные выражения одинаковы по

величине,так

как согласно (4.19) последнее слагаемое в (4.20) равно нулю.

Из (4.21) следует, что в точке экстремума все

вероятности

одинаковы, т .ѳ . состояния равновероятны. Экстремум

(он один)

соответствует максимуму, что следует из предыдущих свойств энт­ ропии. Таким образом, максимальное значение энтропии источника равно логарифму числа состояний

Нтж = е°$'г

и достигается в случае равновероятных состояний источника. Рассмотренные свойства хорошо характеризуют энтропию как

21

меру неопределенности. Наибольшей неопределенностью источник обладает при равновероятных состояниях. Тогда все состояния рав­ ноценны и наы необходимо выбирать одно состояние среди одинако­ вых. Здесь мы испытываем наибольшие затруднения и информация о действительном состоянии источника для нас наиболее ценна.

Единицы измерения энтропии зависят от основания логарифмов, выбранного при вычислении энтропии согласно соотношении (4 .18). Для двоичной системы счисления, когда основание логарифмов рав­ но 2, энтропия измеряется в битах. При использовании десятичных логарифмов энтропия измеряется в дитах; при натуральных - в нитах.

Зависимость энтропии источника

с двумя возможными состояниями от ве­

роятности состояний показана на рис.

4 .3 . На рисунке обозначено

рі » p

,

тогда $t=» I - р

. Видно, что в

качестве единицы энтропии, равной I

биту, можно принять энтропию источ­

ника с двумя равновероятными состоя­

ниями.

 

 

 

Для численных расчетов

удобно

пользовгться таблицами функции

 

t f p b - P t y z P

.

при­

водимой в литературе

по теории ин­

формации [З] .

В заключение заметим, что выражение (4.18) для вычисления энтропии можно представить как математическое ожидание логариф­ ме вероятности состояний источника

 

Н(Х)= м[- &$Р(Х)] t

(4.23)

где Н(Х) -

энтропия источника

информации

X ;

М[ 3 -

операция математического ожидания;

P C X ) -

вероятность любого

случайного

состояния источника,

 

рассматриваемая как

случайная

величина.

Действительно, состояния источника случайны. Вероятность

появления

состояния

равна

. Если мы поставим в соот­

ветствие

появлению состояния Хі

появление величины - toflp. »

22

то последняя тоже станет случайной и будет появляться с вероят­ ностью рс .

Понятие энтропии как математического ожидания будет исполь­ зовано в следующих параграфах.

§ 5. Энтропия объединения независимых источников

По линии связи одновременно могут передаваться сообщения нескольких источников информации. Поэтому с целью создания луч­ ших условий передачи целесообразно рассматривать эти источники не изолированно друг от друга, а совместно, как один сложный, комплексный источник, называемый объединением источников.

 

Рассмотрим вначале объединение, состоящее из двух дискрет­

ных источников информации X

и У .

sc, , х г

 

Пусть

источник

X

имеет

возможных состояний

. . .

Хп ,

а

источник

Y

ийеет пг

возможных состояний

yt ,

. . .

.

По каналу

связи передается сообщение о действительном

состоянии обоих источников. Тогда сообщением могут быть все по­

парные

комбинации состояний источников: Xtyi ; Х,ул . . .

Хп

* т*е. всего имеем ГЪ*т разных сообщений. Под состо­

яниями объединения понимаются все комбинации состояний источни­

ков, входящих в объединение.

Чему равна

вероятность

одного

из

состояний

объединения

X^

? Это есть

вероятность произведе­

ния, т .е . одновременного появления двух

событий: X - Х с

(ис­

точник X

находится

в состоянии

Х0 )

и Y~*/y

(источник

Y находится в состоянии

) .

Эту

вероятность обозначим

следующим образом:

 

 

 

 

 

 

 

Рѵ = р [ х ~ х і ; у . ^ ]

ш

 

Объединение есть некоторый источник, у которого возможны т*гь состояний. Если известны все вероятности этих состоя­

ний (5 .1 ), то

энтропия объединения Н(Х Y)

по определению энтро­

пии источника

(Ф.І8) может быть записана следующим образом:

 

H< x r h - ifc P v &>?Pv .

t o )

Используя операцию математического ожидания, выражение (5.2) может быть записано в вида

25

И(ХГ)=м[-еодР(ХУ)],

(Si)

где P(XY) - вероятность состояния объединения,

рассматривае­

мая как случайная величина.

Полученное выражение для энтропии объединения зависит от вероятности произведения состояний источников. Эта вероятность вычисляется различным образом для различных видов взаимосвязи

между источниками.

 

Предположим, что источники X и У

независимы. Для не­

зависимых источников вероятности состояний одного источника не зависят от того, в каком состоянии находится другой источник.

Пусть источник X

характеризуется табл. 5 .1 ,

а источник У

- табл. 5 .2 ,

где

^

есть вероятность состояния ß

 

 

 

Таблица

 

б .І

,

Таблица

5 .2

Хі,

Xi

Xx • • •

РЛ

ь

& • * • Ѵѣ

Pi

Pt

Ръ

« • «

J L L

• »

-

Вероятность произведения

состояний для независимых

источ­

ников равна

произведению вероятностей этих состояний:

 

 

 

 

ІѴ=АѴ

 

 

(SM

 

 

 

 

 

 

 

 

P (X Y hP iX )P {Y ) .

 

(SS)

 

Подставив

(5.5)

 

в (5 .S ), получим

 

 

Н(ХykM j-fy[m )P(Y)]J=r{-tofi)(K )]+M [- & уР (у/

Используя выражение для энтропии дискретного источника в виде (4.23), имеем

//(ХУ)=н(хІ+н(г). (S6)

Полученный результат может быть обобщен для объединений, составленных из произвольного числи независимых источников:

24

н(х у zw... )=н(х)+н(у)+н(г)+h (w)+...

ш)

Энтропия объединения независимых источников равна сумме энтропий источников, входящих в объединение.

§ 6 . Энтропия объединения зависимых источников Условная энтропия

Рассмотрим объединение двух зависимых дискретных источни­

ков информации X

и У , Источники называются зависимыми,ког­

да вероятности состояний одного источника зависят от того, в

каком состоянии находится другой источник.

Вычислим энтропию объединения зависимых источников. Веро­

ятность состояния

объединения Р (Х У) в этом случае равна

произведению вероятности первого источника на условную вероят­

ность

второго. Принимая, например, ъ качестве первого источник

X

, имеем

 

 

Р(Х У)=Р(Х)Р( Y/X),

 

 

 

(6.1)

где Р(У/Х)~

условная вероятность источника

У

,

вычисляемая

 

 

при известных состояниях

источника

X .

Подставив

(6.1) в выранение для

энтропии объединения

(5 .3 ), получим

 

 

 

 

 

Первое слагаемое в правой части согласно

(4.23)

представля­

ет собой энтропию первого источника:

 

 

 

 

 

 

Н{Х)=м[- £о$Р(Х)].

 

 

(65)

Рассмотрим второе слагаемое выражения (6 .2 ) .

Условная ве­

роятность Р(У/Х)рассматривается здесь

как случайная величина.

Случайными

являются состояния

 

),

для

которых

вычисляется

вероятность и условия ( Xf ,X z ...

x ^ ,

), при ко­

торых эти вероятности вычисляются. Каждое конкретное значение - появляется с вероятностью, равной вероятно -

сти произведения , т .е . одновременного появления как

25

Y- , так и X - X c . Поэтому математическое ожидание необходимо определить следующим образом:

 

 

 

м[-& уР(У/Х)/=-£1 Р¥ ео$р(у./хс) ,

 

 

(ел)

 

Для конкретных значений

Х - х ^

и

У~у#

согласно

(6.1)

имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя

(6 .5)

в (6 .4 ),

получим

 

 

 

 

 

 

 

м[-&уР(У/х)]=£рс[-1 Р^Ю & уРІЪ/Хі)].

 

 

(6-6)

Выражение

в квадратных

скобках

 

 

 

 

 

 

 

 

 

 

 

 

H (Y/xl)=- Z p fa /x J Coypfa/xc) t

 

 

(е.г)

согласно (4 .1 8 ),есть энтропия

источника

У .

В

это

выражение

вместо

априорных

вероятностей

источника

У

входят

условные

вероятности P (y J

,

которые

необходимо

использовать,ког­

да

нам

известно,

что источник

X

находится

в

состоянии

х с .

Поэтому энтропия

Н (У /хс)

называется

частной

условной

энтропи­

ей источника. Это мера неопределенности источника

У

,

кото­

рая остается, когда нам известно,

что

зависимый

от

У

источник

X

находится

в

состоянии

 

 

.

Частная условная

энтропия ис­

точника

У

ость

величина, которая может изменяться

в зависимо­

сти

от

состояния

источника

X

 

. Вычислим среднее значение вели­

чин Н(У/хс )

,

которое обозначим чере > И(Y /X )

. Осредняя

по

всем

состояниям источника

X

,

получим

 

 

 

 

 

 

 

 

 

 

H(Y/X)=lpc Ы г М .

 

 

 

 

(6.8)

Величина Н(У/Х)

называется

условной

энтропией

источника У .

Используя

(6 .6 ),

(6.7)

и (6 .8 ),

имеем

 

 

 

 

 

 

 

 

 

 

 

 

H (Y/X htl[-eoyP (Y/X )J

 

 

 

 

(в-9)

 

Таким образом, неопределенность источника может измеряться

двумя видами энтропий:

обычной

Н(У)

и

условной Н(У/Х),

26

Энтропия H(Y) есть мера неопределенности в тон случае, когда известны только статистические характеристики источника, рассматриваеного изолированно от других источников.Условная энт­

ропия Н(У/Х)

есть нера неопределенности, которая остается у

источника

У ,

когда

становятся известными состояния

некоторо­

го другого

источника

X .

источника X не монет увеличить

Информация о состоянии

неопределенности

источника

У . Поэтому предположим,

что

 

 

H(Y)?H(Y/X)

М

Предположение (6.10) будет доказано в § 14. Здесь покажем непротиворечивость предположения для двух крайних случаев. Пусть источники JC и У жестко связаны между собой. Информация о состоянии одного источника точно указывает и на состояние дру­ гого источника. Тогда условная энтропия равна нулю, так как ни­ какой неопределенности не остается:

H(Y/X)=0<H(Y).

Если источники независимы, то информация о состоянии одного ис­ точника не может уменьшить неопределенности другого. В этом случае имеем

H(Y/x) = H(Y).

Подставляя (6 .3) и (6 .9) в (6 .2 ), подучаем выражение для энтропии объединения зависимых источников

H[XY)=H(X) +H(Y/X).

(&н)

Заметим, что выбрав

в качестве первого источник У

, мы полу­

чили бы результат в

следующем виде:

 

H(XY) =Н(У) + Н (Х /У ).

Энтропия объединения зависимых источников равна сумме энт­ ропии одного источника и условной энтропии другого источника.

Для независимых систем H(Y/X)~H(Y) и получаем доказан­ ный в § 5 результат:

h(x y )--h (x )+h [y ).

27

Учитывая предположение (6.10), в общей случае имеем

HIXY)±H(X) +H(Y).

 

(&ö)

Энтропия объединения иаксѵшальна, когда входящие в нее ис­

точники независимы.

Х , , Х х .. Л«

 

Для произвольного числа источников

.вхо­

дящих в объединение, обобщая результат

(6 .I I ) , получим

 

H(xtx„. .x^ ufxj+ H fxjxj+

 

+Н(ХЛ/Х,Х,)+... +н(Хк/Х <Хх . .. Х н<).

I M

Необходимо учитывать сложность как вычислительной работы, так и подготовки статистического материала для определения выражения (6 .14). Условные плотности вероятности, начиная с трехмерных

P(X3j X 1Хл), получены лишь для ограниченного числа случаев.

§7. Энтропия случайной последовательности

Впредыдущих параграфах рассматривались дискретные источни­ ки информации, которые не меняли своих состояний. Эти источники находятся в каком-то одном состоянии, и после приема сообщения, указывающего на это состояние, неопределенность источника стано­ вится равной нулю. Больше от этого источника передавать сообще­ ния не нужно.

Более общий и чаще встречающийся случай дискретных источни­ ков - это источники, которые меняют свои состояния с течением времени. Меняет свои параметры самолет в полете. Меняют свои па­ раметры контролируемые детали на конвейере, хотя каждая конкрет­ ная выпущсмна-я деталь параметров не меняет. Меняет свои парамет­ ры и такой источник информации, как телеграфное сообщение: после

передачи

первой

буквы будет п ерѳдаваться другая;

В начальный момент времени источник находится в состоянии

Х ° ,

которое

представляет

собой

одно из п возможных состоя­

ний (

 

. г OZ

).

Затем

в некоторый момент времени

і>і источник меняет свое состояние и переходит в состояние Х \ которое также является одним из гь возможных состояний ( ЭС1 ,

28

Соседние файлы в папке книги из ГПНТБ