Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации

.pdf
Скачиваний:
10
Добавлен:
19.10.2023
Размер:
6.15 Mб
Скачать
где у =

и

Нг (X/Y) =

Гw(x, ГУ) log w(x/y) dxdy — log s

 

 

_CO _oo ,

 

в (*), получим

 

 

 

1(X ,

Y) — — . f ^(л:) log w(x) dx — log в -f-

 

 

 

 

• *

 

 

 

 

_co

 

+

j

j w(x,

y) log w (x/y) dxdy + log e=•

__00

__0 0

 

 

 

 

 

1'

w(x,

y) loO" W (x, y)

dxdy,

 

 

___CO

 

w(x) w(y)

 

что и требовалось доказать.

Результат этой задачи показывает, что в отличие от относительной энтропии количество информации, содер­ жащееся в одной случайной величине X о другой У, но­

сит абсолютный характер.

 

 

 

Задача 7. Определить

количество

информации

І(Х, Y) для системы (X, У) гауссовских случайных

величин

 

 

 

w(x,

1

/ *2

ху , Л у

2(1 -

г) 1 в2

Gy /J 1

 

_ у> — коэффициент корреляции случай

У <х2> < у 2>

пых величии X и У.

От в е т : 1{Х, Y)' — — log \/і — у .

§ 5. Определение плотности вероятности, доставляющей максимум относительной энтропии

Найдем вид функции w(x), обеспечивающей макси­ мум функционалу

Н (X) — — I w (х) logw(x)dx

__со

при заданной дисперсии случайной величины X, т. е.

а2г = j x2w(x) dx = const,

(1.31)

40

и очевидном

условии

 

 

 

 

 

 

 

 

 

 

 

 

 

оа

 

 

 

 

 

 

 

 

 

 

 

 

 

к\) w(x) dx

=

1.

 

 

 

(1.32)

 

 

 

 

 

 

 

_оо

 

 

 

 

 

 

 

Согласно

изопериметрическоп

задаче

вариационного

исчисле11ия*, составим фуикцию

 

 

 

 

 

Ф [і<у(,ѵ)] =

w(x) logco(x) +

Хх x 2w(x) -j- Uw(x),

 

где

X*

и Х2— постоянные

неопределенные

множители

Лагранжа.

Искомая функция определяется из уравнения

Эйлера:

 

 

 

 

 

 

 

 

 

 

 

 

 

д Ф [^(л:)]

~

logöy(x)

 

ln 2

,2

 

 

 

 

діѵ(х)

 

 

Хх X

 

 

 

откуда

 

w{x) =

exp (XJ X2) exp (X' — 1),

 

 

(1.33)

 

 

 

 

 

где

X' = X/ ln 2

 

.

(/ = 1, 2) .

 

 

 

 

 

 

 

Найденная

плотность вероятности 'доставляет

энт­

ропии'

Нг

(X)

 

 

максимум,

 

так

как

д2Ф/д2ьи

(х) =

= — ІДфс) 1п2 <

0.

 

 

 

 

 

 

 

Подставив (1.33) в (1.31) и (1.32), определим значе­

ния иостояниыX

 

множ ителей:

 

 

 

 

 

 

exp (X'— 1)

 

 

 

 

 

 

И

окончательно

 

 

 

 

 

 

 

 

 

 

 

 

w(x) =

exp

 

 

(1.33а)

 

Таким образом, если,задана дисперсия случайной ве­

личины X, то максимальной неопределенностью обладает

гауссовское

 

пли

 

нормальное

распределение

вероятнос­

тей. Другими словами, при заданном среднеквадратиче­ ском разбросе та из случайных величин «ведет себя наи­

более хаотически»,

которая распределена по •закону

(1.33а).

Уместно здесь же сформулировать еще одну важную задачу, которая является частным случаем решенной. Предположим, что' имеется множество случайных вели­ чин со всевозможными законами распределения вероят­

* См. Л. Э. Э л ь с г о л ь ц . Дифференциальные уравнения и ва­ риационное исчисление. М., 1969.

41

ностей и с различными среднеквадратическими разбро­ сами относительно среднего, равного нулю. Какое рас­ пределение вероятностей обладает в этом случае наибольшей неопределенностью (наименьшей предска­ зуемостью) ?.

В точной постановке задача гласит: найти такую функцию w(x), которая доставляет максимум энтропии Н г (Х) при одном дополнительном условии (1.32), огра­ ничивающем возможный выбор функций w(x).

В этом случае

искомой плотностью вероятности бу­

дет функция (1.33), если в ней

положить

= 0, т. е.

w(x) =

exp (X' — 1) =

const.

(1-34)

Итак, если дисперсия случайной величины X не ограниче­ на, ее наблюдаемые значения обладают наибольшей ин­ формативностью, когда она им'еет равномерное распреде­ ление вероятностей (1.34).

Задача 1. Определить энтропию случайной величины, распределенной по экспоненциальному закону:

> 0).

Р е ш е н и е. Нв (X) = — j'

с е сх log

се сх d х = *

6

 

 

сю

00

сх dx =

= — с log с [ е~~сх dx +

с2log е [ хе

 

о

о

 

= — löge + loge = log

Задача 2. Показать, что при заданной энтропии гаус*

совское распределение вероятностей w(x) = —J=—-expf-—А-Л

у 2 г .п х

\ 2а vJ

имеет наименьшую из всех одномерных распределений дисперсию.

Р е ш е н и е . Чтобы найти функцию w(x), доставля­ ющую мимммум дисперсии

о2 — Г x 2w{x) dx

t/

_эо

при заданной энтропии

со

(1.35)

Я . = — Сw(x) ^ ш ( х ) dx

42

/

и

втором дополнительном

условии

 

 

 

 

 

 

 

00

 

 

 

 

(1.36)

 

 

 

 

і* w (х) dx — 1,

 

 

 

 

 

 

__со

 

 

 

 

 

необходимо

составить функцию

 

 

 

 

Ф [сУ(х),

А'] = x2w(x) )4 w(x) log ТУ(а) +

Х2ш(а)

и

из

уравнения

Эйлера

 

 

 

 

 

 

 

-? f . =

А2 — X, log ш(а ) —

+

Х2 =

О

 

 

дгѵ(х)

і

ь

V /

ln 2

*

 

найти

искомую

функцию

 

 

 

 

 

 

w(X) = exp (Х2 ln 2 — X,) exp / Л ^

2

(1.37)

 

Подставив найденную плотность вероятности (1.37) в

(1.35)

и (1.36),

найдем:

 

 

 

 

 

 

 

In 2 =

— тс ехр (2Н In 2 — 1)

 

(1.38)

и

 

exp (Х2 In 2 — Xj). =

\/ехр (2Нвln 2 — 1).

(1.39)

 

 

Наконец, подставим (й.38) и (1.39) в (1.37):

&у(а) = \/ exp (2 //с In 2 — 1) ехр [— тс ехр (2Н. In 2 — 1) а2] =

7 1 Т 7 Г е х р (_ 2«®

где

X Y 2тс ехр (2Н In 2—1)

Задача 3. Среди всех законов распределения непре­ рывной случайной величины X с плотностью вероятности, равной нулю для л'<0, найти при заданном математи­ ческом ожидании тх закон распределения с максималь­ ной энтропией.

От ве т : ш(л:) = ^ -е х р ^ —

х ^ О .

Задача 4. Вычислить относительную энтропию случай­ ной величины X, распределенной по гауссовскому за­ кону.

43

Р е ш е н и е . Подставим (1.31) в (1.26). Получим

со

dx -|-

+• 2 У 24V-. гСУ3 log ^

 

X“ ехр

 

 

= log \/2тс оЛ. -|-

Y

log е =

log \/2~ £ з ѵ.

(1.40)

Как видно, энтропия убывает с уменьшением дисперсии, что согласуется с нашей интуицией.

Задача 5. Имеется два источника флюктуирующего напряжения с одинаковой энтропией, но разными зако­ нами распределения вероятностей: первый — гауссовским законом, второй— равновероятным. Сравнить их мощ­ ности.

Р е ш е н и е . Как мы знаем, энтропия источника с га­ уссовским законом распределения вероятностей

/-/Е(Л') = log \/2пеаГі

а с

равновероятным

 

 

 

Ht(X) = log (b—a),

 

где

Ор — дисперсия

(мощность, выделяемая

на единич­

ном. сопротивлении)

напряжения первого

источника;

(Ь—а )— ширина интервала возможных напряжений вто­ рого источника.

По условию задачи, источники обладают одинаковой информативностью, т. е.

\/2тс 6 ог b’— а.

По определению, дисперсия для равновероятного распре­ деления

°і = (’ (* — < * » 2 w(x) dx =

00

= , u _ £ + ^ l

* . _ # — >■

b a

12

a

 

44

откуда b — и

2 \/З с р и, следовательно,

\/2~ е ог = 2 \/3 зр

или

Таким образом, при одинаковой информативности источ­ ников выгоднее использовать тот,'у которого гауссовское распределение вероятностей напряжений, ибо ом расхо­ дует при этом на 42% меньше мощности, чем источник с ■равновероятным распределением напряжений.

Задача 6. Плотность распределения .вероятностей случайной величины X неизвестна.. Произвести оценку от­ носительной энтропии в случаях: а) известно, что w(x) отлично от нуля в интервале шириной R; б) известна дис­ персия случайной величины X.

От в е т : а) H ( X ) ^ \ o g R ; 6 ) Н(Х) < log \/-2кео.

I

Г Л А В А 2

ИСТОЧНИКИ ДИСКРЕТНЫХ СООБЩЕНИЙ

§ 1. Эргодические источники и их энтропия

Объект, состояние которого определяется физическим процессом, протекающем во времени по заранее не из­ вестному закону, назовем источником сообщений. Будем считать, что число возможных сообщений, вырабатывае­ мых источником, конечно, и обозначать их символами Х\, Х о , ..., хп. Чтобы определить среднее количество инфор­

мации, создаваемой дискретным источником на один сим­ вол или в единицу времени, необходимо прежде выяснить, какие вероятностные показатели могут характеризовать данный источник. Ясно, что одних вероятностен появле­ ния символов недостаточно, так как между символами ре­ альных источников имеется статистическая зависимость (буквопечатающее устройство текстов на русском язы­

ке— пример такого источника).

 

диск­

Достаточно хорошей математической моделью

ретных

источников,

встречающихся на

практике,

явля­

ются так называемые э р г о д и ч е с к и е

источники. На­

зовем

эргодическим

источником r-го порядка такой ис­

точник, у которого

вероятность

появления

некоторого»

символа Xj зависит только от г предыдущих,

т. е.

P { X j \

Х<2),

X j p ) =

 

= P(xj

I 4 й,

x f ...... xjfK xj;-'-1)).

 

Таким образом, в эргодическом источнике /*-го порядка распределение вероятностей выбора символов p(xt) не остается постоянным, а зависит от того, какими были по­ следние г символов сообщения. Эти последние г симво­ лов определяют некоторое состояние Sk источника (k = = 1, 2, ..., m). Число »всевозможных состояний источника /'-го порядка, имеющего п различных символов, очевидно, определится выражением т = п г.

46

ч

Эргодические последовательности символов обладают теміі же свойствами, что эргодические случайные функ­ ции: любая достаточно длинная (с большим числом сим­ волов) эргодическая последовательность с вероятностью, как угодно близкой к единице, является типичной. По­ следнее означает, что в этой последовательности содер­ жится вся информация о вероятностях отдельных симво­ лов и о вероятностных .связях между ними, присущих источнику. В качестве примера эргодических последова­ тельностей можно привести язык, так как почти -в любой книге (не узкоспециализированной) на данном языке частота отдельных букв и сочетаний разных букв одина­ кова, хотя смысловое содержание книг различно.

Соотношение

О Д

= - £ Р(х,) log Р(хі)

(2.1)

 

/= 1

 

не может быть

использовано для вычисления

энтропии

эргодического источника, так как при его получении не учитывались вероятностные связи между символами. Оно выражает энтропию источника, у которого символы хі вырабатываются независимо друг от друга.

Устанавливая энтропию эргодического • источника, предположим, что он работает длительное время и, вся­ кий раз, когда мы ждем появления очередного символа, нам известно, какие символы были выработаны ранее, и, следовательно, известно, в каком характерном состоянии находится источник.

Обозначим через P(Si) вероятность того, что источ­ ник находится в состоянии 5/, причем

т

 

2/> (& ) = !■

(2-2)

/=1

 

Предположим, мы установили, что источник находит­

ся в состоянии 5/. У нас имеется

неопределенность, из

какого состояния Sk источник, выработав некоторый сим­ вол, перешел в состояние 5 t. Так как вероятность состоя­ ния St зависит только от предыдущего состояния Sk и не зависит от того, в каких состояниях находился источник ранее (по определению состояния), неопределенность ис­ точника в состоянии S k можно найти по формуле, анало­ гичной (2.1):

H(Sk) = - 2 /> С З Д ) log Р (S/АЗД. .

1\к

47

Величина H (S k) случайно меняется в зависимости от состояния источника, поэтому только среднее значение li(Sfi) может характеризовать энтропию источника:

ч

т

 

ЩХ) - 2

p(s«)

) =

 

 

т

/:«=1

 

 

 

р (5 *) р ( З Д ) log PißiiSu) =

 

= - 2

2

 

k=ii/k

 

 

 

 

 

П1

 

Sk)\ogP(S,lSk),

 

=

2 2

P(5 "

(2.3)

 

£=1 l/k

 

 

 

где значок l/k у суммы означает, что производится сум­ мирование по всем переходам из состояния Sk b S^.

Задача 1. Сколько различных последовательностей, со­ держащих по 5 символов, можно составить из алфавита, содержащего два различных символа?

От в е т :

т — 25 = 32.

Задача 2,

Источник, используя алфавит из двух сим­

волов Х\ и ,ѵ2, вырабатывает последовательность хь х2>х% Хи Хо, хь Х2>Л'і ... Вероятностныесвязи в данной последова­

тельности имеют

место ‘между четырьмя символами.

Определить все возможные состояния

источника и по­

рядок их следования в данной последовательности.

Р е ш е н и е .

В условии задан эргодический источник

третьего порядка (г— 3). Поэтому число

различных со­

стояний источника равно 23= 8 . Выпишем их, нумеруя со­ стояния соответствующими индексами:

Х[Х{Х{— Sin

х {х2х2— Si 22

ХХХ\Х2— 3\}2

Х2Х\Х2— S212

Х\Х2Х\$121

Х2Х2Х1— S221

Х2Х\Х\— S2ii

Х2Х2Х2 S222

Чтобы установить, в каком состоянии находится источ ник, необходимо подождать, пока он выработает три сим вола. Поэтому в последовательности Х\Х2Х2Х\Х2Хі*2*і...

первым состоянием является <Si22. Затем источник после появления символа х\ переходит в состояние S22i и таг далее. Получается следующая последовательность состоя ний, проходимая источником:

’122

’221

• ••

48

Задача 3. Показать, что при отсутствии вероятностной связи между символами из формулы (2.3) следует фор­ мула (2.1).

Р е ш е н и е. Когда символы источника независимы, как следует из равенства

PiXj/xW, ..., *<'>) = P{Xj),

у источника имеется лишь одно состояние So, вероятность которого, на основании (2.2),

'P(So) = \.

(2.4)

Поэтому при появлении символа хс источник вновь воз­ вращается в состояние So, при этом

P(S0/S0) = P(xi).

(2.5)

Подставляя (2.4) и (2.5) в (2.2), получаем

# ( * ) = ■ - 2 Р (хі) log Р(хД *= ■

£=1 /=1

ъ в

= - 2 P(Xi) log P(Xi)„

1=1

так как число различных переходов из So в S0 равно чис­ лу различных символов источника.

Задача 4. Получить из (2.3) формулы для энтропии эргодического источника, когда вероятностные связи име­ ют место между: а) двумя ^символами; б) тремя; в) че­

тырьмя.

\

Р е ш е н и е .

В случае а), как следует из равенства

t

состояний (столько,

у источника имеется п характерных

сколько различных символов): S\— после появления сим­

вола Х\; S 2— после появления символа х2 и т.-д. Поэтому

вероятность состояния Sk

P(Sk) = P ( x k),

(2.6)

а вероятность перехода из состояния S k в St

P(S,/Sk) = Ңл:,/**).

(2.7)

4 З а к . 2340.

4 9

Соседние файлы в папке книги из ГПНТБ