Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации

.pdf
Скачиваний:
10
Добавлен:
19.10.2023
Размер:
6.15 Mб
Скачать

ется, скупой хочет включить фальшивую монету в сумму долга, но, к сожалению, не может ее распознать. Какое наименьшее число взвешиваний на рычажных весах без гирь должен произвести скупой, чтобы обнаружить фаль­ шивую монету?

Р е ш е н и е . .Каждая из .12 монет, взятая наугад, мо­ жет оказаться фальшивой. Поэтому количество инфор­ мации от сообщения «взятая наугад монета фальшивая»

Л = — log log 12 = 3,58 (бит).

Так как произвольное взвешивание имеет три равноверо­ ятных исхода (перевесила правая чашка, перевесила ле­ вая чашка, чашки весов остались в равновесии), коли­ чество информации от такого взвешивания

h = — lo g ^ -= lo g 3 =

1,58 (бит).

Следовательно, минимальное число взвешиваний равно

целой части

 

■[^1/^2] =.[2.3]

1 = 3.

Каким же образом «отнять» у фальшивой монеты .за­ пасенную в ней информацию о своем отличии от других монет? Очевидно, необходимо так организовать взвеши­

вание, чтобы всякий раз получать

в результате опыта

1,58

бит:

разбить 12монет на три равновероятные под­

группы

(по 4

штуки в каждой), сравнить веса любых

двух

подгрупп,

взять более легкую

подгруппу и снова

разбить ее на три подгруппы (1 + 14-2), снова сравнить веса первых двух подгрупп (по одной монете); если чаш­ ки весов остались в равновесии, взять оставшуюся под­ группу, содержащую 2 монеты, и сравнить их веса. Та­ ким образом, последнее, третье взвешивание однозначно

определит

фальшивую

монету.

исхода Х\, Х2, х3 с соот­

Задача 4. Опыт X имеет три

ветственными

вероятностями:

Р(х\) =

0,2,

Р(х2) = 0,5,

Р(хЗ)= 0 ,3 .

Найти точные и средние количества инфор­

мации, несомые исходами

х\, х2, х3.

 

 

Р е ш е н и е . Точные количества информации, несомые

исходами Х[,

х% х3, равны:

 

 

 

І(х\) =

— log

Р(х\) =

— log 0,2 =

2,32

(бит);

І(х2) =

— log Р(х2)

=

— log 0,5 =

1,00

(бит);

I(x3) =

-

log

P(x3)

=

- log 0,3 =

1,74

(бит). .

10

Так как числа І(х\) = 2,32; І(х2) = 1; І(х3) = 1,74 появ­ ляются с соответственными вероятностями 0,2; 0,5; 0,3, среднее количество информации

2,32*0,2+1 • 0,5+ 4,74 -0,3= 1,49 (бит).

После усреднения количество информации, несомое исхо­ дом X], стало равным 1,49 бит, исходом х2 1,49 бит, исхо­ дом Xz 1,49 бит. Иными словами, операцией усреднения мы уничтожили индивидуальное различие исходов по их информативности.

FP)

0,5-

I

г

о

4 ^

Рис. 1

Задача 5. В условиях предыдущей задачи вычислить дисперсию случайной величины / = —Іоg P ( x i ) и по­ строить функцию распределения.

Р е ш е н и е : По определению дисперсии

 

D[I] =

І

В Д -

< І(хд > } 2Р(Х;) =

 

 

*=1

 

 

 

=

(2,32 — 1,49)2 *0,2 +

(1 — 1,49)2-0,5 +

 

+

(1,74— 1,49)2-0,3 = 0,277.

Таким образом,

случайная

величина 1(хі) отклоняется

от своего

среднего

< С І ( х і ) ^ >

в среднеквадратичном на

величину

а7 = \/D[I] = 0,525 .

Так как случайная вели­

чина 1(х{) = — log Р(х-і) дискретна, ее распределением вероятностей является интегральная функция распреде­ ления F (I) (рис. 1).

Очевидно., что:

F= 0 для

1;

/7= 0 ,5 для 1</<Л ,74;

П

F =

0,8

для

l,7 4 < /< 2 ,3 2 ;

.

F =

1,0

для

/>'2,32.

 

Задача 6. Пусть некоторый опыт имеет два возмож­ ных исхода Х\ и х2 с вероятностями появления Р(х\) —0Л II Р(х2) = 0,9. Производится большое число N независи­ мых опытов. Найти среднее количество информации,' при­ ходящееся на один исход опыта.

Р е ш е н и е. Обозначим конкретную последователь­ ность исходов, получаемую в результате N опытов, бук­ вой с. Тогда при достаточно большом N, согласно теоре­ ме Бернулли, вероятности исходов можно определить по формулам:

Р(XI) = «1 W, Р(Хг) = «2;N,

где п\ и по соответственно число исходов х\ и х2 в после­

довательности с.

 

вероятность последова­

Ввиду независимости опытов

тельности с по

теореме умножения

■Р(с) = Р(х1)

-Р{х1) ... Р{Х\)- Р{Хо)Р{хг) ... Р(хг) =

------------ —------------^-------------.-------------"

 

раз

па раз

Отсюда видно, что вероятность конкретной последова­ тельности не зависит от ее вида, а зависит только от ве­ роятности исходов х.\ и х2 и N. Поэтому всевозможные по­ следовательности с могут рассматриваться как равнове­ роятные и число их будет п = \/[Р(с)].

В этом случае для определения количества информа­ ции, несомого последовательностью с, можно воспользо­ ваться формулой (1.2):

. /д,

= Jog« = — lo g Р(с) = log ([Я(Л.-1)]Л/5(Г,) [Р(х2)\АР{х,) } =

= — N[P(xt) log Р(хі) + Р{хг) log Р(х2)]>

 

где через ІіУ обозначено

 

количество

информации,

несо­

мое N исходами опыта. А количество

информации,

при-

. ходящееся на один исход,

в N раз меньше:

 

 

 

2

 

 

/ =

-

2 Я(л7) log Р(х,).

 

 

 

/=*1

 

 

Подставив сюда Р(х\) — 0,1 и Р(Хч)^ 0,9, получим

/ = —0,1 log 0,1—0,9 log 0,9 = 0,469 (бит)..

12

Задача 7. Показать, что при равной вероятности исхо­ дов опыта количество информации, определяемое форму­ лой (1.2), является неслучайной величиной.

Формула (1.2а) при равной вероятности исходов опы­ та примет вид

п

< і (хі) >

=

l og4 " * - іо£ ~7г= lo g п =*7>

 

/«= 1

 

т. е. 1 не случайно, так как оно оказалось равным неслу­ чайной величине < / ( * / ) > .

В заключение заметим, что мера количества инфор­ мации в виде (1.2) была впервые предложена в 1928 г. американским инженером Р. Хартли. Ясно, что формула- p. Хартли относится к весьма частному случаю, когда по­ сле опыта неопределенности в исходе опыта нет и все ис­ ходы равновероятны. Однако заслуга Р. Хартли велика, ибо введенная им мера применима к информации любоговида и содержания и, что наиболее ценно, объективна и независима от психологических, факторов, так как опре­ деляется через объективно существующую статистику со­ бытий.

»

§ 2. Энтропия и ее свойства

 

Если после опыта остается

некоторая неопределен­

ность. исхода, то формула

 

Н(Х) = - S Р(х{) log Р(х,)

(■! Л

і= {

 

уже не выражает среднее количество информации, несо­ мое одним исходом опыта. Однако величина Н(Х) сохра­ няет за собой другой, фундаментальный для теории ин­ формации смысл (см. § 1), а именно: Н (X) выражает среднее количество неопределенности до опыта в наступ­ лении того или иного исхода и называется энтропией.

Рассмотрим основные свойства энтропии.

\.. Н(Х)'^> 0, причем знак равенства имеет место только в том случае, когда- у опыта имеется один-единст- венный исход с вероятностью «единица».

Положительность Н(Х) видна из (1.7): вероятности положительны и заключены между нулем и единицей, ло­ гарифмы таких чисел отрицательны, а равенство нулю

13;

возможно только для такого опыта, у которого один ис­ ход достоверен, а остальные равны нулю. Например:

Х и Х^>

Х ^

Хп

О1 О о ...о

 

Тогда

его энтропия

 

 

 

 

 

 

Н(Х)

0 -log 0 + 1 - log 1

+

•••

+ 0 - log0 = О,

так

как log 1 = 0, . а

 

 

 

іоg

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

lim [— P[xt) log P (л’/)] =

lim

Ң*д

 

 

 

 

 

 

 

 

 

Ң*д

 

 

= lim —— - - = lim -

} л

— О,

 

 

 

а-*-

K-J- оо а ІП2

 

 

где

а = 1 IP(xt).

 

 

 

 

 

 

Равенство нулю Н(Х)

заложено

нами в постулате 2

'§ I-

2.При заданном п энтропия максимальна и равна

log п, когда все исходы, составляющие опыт, равноверо­

ятны.

{

Д о к а з а т е л ь с т в о . Необходимо найти максимум

функции

п

Н( РЬ.Р2,

.... Рп) = - 2 P , i o g P i

/=1

а

при одном, очевидном, дополнительном условии

/=1

=1. Для этого * составим функцию

 

Рп) = Н { Р ѵ Рг%

PJ + X (£ p t- - l ) ,

где

X— неопределенный

множитель Лагранжа,

и при­

равняем к нулю частные

производные

Ф (Р ь Ръ

Р„)

по

Рі :

 

 

 

 

 

-ЗБГ lH(Pu Р*’ - - W ( i

P i -

D] = 0.

(1.8)

 

 

i=\

 

 

 

Подставляя в последнее равенство значение энтропии н выполняя дифференцирование, получаем

(ln Pi + 1) + X= 0,

* См. В. И. С м и р н о в. Курс высшей математики, т. 1. М., 1967г

14

■откуда P,- = exp(Xln2— 1). Чтобы найти неопределен­ ный множитель Лагранжа, подставим найденное зиаче--

мне Р/ в

дополнительное условие:

 

П

2 exp (Xln 2— 1) = дехр

(Xln 2— 1) = 1,

Ъ Р і

откуда exp

(X In 2— 1) = 1 jti = Р£.

Дифференцируя второй раз левую

чаем, что

п

да

Я + Х ( У і Р і - 1

дР]

/ - 1

часть (1.8), заме-

1

Pi ln 2 < 0 ,

а это есть необходимое условие того,

чтобы

значения

Р ,= Г/д доставляли максимум функции И ( Р ь Р2,

Рп).

Подставим найденные Р /= 1/д, і = 1 ,

2,..., /г

в

(1.7):

п

 

 

 

а д “ - 2/=і4 - 1ог 4 - = 1ог я.

 

 

что и требовалось доказать.

согласуется

с на­

Полученный результат прекрасно

шей интуицией. В самом деле, если вероятности некото­ рых событий одинаковы, неопределенность столь велика, что мы совершенно отказываемся от их прогнозирования, в отличие от случая, когда вероятности событий резко отличаются.

3. Прежде чем сформулировать третье свойство, вве­ дем более сложный опыт, объединяющий два следующих опыта:

X __ (X1

••• Х/і \

у = ( У*-

У2

••• Ут ).

№ )

Р{х%) . . Р(хп) г

[р(уі)

Р Ы

... Р(ут)І

Будем рассматривать все возможные совместные ис­ ходы х£ и у/. Пары (х/, у/) с вероятностями их появле­ ния порождают некоторый новый опыт (X, Y), который схематично может быть записан в виде табл. 1:

 

 

 

 

 

 

 

Т а б л и ц а 1

N.

X-

 

Д'а

 

9 9 9

*п

 

 

 

 

 

У\

 

Р(ХI, Уі)

1

У\)

Р(х3. Ух)

. . .

Р(.Ха, Ух)

* 9

 

1 • • • *

1

• • ■•

9 9 9 9

 

9 9 9 9

Ут

 

Ң*1. Ут)

 

Р(х2. Ут)

1 Р(х3. Ут)

• • •'

1 Р(Хп. Ут)

15

ч.

Полученный объединенный опытописывает более сложную физическую систему с пт возможными состоя­ ниями. Примером такого опыта может служить опыт с одновременным подбрасыванием двух игральных кос­ тей.

Энтропия произвольного опыта, согласно определению (1.7), есть взятая со знаком минус сумма произведе­ ний вероятностей сообщений, составляющих опыт, умно­ женная на логарифм этих вероятностей. Поэтому энтро­ пия опыта, заданного табл. 1:

 

ЩХ,

Y) =

П Ш

Уі) log Р(хі, Уі),

 

2

2

Р(Хі,

 

П

III

 

/=і

j =1

 

причем

 

 

=

1* т- e. какое-либо из событий

2

2

Р ( х і , У j)

(Х/. у})

/=і

y=i

 

в результате

опыта.

наступает

Таким образом,

энтропия Я (X, Y) дает среднюю не­

определенность до опыта в совместном наступлении лю­ бого из событий (xh yj) в опыте.

4. Н(Х,

Y) =H( Y, X).

 

 

= P( yj ,

 

Свойство 4 следует из того, что P( x it у/)

х,).

5. Я

(X,

У ) < Я ( , ¥ ) + Я

(У), причем знак равенства

имеет место лишь тогда, когда события х,-

и у }

при все­

возможных і и / независимы.

 

 

 

 

Д о к а з а т е л ь с т в о .

Предварительно докажем,

что

если P t

и

Q ,— произвольные

положительные

числа,

удовлетворяющие равенствам

 

 

 

 

 

 

2 Pi =

2 Q/ = l.

 

 

 

то

 

/=1

/=1

 

 

 

 

 

 

 

 

 

 

 

 

— '2 Ql log Ql <

— 2

Ql log Pi.

 

 

(1-9)

 

 

/=1

/=1

 

 

 

 

Очевидно, знак равенства в (1.9) выполняется, когда

P t = Q t. Установим,

при каких значениях Pt

функция

 

ф (Ри Рг........Рг) =

— Ѣ Qi log Pi

(1.10)

(Qi рассматриваем

 

 

/=1*

 

как параметры) имеет минимальное

значение.

Используя

способ

множителей Лагранжа (см.

сноску на

стр.

14),

найдем

PL из уравнений:

дФ __ _д_

 

 

....

+ 4 2 ^ - 1

о

ф (Ри

 

дРі

дРі

 

 

/«=1

 

іб

Подставляя сюда значение Ф из (1.10) и выполняя дифференцирование, получаем

р _

Qi

1

Xln 2 e '

Просуммируем обе части последнего равенства по I:

/=1

XIn 2 2

^-

 

1=1

 

 

г

г

Qi ^ Ь ’то X In 2 — 1

Так как по условию 2 Рі =

2

 

/=і

/=

1

и, значит, Pi = Q,. Легко видеть, что вторая производная функции Ф ь Л2, Рг) положительна. Поэтому Р, = = Q; ( / = 1 , 2,..., г)доставляют минимум функции Ф(Р\,Р% •••, Яг ). Следовательно, в остальных случаях,

когда Рі Ф Q/,

правая часть

(1.9)

больше левой.

Теперь умножим

энтропии

Н (X) и Н (Y)

соответст­

венно-на единицы вида

 

 

 

 

 

 

#/1

 

 

 

 

п

 

И

III

 

 

 

1 = 2

р Ш*і) =

2

pte/*/y) =

S' 2

p w>

Уі)-

j= 1

 

 

 

/ = 1

 

 

/~1 У=1

 

 

 

Получим:

 

 

пи

іит

 

 

 

 

 

 

Н{Х) =

 

р (хі) р (У,!а) log P(xi) =

 

-

2

2

■'•

 

 

 

1=1

/= 1

 

 

 

 

 

 

 

;i

m

 

 

 

 

 

 

 

= - 2

 

2 % й ) і о № ; ' '

i :-

( U i )

 

 

/=i

y-i

.

 

 

 

• ••

 

 

 

n

 

m

 

 

 

 

 

•я(К) =

-

2i=i2j= 1р (Уі) р Ы уі) l°s р (Уі) =

 

 

 

п

т

,

 

 

 

 

 

 

= — 2

 

2

 

0/) !°g p (W)-

 

 

( 1• 12)

 

 

/=1 у=1

 

 

 

 

 

 

Складывая

(1.11)

и

(1.12), получаем

 

 

 

 

 

 

 

 

п

т

 

 

 

 

 

Н Щ + H(Y) = - 2 2 р (х'-’ Уі) lQg р (х <) р (Уі)-

/=1 у=1

Положим

г=тп, Qi = P{xi\ у,),

Р[ = Р(Хі) P(yj).

 

Тогда

 

 

 

 

 

ЩХ, Y) =

2 Qi lo g Qr, Н ( Х І ± Ш І =

- Ш

Ы рр

 

/ = 1

 

./-1

 

 

2 За к. 2340.

 

 

•Vi. .

t-

;i7

 

 

 

 

 

i

( '' TT• Г*!

r /N~s

 

и

 

 

АЛА

 

 

 

 

 

Сравнивая эти равенства с (1.9), заключаем:

Н (X, У)4>Н ( X ) + H ( Y ) ,

что и доказывает свойство

4.

 

 

6. Я (X, Y) = Я (X) + Н (Y/X).

п

т

 

 

Д о к а з а т е л ь с т в о . Н(Х, Y) — — ѵ V р (х(-, у,) X

 

 

/ = і ; = і

п

'

т

Р(у,-!Хі)

X log Р(Хі, у,) = — V Р(х,) log Р(Х[) V

'=>

 

;=>

 

П til

 

 

 

- 2 2 р (Л'ь У]) lo g р (Уі*і) = Н(х ) + Н(У:Х), где мы

і м у - 1

ввели обозначение для величины

Я ( В Д

п

т

(1.13)

s

уу) log я О/,-/*/.),

 

/-1

У=1

 

имеющей фундаментальное значение для теории инфор­

мации. Ее называют у с л о в н о й э н т р о п и е й

о п ы ­

та Y. H(Y/X) дает

среднюю неопределенность исхода лю­

бого из событий у j (7 = 1,

ш) при любом известном ис­

ходе

события X;

(7= 1, ....

п).

 

7.

H(Y/X) > 0 .

 

 

Положительность условной энтропии очевидна,

а ра­

венство нулю возможно лишь тогда, когда события хі и

yj статистически полностью зависимы, т.

е.

РІУііхі) =

і ф і .

(U 4 )

0,

 

В самом деле, если известен исход события xh то, со­

гласно (1.14), с вероятностью

«единица»

известен и ис­

ход события y j . Другими словами, зная исход события Хі, мы не имеем неопределенности в исходе события yj .

Подставив

(1.14) в (1.13), получим Н (Y/X)

= 0 .

В, Если

события Хі

и yj

статистически

независимы

при любых і и /, то H'(Y/X)

=

H(Y).

 

Условием статистической независимости событий хі и

Уі является

 

 

 

 

 

Р(У]\Ч)

= P(ilj)

=

1,

.... п; j = 1, ...,

т). . (1.15)

18

Подставив (1.15) в (1.13), получим

ЩѴ/Х) = -

п

т

Р(Уі:Хі) іоgPüi.’xi) =

V Р(Хі) V

 

/= 1

y-1

m

M

«

 

*= — 2 а д log а д 2 а

д

= - 2 а д io g P (y ,)= //(n .

y=l

/=1

 

/=1

Свойство 8 достаточно

очевидно и без доказательст­

ва. В самом деле,

зная исход хі} мы не получаем никакой

информации о ijj, если х х и уу* независимы, т. е. средняя неопределенность в исходе у/ остается равной Н (Y), знаем ли мы об исходе л:/ или нет. Однако если события X/ и у j статистически зависимы, то, зная исход xt-, мы по­ лучаем некоторую информацию о том или ином возмож­ ном исходе события у/ и неопределенность Н (YIX)r уменьшается по сравнению с # (Т ). Последнее замеча­ ние сформулируем в виде свойства 9.

9. Если события Хі и у/ статистически зависимы, то всегда Н (Y/Х) < Н {Y).

Требуемое неравенство вытекает из свойства 5 при ис­ пользовании свойства 6.

Как мы видели, описанные свойства энтропии хорошо согласуются с интуитивными требованиями, которые можно предъявить к количественной мере неопределен­ ности. Это не случайно, ибо эти интуитивные представле­ ния были заложены нами в постулатах § 1.

Задача 1. Даны две дискретные случайные величины

ѵ =

/0Л

0,2

0,3\

у

/10

20

30 \

 

\1/3

1/3

1/3/’

 

Д 1/3

1/3

і/зу*

Энтропия какой случайной величины больше?

 

От в е т :

Н(Х) =

H(Y) — log

3, так как энтропия не

зависит от значений, принимаемых случайными величи­ нами, а. зависит только от вероятностей их появления.

Задача 2. Располагая в виде табл. 2 совместные ве­ роятности сообщений х і опыта X и у/опыта У, рассчи­

тать точные и среднее количества неопределенности в совместном наступлении событий х£ и у/, а также точ­ ные и среднее количества неопределенности в у j при из­ вестном исходе х і .

Точные количества неопределенности в совместном наступлении событий х£ и у/ находятся по формуле

И (Х1. У і ) = — \ogP(xi, іи).

19

Соседние файлы в папке книги из ГПНТБ