книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации
.pdfется, скупой хочет включить фальшивую монету в сумму долга, но, к сожалению, не может ее распознать. Какое наименьшее число взвешиваний на рычажных весах без гирь должен произвести скупой, чтобы обнаружить фаль шивую монету?
Р е ш е н и е . .Каждая из .12 монет, взятая наугад, мо жет оказаться фальшивой. Поэтому количество инфор мации от сообщения «взятая наугад монета фальшивая»
Л = — log log 12 = 3,58 (бит).
Так как произвольное взвешивание имеет три равноверо ятных исхода (перевесила правая чашка, перевесила ле вая чашка, чашки весов остались в равновесии), коли чество информации от такого взвешивания
h = — lo g ^ -= lo g 3 = |
1,58 (бит). |
Следовательно, минимальное число взвешиваний равно |
|
целой части |
|
■[^1/^2] =.[2.3] |
1 = 3. |
Каким же образом «отнять» у фальшивой монеты .за пасенную в ней информацию о своем отличии от других монет? Очевидно, необходимо так организовать взвеши
вание, чтобы всякий раз получать |
в результате опыта |
|||
1,58 |
бит: |
разбить 12монет на три равновероятные под |
||
группы |
(по 4 |
штуки в каждой), сравнить веса любых |
||
двух |
подгрупп, |
взять более легкую |
подгруппу и снова |
разбить ее на три подгруппы (1 + 14-2), снова сравнить веса первых двух подгрупп (по одной монете); если чаш ки весов остались в равновесии, взять оставшуюся под группу, содержащую 2 монеты, и сравнить их веса. Та ким образом, последнее, третье взвешивание однозначно
определит |
фальшивую |
монету. |
исхода Х\, Х2, х3 с соот |
|||||
Задача 4. Опыт X имеет три |
||||||||
ветственными |
вероятностями: |
Р(х\) = |
0,2, |
Р(х2) = 0,5, |
||||
Р(хЗ)= 0 ,3 . |
Найти точные и средние количества инфор |
|||||||
мации, несомые исходами |
х\, х2, х3. |
|
|
|||||
Р е ш е н и е . Точные количества информации, несомые |
||||||||
исходами Х[, |
х% х3, равны: |
|
|
|
||||
І(х\) = |
— log |
Р(х\) = |
— log 0,2 = |
2,32 |
(бит); |
|||
І(х2) = |
— log Р(х2) |
= |
— log 0,5 = |
1,00 |
(бит); |
|||
I(x3) = |
- |
log |
P(x3) |
= |
- log 0,3 = |
1,74 |
(бит). . |
10
Так как числа І(х\) = 2,32; І(х2) = 1; І(х3) = 1,74 появ ляются с соответственными вероятностями 0,2; 0,5; 0,3, среднее количество информации
— 2,32*0,2+1 • 0,5+ 4,74 -0,3= 1,49 (бит).
После усреднения количество информации, несомое исхо дом X], стало равным 1,49 бит, исходом х2 1,49 бит, исхо дом Xz 1,49 бит. Иными словами, операцией усреднения мы уничтожили индивидуальное различие исходов по их информативности.
FP)
0,5-
I |
г |
о |
4 ^ |
Рис. 1
Задача 5. В условиях предыдущей задачи вычислить дисперсию случайной величины / = —Іоg P ( x i ) и по строить функцию распределения.
Р е ш е н и е : По определению дисперсии
|
D[I] = |
І |
В Д - |
< І(хд > } 2Р(Х;) = |
|
|
|
*=1 |
|
|
|
= |
(2,32 — 1,49)2 *0,2 + |
(1 — 1,49)2-0,5 + |
|||
|
+ |
(1,74— 1,49)2-0,3 = 0,277. |
|||
Таким образом, |
случайная |
величина 1(хі) отклоняется |
|||
от своего |
среднего |
< С І ( х і ) ^ > |
в среднеквадратичном на |
||
величину |
а7 = \/D[I] = 0,525 . |
Так как случайная вели |
чина 1(х{) = — log Р(х-і) дискретна, ее распределением вероятностей является интегральная функция распреде ления F (I) (рис. 1).
Очевидно., что:
F= 0 для |
1; |
/7= 0 ,5 для 1</<Л ,74;
П
F = |
0,8 |
для |
l,7 4 < /< 2 ,3 2 ; |
. |
F = |
1,0 |
для |
/>'2,32. |
|
Задача 6. Пусть некоторый опыт имеет два возмож ных исхода Х\ и х2 с вероятностями появления Р(х\) —0Л II Р(х2) = 0,9. Производится большое число N независи мых опытов. Найти среднее количество информации,' при ходящееся на один исход опыта.
Р е ш е н и е. Обозначим конкретную последователь ность исходов, получаемую в результате N опытов, бук вой с. Тогда при достаточно большом N, согласно теоре ме Бернулли, вероятности исходов можно определить по формулам:
Р(XI) = «1 W, Р(Хг) = «2;N,
где п\ и по соответственно число исходов х\ и х2 в после
довательности с. |
|
вероятность последова |
Ввиду независимости опытов |
||
тельности с по |
теореме умножения |
|
■Р(с) = Р(х1) |
-Р{х1) ... Р{Х\)- Р{Хо)Р{хг) ... Р(хг) = |
|
------------ —------------^-------------.-------------" |
||
|
раз |
па раз |
Отсюда видно, что вероятность конкретной последова тельности не зависит от ее вида, а зависит только от ве роятности исходов х.\ и х2 и N. Поэтому всевозможные по следовательности с могут рассматриваться как равнове роятные и число их будет п = \/[Р(с)].
В этом случае для определения количества информа ции, несомого последовательностью с, можно воспользо ваться формулой (1.2):
. /д,
= Jog« = — lo g Р(с) = log ([Я(Л.-1)]Л/5(Г,) [Р(х2)\АР{х,) } =
= — N[P(xt) log Р(хі) + Р{хг) log Р(х2)]> |
|
|||
где через ІіУ обозначено |
|
количество |
информации, |
несо |
мое N исходами опыта. А количество |
информации, |
при- |
||
. ходящееся на один исход, |
в N раз меньше: |
|
||
|
|
2 |
|
|
/ = |
- |
2 Я(л7) log Р(х,). |
|
|
|
|
/=*1 |
|
|
Подставив сюда Р(х\) — 0,1 и Р(Хч)^ 0,9, получим
/ = —0,1 log 0,1—0,9 log 0,9 = 0,469 (бит)..
12
Задача 7. Показать, что при равной вероятности исхо дов опыта количество информации, определяемое форму лой (1.2), является неслучайной величиной.
Формула (1.2а) при равной вероятности исходов опы та примет вид
п
< і (хі) > |
= |
l og4 " * - іо£ ~7г= lo g п =*7> |
|
/«= 1 |
|
т. е. 1 не случайно, так как оно оказалось равным неслу чайной величине < / ( * / ) > .
В заключение заметим, что мера количества инфор мации в виде (1.2) была впервые предложена в 1928 г. американским инженером Р. Хартли. Ясно, что формула- p. Хартли относится к весьма частному случаю, когда по сле опыта неопределенности в исходе опыта нет и все ис ходы равновероятны. Однако заслуга Р. Хартли велика, ибо введенная им мера применима к информации любоговида и содержания и, что наиболее ценно, объективна и независима от психологических, факторов, так как опре деляется через объективно существующую статистику со бытий.
• |
» |
§ 2. Энтропия и ее свойства |
|
Если после опыта остается |
некоторая неопределен |
ность. исхода, то формула |
|
Н(Х) = - S Р(х{) log Р(х,) |
(■! Л |
і= { |
|
уже не выражает среднее количество информации, несо мое одним исходом опыта. Однако величина Н(Х) сохра няет за собой другой, фундаментальный для теории ин формации смысл (см. § 1), а именно: Н (X) выражает среднее количество неопределенности до опыта в наступ лении того или иного исхода и называется энтропией.
Рассмотрим основные свойства энтропии.
\.. Н(Х)'^> 0, причем знак равенства имеет место только в том случае, когда- у опыта имеется один-единст- венный исход с вероятностью «единица».
Положительность Н(Х) видна из (1.7): вероятности положительны и заключены между нулем и единицей, ло гарифмы таких чисел отрицательны, а равенство нулю
13;
возможно только для такого опыта, у которого один ис ход достоверен, а остальные равны нулю. Например:
Х и Х^> |
Х ^ |
Хп |
О1 О о ...о
|
Тогда |
его энтропия |
|
|
|
|
|
|
Н(Х) |
— 0 -log 0 + 1 - log 1 |
+ |
••• |
+ 0 - log0 = О, |
||
так |
как log 1 = 0, . а |
|
|
|
іоg |
1 |
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
lim [— P[xt) log P (л’/)] = |
lim |
Ң*д |
||||
|
|
|
|||||
|
|
|
|
|
|
Ң*д |
|
|
|
= lim —— - - = lim - |
} л |
— О, |
|
||
|
|
а-*-9о |
K-J- оо а ІП2 |
|
|
||
где |
а = 1 IP(xt). |
|
|
|
|
|
|
|
Равенство нулю Н(Х) |
заложено |
нами в постулате 2 |
'§ I-
2.При заданном п энтропия максимальна и равна
log п, когда все исходы, составляющие опыт, равноверо
ятны. |
{ |
|
Д о к а з а т е л ь с т в о . Необходимо найти максимум |
||
функции |
п |
|
Н( РЬ.Р2, |
||
.... Рп) = - 2 P , i o g P i |
/=1
а
при одном, очевидном, дополнительном условии
/=1
=1. Для этого * составим функцию
|
Рп) = Н { Р ѵ Рг% |
PJ + X (£ p t- - l ) , |
|||
где |
X— неопределенный |
множитель Лагранжа, |
и при |
||
равняем к нулю частные |
производные |
Ф (Р ь Ръ |
Р„) |
||
по |
Рі : |
|
|
|
|
|
-ЗБГ lH(Pu Р*’ - - W ( i |
P i - |
D] = 0. |
(1.8) |
|
|
|
i=\ |
|
|
|
Подставляя в последнее равенство значение энтропии н выполняя дифференцирование, получаем
(ln Pi + 1) + X= 0,
* См. В. И. С м и р н о в. Курс высшей математики, т. 1. М., 1967г
14
■откуда P,- = exp(Xln2— 1). Чтобы найти неопределен ный множитель Лагранжа, подставим найденное зиаче--
мне Р/ в |
дополнительное условие: |
|
П |
2 exp (Xln 2— 1) = дехр |
(Xln 2— 1) = 1, |
Ъ Р і |
откуда exp |
(X In 2— 1) = 1 jti = Р£. |
|
Дифференцируя второй раз левую |
||
чаем, что |
п |
|
да |
||
Я + Х ( У і Р і - 1 |
||
дР] |
||
/ - 1 |
часть (1.8), заме-
1
Pi ln 2 < 0 ,
а это есть необходимое условие того, |
чтобы |
значения |
|
Р ,= Г/д доставляли максимум функции И ( Р ь Р2, |
Рп). |
||
Подставим найденные Р /= 1/д, і = 1 , |
2,..., /г |
в |
(1.7): |
п |
|
|
|
а д “ - 2/=і4 - 1ог 4 - = 1ог я. |
|
|
|
что и требовалось доказать. |
согласуется |
с на |
|
Полученный результат прекрасно |
шей интуицией. В самом деле, если вероятности некото рых событий одинаковы, неопределенность столь велика, что мы совершенно отказываемся от их прогнозирования, в отличие от случая, когда вероятности событий резко отличаются.
3. Прежде чем сформулировать третье свойство, вве дем более сложный опыт, объединяющий два следующих опыта:
X __ (X1 |
••• Х/і \ |
у = ( У*- |
У2 |
••• Ут ). |
№ ) |
Р{х%) . . Р(хп) г |
[р(уі) |
Р Ы |
... Р(ут)І |
Будем рассматривать все возможные совместные ис ходы х£ и у/. Пары (х/, у/) с вероятностями их появле ния порождают некоторый новый опыт (X, Y), который схематично может быть записан в виде табл. 1:
|
|
|
|
|
|
|
Т а б л и ц а 1 |
N. |
X- |
*і |
|
Д'а |
|
9 9 9 |
*п |
|
|
|
|
|
|||
У\ |
|
Р(ХI, Уі) |
1 |
У\) |
Р(х3. Ух) |
. . . |
Р(.Ха, Ух) |
• * 9 |
|
1 • • • * |
1 |
• • ■• |
9 9 9 9 |
|
9 9 9 9 |
Ут |
|
Ң*1. Ут) |
|
Р(х2. Ут) |
1 Р(х3. Ут) |
• • •' |
1 Р(Хп. Ут) |
15
ч.
Полученный объединенный опытописывает более сложную физическую систему с пт возможными состоя ниями. Примером такого опыта может служить опыт с одновременным подбрасыванием двух игральных кос тей.
Энтропия произвольного опыта, согласно определению (1.7), есть взятая со знаком минус сумма произведе ний вероятностей сообщений, составляющих опыт, умно женная на логарифм этих вероятностей. Поэтому энтро пия опыта, заданного табл. 1:
|
ЩХ, |
Y) = |
П Ш |
Уі) log Р(хі, Уі), |
|||
|
— 2 |
2 |
Р(Хі, |
||||
|
П |
III |
|
/=і |
j =1 |
|
|
причем |
|
|
= |
1* т- e. какое-либо из событий |
|||
2 |
2 |
Р ( х і , У j) |
|||||
(Х/. у}) |
/=і |
y=i |
|
в результате |
опыта. |
||
наступает |
|||||||
Таким образом, |
энтропия Я (X, Y) дает среднюю не |
определенность до опыта в совместном наступлении лю бого из событий (xh yj) в опыте.
4. Н(Х, |
Y) =H( Y, X). |
|
|
= P( yj , |
|
||
Свойство 4 следует из того, что P( x it у/) |
х,). |
||||||
5. Я |
(X, |
У ) < Я ( , ¥ ) + Я |
(У), причем знак равенства |
||||
имеет место лишь тогда, когда события х,- |
и у } |
при все |
|||||
возможных і и / независимы. |
|
|
|
|
|||
Д о к а з а т е л ь с т в о . |
Предварительно докажем, |
что |
|||||
если P t |
и |
Q ,— произвольные |
положительные |
числа, |
|||
удовлетворяющие равенствам |
|
|
|
|
|||
|
|
2 Pi = |
2 Q/ = l. |
|
|
|
|
то |
|
/=1 |
/=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
— '2 Ql log Ql < |
— 2 |
Ql log Pi. |
|
|
(1-9) |
|
|
|
/=1 |
/=1 |
|
|
|
|
Очевидно, знак равенства в (1.9) выполняется, когда
P t = Q t. Установим, |
при каких значениях Pt |
функция |
||||
|
ф (Ри Рг........Рг) = |
— Ѣ Qi log Pi |
(1.10) |
|||
(Qi рассматриваем |
|
|
/=1* |
|
||
как параметры) имеет минимальное |
||||||
значение. |
Используя |
способ |
множителей Лагранжа (см. |
|||
сноску на |
стр. |
14), |
найдем |
PL из уравнений: |
||
дФ __ _д_ |
|
|
.... |
+ 4 2 ^ - 1 |
о |
|
ф (Ри |
|
|||||
дРі |
дРі |
|
||||
|
/«=1 |
|
іб
Подставляя сюда значение Ф из (1.10) и выполняя дифференцирование, получаем
р _ |
Qi |
1 |
Xln 2 e ' |
Просуммируем обе части последнего равенства по I:
/=1 |
XIn 2 ‘ 2 |
^- |
|
|
1=1 |
|
|
|
г |
г |
Qi ^ Ь ’то X In 2 — 1 |
Так как по условию 2 Рі = |
2 |
||
|
/=і |
/= |
1 |
и, значит, Pi = Q,. Легко видеть, что вторая производная функции Ф (Рь Л2, Рг) положительна. Поэтому Р, = = Q; ( / = 1 , 2,..., г)доставляют минимум функции Ф(Р\,Р% •••, Яг ). Следовательно, в остальных случаях,
когда Рі Ф Q/, |
правая часть |
(1.9) |
больше левой. |
||||||||
Теперь умножим |
энтропии |
Н (X) и Н (Y) |
соответст |
||||||||
венно-на единицы вида |
|
|
|
|
|
|
|||||
#/1 |
|
|
|
|
п |
|
И |
III |
|
|
|
1 = 2 |
р Ш*і) = |
2 |
pte/*/y) = |
S' 2 |
p w> |
Уі)- |
|||||
j= 1 |
|
|
|
/ = 1 |
|
|
/~1 У=1 |
|
|
|
|
Получим: |
|
|
пи |
іит |
|
|
|
|
|
|
|
Н{Х) = |
|
р (хі) р (У,!а) log P(xi) = |
|
||||||||
- |
2 |
2 |
■'• |
||||||||
|
|
|
1=1 |
/= 1 |
|
|
|
|
|
||
|
|
;i |
m |
|
|
|
|
|
|
||
|
= - 2 |
|
2 % й ) і о № ; ' ' |
i :- |
( U i ) |
||||||
|
|
/=i |
y-i |
. |
|
|
• |
|
• •• |
||
|
|
|
n |
|
m |
|
|
|
|
|
• |
•я(К) = |
- |
2i=i2j= 1р (Уі) р Ы уі) l°s р (Уі) = |
|
||||||||
|
|
п |
т |
, |
|
|
|
|
|
||
|
= — 2 |
|
2 |
|
0/) !°g p (W)- |
|
|
( 1• 12) |
|||
|
|
/=1 у=1 |
|
|
|
|
|
|
|||
Складывая |
(1.11) |
и |
(1.12), получаем |
|
|
|
|||||
|
|
|
|
|
п |
т |
|
|
|
|
|
Н Щ + H(Y) = - 2 2 р (х'-’ Уі) lQg р (х <) р (Уі)-
/=1 у=1
Положим |
г=тп, Qi = P{xi\ у,), |
Р[ = Р(Хі) P(yj). |
|
||
Тогда |
|
|
|
|
|
ЩХ, Y) = |
2 Qi lo g Qr, Н ( Х І ± Ш І = |
- Ш |
Ы рр |
||
|
/ = 1 |
|
./-1 |
|
|
2 За к. 2340. |
|
|
•Vi. . |
t- |
;i7 |
|
|
|
|
||
|
i |
( '' TT• Г*! |
r /N~s |
|
и |
|
|
АЛА |
|||
|
|
|
|
|
Сравнивая эти равенства с (1.9), заключаем:
Н (X, У)4>Н ( X ) + H ( Y ) ,
что и доказывает свойство |
4. |
|
|
6. Я (X, Y) = Я (X) + Н (Y/X). |
п |
т |
|
|
|
||
Д о к а з а т е л ь с т в о . Н(Х, Y) — — ѵ V р (х(-, у,) X |
|||
|
|
/ = і ; = і |
|
п |
' |
т |
Р(у,-!Хі) — |
X log Р(Хі, у,) = — V Р(х,) log Р(Х[) V |
|||
'=> |
|
;=> |
|
П til |
|
|
|
- 2 2 р (Л'ь У]) lo g р (Уі*і) = Н(х ) + Н(У:Х), где мы
і м у - 1
ввели обозначение для величины
Я ( В Д |
п |
т |
(1.13) |
s |
уу) log я О/,-/*/.), |
||
|
/-1 |
У=1 |
|
имеющей фундаментальное значение для теории инфор
мации. Ее называют у с л о в н о й э н т р о п и е й |
о п ы |
|||
та Y. H(Y/X) дает |
среднюю неопределенность исхода лю |
|||
бого из событий у j (7 = 1, |
ш) при любом известном ис |
|||
ходе |
события X; |
(7= 1, .... |
п). |
|
7. |
H(Y/X) > 0 . |
|
|
|
Положительность условной энтропии очевидна, |
а ра |
венство нулю возможно лишь тогда, когда события хі и
yj статистически полностью зависимы, т. |
е. |
|
РІУііхі) = |
і ф і . |
(U 4 ) |
0, |
|
|
В самом деле, если известен исход события xh то, со |
||
гласно (1.14), с вероятностью |
«единица» |
известен и ис |
ход события y j . Другими словами, зная исход события Хі, мы не имеем неопределенности в исходе события yj .
Подставив |
(1.14) в (1.13), получим Н (Y/X) |
= 0 . |
|||
В, Если |
события Хі |
и yj |
статистически |
независимы |
|
при любых і и /, то H'(Y/X) |
= |
H(Y). |
|
||
Условием статистической независимости событий хі и |
|||||
Уі является |
|
|
|
|
|
Р(У]\Ч) |
= P(ilj) |
(І = |
1, |
.... п; j = 1, ..., |
т). . (1.15) |
18
Подставив (1.15) в (1.13), получим
ЩѴ/Х) = - |
п |
т |
Р(Уі:Хі) іоgPüi.’xi) = |
V Р(Хі) V |
|||
|
/= 1 |
y-1 |
m |
M |
« |
|
|
*= — 2 а д log а д 2 а |
д |
= - 2 а д io g P (y ,)= //(n . |
|
y=l |
/=1 |
|
/=1 |
Свойство 8 достаточно |
очевидно и без доказательст |
||
ва. В самом деле, |
зная исход хі} мы не получаем никакой |
информации о ijj, если х х и уу* независимы, т. е. средняя неопределенность в исходе у/ остается равной Н (Y), знаем ли мы об исходе л:/ или нет. Однако если события X/ и у j статистически зависимы, то, зная исход xt-, мы по лучаем некоторую информацию о том или ином возмож ном исходе события у/ и неопределенность Н (YIX)r уменьшается по сравнению с # (Т ). Последнее замеча ние сформулируем в виде свойства 9.
9. Если события Хі и у/ статистически зависимы, то всегда Н (Y/Х) < Н {Y).
Требуемое неравенство вытекает из свойства 5 при ис пользовании свойства 6.
Как мы видели, описанные свойства энтропии хорошо согласуются с интуитивными требованиями, которые можно предъявить к количественной мере неопределен ности. Это не случайно, ибо эти интуитивные представле ния были заложены нами в постулатах § 1.
Задача 1. Даны две дискретные случайные величины
ѵ = |
/0Л |
0,2 |
0,3\ |
у |
/10 |
20 |
30 \ |
|
\1/3 |
1/3 |
1/3/’ |
|
Д 1/3 |
1/3 |
і/зу* |
Энтропия какой случайной величины больше? |
|
||||||
От в е т : |
Н(Х) = |
H(Y) — log |
3, так как энтропия не |
зависит от значений, принимаемых случайными величи нами, а. зависит только от вероятностей их появления.
Задача 2. Располагая в виде табл. 2 совместные ве роятности сообщений х і опыта X и у/опыта У, рассчи
тать точные и среднее количества неопределенности в совместном наступлении событий х£ и у/, а также точ ные и среднее количества неопределенности в у j при из вестном исходе х і .
Точные количества неопределенности в совместном наступлении событий х£ и у/ находятся по формуле
И (Х1. У і ) = — \ogP(xi, іи).
19