книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации
.pdfАналогично |
/(У, Х ) = 0 и в пункте б). |
Мы знаем, |
что количество информации, содержащее |
ся в сообщении у j о хі, равно нулю только в том случае,
•когда сообщения у j и хі |
статистически независимы. По |
||||||
кажем, что сообщения yj |
и х; |
в пунктах а) и б) незави |
|||||
симы. |
|
|
|
|
|
P(yj/Xi) = |
|
= |
Условие |
независимости выглядит |
так- |
||||
Р ( у j) (і, |
/= 1, 2). Покажем, |
к примеру, что в пункте |
|||||
•а) |
у 1 не зависит от х2: |
|
: |
|
|
|
|
|
Р(Уі,%) = 1 - Р(У2/х а) = |
1 - |
В= |
0,5; |
(1.24) |
||
Р(уг) = ЯЛ + /? (1 — 8) = |
р-0,5 |
4- р( 1 — 0,5) = |
0,5. (1.25) |
||||
Сравнивая (1.24) и (1.25), получаем |
условие |
независи |
|||||
мости у\ от х2: |
|
|
|
|
|
||
|
|
Р(У\ІХ2)= Р ( У \) . |
|
|
|
||
Аналогично можно показать независимость у\ |
от Х\ и т. п. |
||||||
|
Задача 3. По каналу связи |
передается один из двух |
|||||
сигналов Х\ |
или х2 с одинаковыми вероятностям^ На вы |
ходе канала сигналы х хи х2 преобразуются в сигналы у\ и і/о, причем из-за помех, которым одинаково подвержены сигналы Х\ и х2, в передачу вносятся ошибки, так что в среднем один сигнал из 100 принимается неверно. Опре делить среднее количество информации на один сигнал,
передаваемой |
по такому |
каналу. |
Сравнить ее с коли |
|||
чеством информации |
при отсутствии помех. |
|||||
Р е ш е н и с. В условиях задачи даны следующие ве |
||||||
роятности: |
|
|
|
|
|
|
Р(Л-,) = Р(х2) = 0,5, |
Р{Уі/х2) = |
РІУг'Хі) = 0,01. |
||||
По теореме умножения вероятностен находим: |
||||||
Р(х1, У\) = |
Я(-Сі)11 - |
Р (у * М |
= |
0,5-0;99 = 0,495; , |
||
Р(Х„ Уг) = Р(хг) Р(у2/х,) = |
0,5-0,01 = 0,005; |
|||||
Р(Х2, Уі) = Р{хг) Р{уі/хг) = 0,5-0,01 = 0,005; |
||||||
Р(Х,, Уі) = |
Р(х2) [1 - Р Ы х 2)} |
= |
0,5-0,99 = 0,495. |
|||
Из формулы |
полной |
вероятности |
|
|||
Р(Уі) = |
2 Р{хі, |
Уі) = |
Р{хi, |
Уі) + Р{Уі, X,) = |
||
|
I= 1 |
|
|
|
|
|
|
= 0,495 + |
0,005 = |
0,5; |
:зо
о |
J i |
|
Р(Уй) = X Р(Хі, уг) = Р(Х\, Уі) + Р(х2, Уг) =
1=1
» 0,005 + 0,495 = 0,5.
При отсутствии помех количество информации равно эн тропии выходных сигналов:
I(Y, Х) = H(Y) = - 2 P{yj) log P(yj) = log 2 = 1 (бит).
Для определения количества информации при наличии помех вычислим условную энтропию:
H(Y/X) = - I I |
P(Xit у ) log p(yj/xi) = |
||
|
і =1 y=i |
y |
y |
= — P(x„ |
t/i) log РІУн'х,) — P(JC„ >',) log P y tlx2) — |
||
— Р(Хг, |
Ух) log Я ОУ*,) — Я(х2, |
у2) log P(yoJx2) = |
=— Q,495 log 0 ,9 9 -0 ,0 0 5 log 0,01 —
—0,0051og0,01 — 0,495 log 0,99 = 0,081 (бит).
Таким образом, при наличии помех
I(Y, X ) = H ( Y ) —H(Y/X) = 1—0,081=0,919 (бит).
Задача 4. Используя (1.20), найти формулу для точ ного количества информации, содержащегося в сообще
нии у j о |
сообщении Х[. |
перепишем |
в виде |
|
Р еш е и и е. |
Формулу |
|||
1{У, |
* ) = |
P{yj) 2 |
P(xtlyj) log |
Р(Уі)Р(хі/Уі) |
|
|
1=1 |
|
Р(Уі) Р(Хі) |
|
|
|
|
' т п
= У) P(yj) 2
X“ 1 і—і
P(Xiiyj) log Р(Хі/Уі)
Л*/) '
Отсюда видно, что величина
П |
P(Xi/yj) |
ПУр X) = У P(xi'yj) log |
|
/=1 |
P(Xi) |
|
случайна и представляет собой среднее количество ин формации, содержащееся в ijj относительно любого из сообщений хі , а случайная величина
Хі) = log P(Xj/y,)
P(Xi)
31
есть точное количество информации, содержащейся в со общении IJj о Хі .
Задача б. Число X появлений события А в серии п независимых испытаний распределено по биномиально му закону
Р(Х = т) = С™р т qn~m
где р — вероятность события А при одном |
испытании, а |
q = 1—р. В зависимости от результатов указанной серии |
|
испытаний происходит или не происходит |
некоторое со |
бытие В с условными |
вероятностями |
Р(В/Х = т) = Gm; |
Р{В;Х = /л) = 1 — Gm= Qm. |
Определить количество информации, несомое событием В о X, рассматривая его как случайную величину, при нимающую значения 1 или 0.
+ Gmlog —-------— ---- —
2 РкХ = m) Gm
От в е т : /(У, X) = — qnlog qn— (1 — qn) log (1 — qn).
Задача 7. В условиях предыдущей задачи определить число испытаний в серии по, которое доставляет макси мум информации I(Y, X).
От в е т : |
Яо= — 1 /log (1—р). |
Задача 8. |
На вход линии связи, в которой действуют |
шумы, поступает сообщение X в двоичном виде МП 1000* На выходе линии связи зафиксирована последователь ность 11100001. Определить точные и среднее количества информации, содержащиеся в Y о X.
32
Р е ш е н и е. Для удобства расчетов обозначим
Х-+ АААААВВВ; Y-+ CCCDDDDC.
Между X и У имеется некоторый элемент беспорядочнос ти, представляющий шум. Легко видеть, что
Р(х, у), |
Р(А, С) ='3/8, |
Р(А, Д) = 2/8, |
Р(В, Z?; = 2/8, |
Р(В, С) = 1/8, |
Р(х), |
Р(А)=5/&, |
P(A) = 5ß, |
Р(В) =3/8,- |
Р(В) =гЗ/8, |
Р(у). |
Р(С) — Щ, |
P(D)=4j&, |
Р(7>) = 4/8, |
Р[С) =4/8, |
Р(хіу), |
P(AJC) = m , |
P(AjD) = \I2, |
P(B/D) = 1/2, |
P(B/C) = 1/4, |
P(ylx), |
P(C/A)= 3/5, |
P(D/A)~2/5, |
P(DfB) = 2/3, |
Р(С/В) = 1/3. |
По формуле
Am z/) = |
ж *.)') |
|
A * ) P(y) |
||
|
определим соответствующие точные количества инфор мации (бит):
|
ДЛ , С) = |
/(С, |
Л) = |
log-jr- — 0,263-, |
||
« |
% |
|
|
|
|
|
/(Л, |
D ) = I ( D , |
Л) — log — = —0,322; |
||||
|
||||||
|
АД, |
Я) = |
/(А |
Д) = |
log -і- = 0,415; |
АД, С) = АА Д) = - 0,585.
Вычислим средние количества информации при соответ ственно известных событиях А, 5, С и D:
/ , = /(Л, С) Р(С/А) + /(Л, D) P(D/A) -
= |
|
log |
4- -g- 1°S 4" = |
0,029 (бит); |
|
/ в = |
/(С, Д) Р(С/В) + /(Д, |
D) P(D/B) = |
|||
= |
|
log- -§—!—|- |
= |
0,082 (бит); |
|
/ с = ДС, Л) Р(А, С) + /(Д, С) Р(В, С) = |
|||||
= |
4 - l o g - f + 4 jog |
= |
0,051 (бит); |
||
Д, = ДЛ, D ) P(A/D) + I{В, |
D) P(BID) = |
||||
= |
4 |
Jog 4 |
+ “5" loff "Г = |
0>047 (бит)- |
|
3 Зак. 2340. |
|
|
|
|
33 |
Наконец,
I(Y, |
Х) = Р(А, |
С) /(А, |
С) + |
Р(А, |
D )/(A |
£>)•+ |
||||||
|
|
+ Р(В, |
D) І(В, |
D) -I- />(£, С) /(5, |
С) |
= |
|
|||||
о |
. |
о |
8 |
log |
4 |
_2 |
log |
+ |
8 |
log |
3 |
|
= Х |
10^ — - |
|
5 |
+1 8 |
4Ѵ"Ь 3 |
|
|
=0,049 (бит).
§4. Относительная энтропия и количество информации
До сих пор понятие энтропии применялось к дискрет ным объектам произвольного вида, имеющим конечное (счетное) множество состояний. Однако на практике го раздо чаще встречаются непрерывные объекты. Так как понятие непрерывности применимо только к количест вам, то мы будем говорить о непрерывных случайных ве личинах.
Пусть непрерывная случайная величина X задана плотностью распределения вероятности іѵ (х) на конеч ном или бесконечном интервале ее возможных значений.. По определению, іи(х) пропорциональна вероятности'по пасть случайной величине X в достаточно малый интер вал около точки х:
Р(х < |
X < X -f А я) = |
w(x) А X. |
Разбив точками |
х _ и Л'о, Х\, ..., |
.ѵ,*, ... весь интервал |
(— оо, оо) возможных значений X на счетное множество |
отрезков одинаковой длины Ая, мы от непрерывной слу
чайной величины X перейдем |
к ее оценке— дискретной |
случайной величине X', которая тем точнее описывает |
|
величину X, чем меньше шаг разбиения А х. Поэтому эн |
|
тропия дискретной случайной величины А7' . |
|
со |
|
Н(Х') = ~ У |
P(*i)logP(Jfi). |
1= — со |
|
Подставив сюда значение P ( x i ) = w ( x i) А х, получим
|
|
|
|
со |
Н( Х) = lim |
Н( Х') = |
lim |
і — |
"V w(xi)Ax log [ш(я7 )Дя:] |
Д .ѵ->0 |
|
Д л ' ^ 0 |
. * " 1 |
|
|
|
|
/ = |
— оо |
= |
Нт |
ОО |
w(X[) logw(Xi) А X ■+ |
|
У |
||||
|
Д.г-.о |
( = ' —'со |
|
|
34 |
|
|
|
|
*
|
00 |
+ lim {•—"V ш(л'і) A * log Ах |
|
Д Л'->0 |
l=—со |
|
|
СО |
|
J ш(л:)log-£іу(лг) djc — |
lim logД х - > + со. |
— со |
Дл'-'О |
Таким образом, энтропия непрерывной случайной ве личины всегда бесконечна. Да и интуиция подсказывает, что неопределенность примять случайной' величине из бесчисленного множества заданное значение сколь угод но велика.
Чтобы избавить теорию от бесконечности, имеется единственная возможность — ввести относительную ме ру неопределенности исследуемой непрерывной случай ной величины X по отношению к заданной Х0. В качест ве заданной величины Х0 возьмем непрерывную случай ную величину, равномерно распределенную на интервале с шириной S = Ь — а. Тогда ее плотность вероятности
w (xo) = \/z7 а |
энтропия |
|
|
Н{Х0) = |
\_ |
dx — lim log Д X = |
|
е |
|||
|
Д Л--.О |
||
|
|
= logs — lim log A X.
Д л ' - О
Положив, для простоты записи, е= 1, составим разность
Нс (X ) = Н{Х) — Н{Хй) = — Сw(x) log ay(х) dx,
_loo
которая показывает, насколько неопределенность непре рывной случайной величины X с законом распределения w(x) больше [Я _(Х );>0] или меньше [Я£ (Х )<;0] неоп
ределенности случайной величины, распределенной рав номерно на интервале с шириной е = Г. Поэтому вели чину
Н Z(X) = — j*w(x)\og w(x)dx |
(1.26) |
__ 1 СО
называют о т н о с и т е л ь н о й энтропией.
Задача L Доказать, что относительная энтропия не зависит от того, какие конкретные значения принимает случайная величина X.
35
\
Д о к а з а т е л ь с т в о . Для этого достаточно пока зать, что «сдвиг» распределения вероятностей иа любой интервал а не изменяет относительной энтропии. В самом деле,
00
= X — а) — — j' w(x — а) log w{x — a) dx —
__*00
w(x) log w{x) dx = HZ{X).
Заметим, что аналогичным' свойством обладала энтропия дискретной случайной величины.
Задача 2. Доказать, что для любых плотностей веро ятности w(x, у) и g(x, у) справедливо неравенство
J |
J |
У) Іоg f l * ’' ~ |
dxdy > |
0. |
(1.27) |
|
_со |
_ со |
|
|
|
|
|
Д о к а з а т е л ь с т в о . Воспользуемся неравенством |
||||||
log и(х, у) = |
In а (х, уК |
1 |
Л |
1 |
|
|
ln 2 |
1п |
2 1 — |
и(х. у) ' |
(1-28) |
||
справедливым при любом « > 0 . В самом деле, |
если гг^-1, |
|||||
то 17!> 1/и при 1 |
и |
и |
|
|
|
Іп* = і - Т > М d t = X - ( u — \) = (l - 4 -);
|
|
1 |
|
|
1 |
|
|
|
4 |
' |
|
если |
0 <1 и < |
1, то |
— Х/t ^ |
— l /и при |
а |
t < 1 и |
|
||||
ІП гг = _ J |
|
|
и |
= - - і - (1 - Ц) = 1 - - І-. |
|
||||||
|
|
U |
|
|
|
|
|
|
|
|
|
Из |
неравенства |
(1.28) следует |
|
|
|
|
|||||
|
|
со |
со |
|
|
|
|
|
|
|
|
|
|
I |
|
|
y |
) l o |
g f ^ ^ |
y |
|
|
|
|
|
_со |
_СО |
|
|
|
|
|
|
|
|
|
|
|
|
00 |
со |
*/) |
1 - |
g(x, |
у) |
dxdy |
|
|
|
In 2 |
|
J |
[ |
г |
|
|
|||
|
|
_со |
_оо |
|
|
W (х, у) |
|
|
|||
|
|
|
|
|
|
|
|
|
|||
|
1 |
о* |
со |
|
|
|
00 |
00 |
|
|
|
|
Г |
w(x,Г у ) dxdy —. |
J |
|
g(x,j |
у) dxdy |
О, |
||||
|
In 2 |
|
|||||||||
|
_оо _со |
|
|
|
_о* —в* |
|
|
|
|||
|
|
|
|
|
|
|
|
-36
так как из условия нормировки плотностей вероятности
|
J |
J w(x, |
у) dxdy = |
J |
J g(x, |
у) гілчД/ = 1. |
|
_оо |
со |
|
_со |
оо |
|
Знак равенства в. (1.27) |
|
имеет |
место только при |
|||
w(X, |
y ) = g ( x , |
у). |
|
|
|
|
Задача 3. Используя неравенство (1.27) из предыду |
||||||
щей |
задачи, доказать неравенство |
|
Hjx, Y ) < H t(X) + H,(Y).
Д о к а з а т е л ь с т в о . |
Я Е {X) |
-|- Я , (F) = |
|||||||
|
ев |
|
|
|
со |
|
|
|
/ |
|
|
|
|
|
|
|
|
||
= — j w(x) log w(x) dx — I' w(y) log w(y) dy — |
|||||||||
|
_ CO |
|
|
|
» __CO |
|
|
|
|
CO |
CO ■ |
|
|
|
CO |
CO |
\w(x, y)logw(y)dxdy — |
||
= — f |
I w(x, y) log w(x) dydx— |
l‘ |
|||||||
4 . / J |
|
|
|
|
щJ |
I * |
|
|
|
|
— |
CO |
00 |
|
y) log [ш(л') да(у)] dxdy — |
||||
|
)' |
j' w(x, |
|||||||
|
|
__CO |
__00 |
|
|
|
|
|
|
|
= — |
00 |
00 |
|
y) log r |
Z |
|
dxdy |
|
|
J |
J w(x, |
|
|
|||||
|
__SO |
__Э0 |
|
|
u> (y/x) |
|
|
||
|
|
|
|
|
|
w (y) |
|
|
|
= |
и . (X, |
|
00 |
|
CO |
|
|
dxdy |
|
Y) -h |
|
?w(x, y) log |
|||||||
|
|
|
__00 |
_t© |
|
|
|
|
|
Я (X, |
|
00 |
00 |
|
w (x, y) |
dxdy. |
|||
Y) + - J |
J w(x, y) log — jj |
|
|||||||
|
|
|
.00 ___OQ |
|
|
W (x) W (y) |
|
||
Так как последнее слагаемое положительно, то |
|
||||||||
|
|
HJX, |
Y X H J - X ) + |
HJY), |
|
что и требовалось доказать.
Аналогично можно доказать, что, как и для дискрет ной случайной величины, справедливо неравенство
HJXIY) < Н в(Х).
Задача 4. Доказать, что
я £{X, Y) = Я (X) + Я (Y/X) = Я (У) 4- я (X/Y).
37
Д о к а з а т е л ь с т в о . По определению, относитель ная энтропия в совместном наступлении двух случайных величин X и Y
Я (Л\ |
Y) = — |
|
со |
со |
||
|
I' |
(■w(x, y)logffi<A-, y)dxdy = |
||||
*• |
|
|
|
|
«• |
I |
|
|
|
|
_00 |
__ 00 |
|
= |
— |
f |
f w{x, |
у) log [сф) w(y/x) ] dxdy — |
||
|
|
__oO |
__ oo |
|
|
|
|
|
= |
— |
oo |
oo |
|
|
|
J‘ |
|
1' w(x) log w(x)dx — |
||
|
|
|
_oo |
__oo |
||
00 |
00 |
|
y) log w(y/x) dxdy = /V (Ar) + HE( Y/X), |
|||
I' |
J w(x, |
|||||
_CO |
_oo |
|
|
|
|
|
где Hc(YjX)=s— |
00 |
|
00 |
|||
Г |
|
I' w(x] y) log w(y/x) dxdy —относи- |
||||
- |
|
|
|
I* |
|
•* |
|
|
|
_00 |
_00 |
тельная условная энтропия случайной величины Y. Ана логично доказывается второе равенство.
Задача 5. Доказать, что всякое усреднение (сглажи вание) распределения вероятностей
g {y ) = J с(х, у) w(x) dx, |
(1.29) |
—00
где с(х, у ) — весовая функция, удовлетворяющая усло
виям
«
с(х, У) > 0 , |
|
Г с(х, |
y)dx = |
j' с(х, |
у) dy — 1, |
(1.30) |
||
|
__00 |
|
|
_00 |
|
|
|
|
приводит к возрастанию энтропии. |
|
|
|
|||||
Д о к а з а т е л ь с т в о . |
Для |
доказательства покажем, |
||||||
что разность |
HÈ(Y) — Н£( Х ) ^ 0: |
|
|
|
||||
Н (К) — Н=(ЛГ) = |
\ w(x) log |
dx — |
|
|||||
|
|
|
|
__ 00 |
|
|
|
|
|
СО |
СО- |
|
|
|
|
|
|
|
.СО |
f с(х, y)w(x)logg(y)dxdy = |
|
|||||
|
_00 |
|
|
|
|
|
|
|
СО |
со |
|
|
, |
(X) |
|
|
|
j' |
]■ с(х, |
y)w(x) log - f ^ - d x d y = |
|
|||||
_00 |
_00 |
|
|
о |
ѴЭ / |
|
|
|
OO |
ао |
|
|
|
|
|||
oo |
со |
c(x, |
у) w(x) log — |
|
dxdy. |
|
||
—00 _oo |
|
|
||||||
|
|
|
c(x, |
V) g(y) |
|
38
На основании неравенства (1.27) последний интеграл
будет |
положительным, |
если |
а(х, |
у ) —с(х, y)w(x) и |
||||||
Ь(х, у) = |
с(х, y)g(y) являются |
плотностями вероятнос |
||||||||
ти. |
Положительность а(х, у) и Ь(х%у) |
следует из того, что |
||||||||
g(il) > о и с(х, у)^> 0. Остается показать, |
что |
|
||||||||
|
|
со |
|
со |
оо |
со |
у) dxdy = |
\ . |
||
|
|
Г\ |
а(х, y ) d x d y = |
(' |
Г b(x, |
|||||
|
|
•/ |
_СО |
*> |
t« |
«; |
|
|
|
|
|
_ОО |
|
_00 |
со |
|
|
|
|||
В самом деле, с учетом |
(1.29) и (1.30) |
|
|
|||||||
|
03 |
|
СО |
|
|
03 |
|
ос |
y)dij |
— 1. |
|
Г |
|
Га(х, y)dxdy = |
Гw(x)dx |
Г с(х, |
|||||
|
•' |
|
J |
|
|
* |
|
t' . |
|
|
|
__ 00 |
_ 0 0 |
|
|
00 |
со |
|
|
||
Аналогично, |
|
|
|
|
|
|||||
f |
j' |
b(x, |
у) dxdy — j |
w(x) dx |
\ c(x, y)dx |
\c{x, y)dy = 1. |
||||
__ 30 |
_ o o |
|
|
|
%oo |
— |
o o |
|
__ oo |
|
Таким |
образом, //.(T J — Iic( X ) ^ 0, |
что |
ii требовалось |
доказать.
Задача 6. Определив количество информации, содер жащейся в одной непрерывной случайной величине отно сительно другой, как разность безусловной и условной дифферемциальных энтр опий:
|
1(Х, |
Y) |
= |
Ht ( X ) - H ' ( X / Y ) , |
(•) |
|
доказать |
ее независимость от е. |
относительная |
||||
Д о к а з а т е л ь с т в о . |
Совместная |
|||||
дифференциальная |
энтропия |
|
|
|||
Н {X, |
Y) = — |
Г |
Г |
w (х, у) log e2w(x, у) dxdy = |
|
= —«•1' w{y) log г w(y) dy — t/ Г |
«•)' w(x, |
у) log £ w(x/y) dxdy = |
||
— oc |
_00 |
CO |
|
|
|
= h =(X) + я |
(Y/X), |
||
так как для w(x, у) = const: |
|
|
|
|
const = |
j - j l -----= |
Л> |
(г = |
ь — a). |
S fd x d y
a a
Подставив
00
H' (X) = — j' w(x) log w(x) d x — log e
39