Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бовбель, Е. И. Элементы теории информации

.pdf
Скачиваний:
10
Добавлен:
19.10.2023
Размер:
6.15 Mб
Скачать

Аналогично

/(У, Х ) = 0 и в пункте б).

Мы знаем,

что количество информации, содержащее­

ся в сообщении у j о хі, равно нулю только в том случае,

•когда сообщения у j и хі

статистически независимы. По­

кажем, что сообщения yj

и х;

в пунктах а) и б) незави­

симы.

 

 

 

 

 

P(yj/Xi) =

=

Условие

независимости выглядит

так-

Р ( у j) (і,

/= 1, 2). Покажем,

к примеру, что в пункте

•а)

у 1 не зависит от х2:

 

:

 

 

 

 

Р(Уі,%) = 1 - Р(У2/х а) =

1 -

В=

0,5;

(1.24)

Р(уг) = ЯЛ + /? (1 — 8) =

р-0,5

4- р( 1 — 0,5) =

0,5. (1.25)

Сравнивая (1.24) и (1.25), получаем

условие

независи­

мости у\ от х2:

 

 

 

 

 

 

 

Р(У\ІХ2)= Р ( У \) .

 

 

 

Аналогично можно показать независимость у\

от Х\ и т. п.

 

Задача 3. По каналу связи

передается один из двух

сигналов Х\

или х2 с одинаковыми вероятностям^ На вы­

ходе канала сигналы х хи х2 преобразуются в сигналы у\ и і/о, причем из-за помех, которым одинаково подвержены сигналы Х\ и х2, в передачу вносятся ошибки, так что в среднем один сигнал из 100 принимается неверно. Опре­ делить среднее количество информации на один сигнал,

передаваемой

по такому

каналу.

Сравнить ее с коли­

чеством информации

при отсутствии помех.

Р е ш е н и с. В условиях задачи даны следующие ве­

роятности:

 

 

 

 

 

 

Р(Л-,) = Р(х2) = 0,5,

Р{Уі/х2) =

РІУг'Хі) = 0,01.

По теореме умножения вероятностен находим:

Р(х1, У\) =

Я(-Сі)11 -

Р (у * М

=

0,5-0;99 = 0,495; ,

Р(ХУг) = Р(хг) Р(у2/х,) =

0,5-0,01 = 0,005;

Р(Х2, Уі) = Р{хг) Р{уі/хг) = 0,5-0,01 = 0,005;

Р(Х,, Уі) =

Р(х2) [1 - Р Ы х 2)}

=

0,5-0,99 = 0,495.

Из формулы

полной

вероятности

 

Р(Уі) =

2 Р{хі,

Уі) =

Р{хi,

Уі) + Р{Уі, X,) =

 

I= 1

 

 

 

 

 

 

= 0,495 +

0,005 =

0,5;

:зо

о

J i

 

Р(Уй) = X Р(Хі, уг) = Р(Х\, Уі) + Р(х2, Уг) =

1=1

» 0,005 + 0,495 = 0,5.

При отсутствии помех количество информации равно эн­ тропии выходных сигналов:

I(Y, Х) = H(Y) = - 2 P{yj) log P(yj) = log 2 = 1 (бит).

Для определения количества информации при наличии помех вычислим условную энтропию:

H(Y/X) = - I I

P(Xit у ) log p(yj/xi) =

 

і =1 y=i

y

y

= — P(x

t/i) log РІУн'х,) — P(JC„ >',) log P y tlx2) —

Р(Хг,

Ух) log Я ОУ*,) — Я(х2,

у2) log P(yoJx2) =

=— Q,495 log 0 ,9 9 -0 ,0 0 5 log 0,01 —

0,0051og0,01 — 0,495 log 0,99 = 0,081 (бит).

Таким образом, при наличии помех

I(Y, X ) = H ( Y ) —H(Y/X) = 1—0,081=0,919 (бит).

Задача 4. Используя (1.20), найти формулу для точ­ ного количества информации, содержащегося в сообще­

нии у j о

сообщении Х[.

перепишем

в виде

Р еш е и и е.

Формулу

1{У,

* ) =

P{yj) 2

P(xtlyj) log

Р(Уі)Р(хі/Уі)

 

 

1=1

 

Р(Уі) Р(Хі)

 

 

 

 

' т п

= У) P(yj) 2

X“ 1 і—і

P(Xiiyj) log Р(Хі/Уі)

Л*/) '

Отсюда видно, что величина

П

P(Xi/yj)

ПУр X) = У P(xi'yj) log

/=1

P(Xi)

 

случайна и представляет собой среднее количество ин­ формации, содержащееся в ijj относительно любого из сообщений хі , а случайная величина

Хі) = log P(Xj/y,)

P(Xi)

31

есть точное количество информации, содержащейся в со­ общении IJj о Хі .

Задача б. Число X появлений события А в серии п независимых испытаний распределено по биномиально­ му закону

Р(Х = т) = С™р т qn~m

где р — вероятность события А при одном

испытании, а

q = 1—р. В зависимости от результатов указанной серии

испытаний происходит или не происходит

некоторое со­

бытие В с условными

вероятностями

Р(В/Х = т) = Gm;

Р{В;Х = /л) = 1 — Gm= Qm.

Определить количество информации, несомое событием В о X, рассматривая его как случайную величину, при­ нимающую значения 1 или 0.

+ Gmlog —-------— ---- —

2 РкХ = m) Gm

От в е т : /(У, X) = — qnlog qn— (1 — qn) log (1 — qn).

Задача 7. В условиях предыдущей задачи определить число испытаний в серии по, которое доставляет макси­ мум информации I(Y, X).

От в е т :

Яо= — 1 /log (1—р).

Задача 8.

На вход линии связи, в которой действуют

шумы, поступает сообщение X в двоичном виде МП 1000* На выходе линии связи зафиксирована последователь­ ность 11100001. Определить точные и среднее количества информации, содержащиеся в Y о X.

32

Р е ш е н и е. Для удобства расчетов обозначим

Х-+ АААААВВВ; Y-+ CCCDDDDC.

Между X и У имеется некоторый элемент беспорядочнос­ ти, представляющий шум. Легко видеть, что

Р(х, у),

Р(А, С) ='3/8,

Р(А, Д) = 2/8,

Р(В, Z?; = 2/8,

Р(В, С) = 1/8,

Р(х),

Р(А)=5/&,

P(A) = 5ß,

Р(В) =3/8,-

Р(В) =гЗ/8,

Р(у).

Р(С) — Щ,

P(D)=4j&,

Р(7>) = 4/8,

Р[С) =4/8,

Р(хіу),

P(AJC) = m ,

P(AjD) = \I2,

P(B/D) = 1/2,

P(B/C) = 1/4,

P(ylx),

P(C/A)= 3/5,

P(D/A)~2/5,

P(DfB) = 2/3,

Р(С/В) = 1/3.

По формуле

Am z/) =

ж *.)')

A * ) P(y)

 

определим соответствующие точные количества инфор­ мации (бит):

 

ДЛ , С) =

/(С,

Л) =

log-jr- — 0,263-,

«

%

 

 

 

 

/(Л,

D ) = I ( D ,

Л) — log — = —0,322;

 

 

АД,

Я) =

/(А

Д) =

log -і- = 0,415;

АД, С) = АА Д) = - 0,585.

Вычислим средние количества информации при соответ­ ственно известных событиях А, 5, С и D:

/ , = /(Л, С) Р(С/А) + /(Л, D) P(D/A) -

=

 

log

4- -g- 1°S 4" =

0,029 (бит);

/ в =

/(С, Д) Р(С/В) + /(Д,

D) P(D/B) =

=

 

log- -§—!—|-

=

0,082 (бит);

/ с = ДС, Л) Р(А, С) + /(Д, С) Р(В, С) =

=

4 - l o g - f + 4 jog

=

0,051 (бит);

Д, = ДЛ, D ) P(A/D) + I{В,

D) P(BID) =

=

4

Jog 4

+ “5" loff "Г =

0>047 (бит)-

3 Зак. 2340.

 

 

 

 

33

Наконец,

I(Y,

Х) = Р(А,

С) /(А,

С) +

Р(А,

D )/(A

£>)•+

 

 

+ Р(В,

D) І(В,

D) -I- />(£, С) /(5,

С)

=

 

о

.

о

8

log

4

_2

log

+

8

log

3

= Х

10^ — -

 

5

+1 8

4Ѵ"Ь 3

 

 

=0,049 (бит).

§4. Относительная энтропия и количество информации

До сих пор понятие энтропии применялось к дискрет­ ным объектам произвольного вида, имеющим конечное (счетное) множество состояний. Однако на практике го­ раздо чаще встречаются непрерывные объекты. Так как понятие непрерывности применимо только к количест­ вам, то мы будем говорить о непрерывных случайных ве­ личинах.

Пусть непрерывная случайная величина X задана плотностью распределения вероятности іѵ (х) на конеч­ ном или бесконечном интервале ее возможных значений.. По определению, іи(х) пропорциональна вероятности'по­ пасть случайной величине X в достаточно малый интер­ вал около точки х:

Р(х <

X < X -f А я) =

w(x) А X.

Разбив точками

х _ и Л'о, Х\, ...,

.ѵ,*, ... весь интервал

(— оо, оо) возможных значений X на счетное множество

отрезков одинаковой длины Ая, мы от непрерывной слу­

чайной величины X перейдем

к ее оценке— дискретной

случайной величине X', которая тем точнее описывает

величину X, чем меньше шаг разбиения А х. Поэтому эн­

тропия дискретной случайной величины А7' .

со

 

Н(Х') = ~ У

P(*i)logP(Jfi).

1= — со

 

Подставив сюда значение P ( x i ) = w ( x i) А х, получим

 

 

 

 

со

Н( Х) = lim

Н( Х') =

lim

і —

"V w(xi)Ax log [ш(я7 )Дя:]

Д .ѵ->0

 

Д л ' ^ 0

. * " 1

 

 

 

/ =

оо

=

Нт

ОО

w(X[) logw(Xi) А X ■+

У

 

Д.г-.о

( = ' 'со

 

 

34

 

 

 

 

*

 

00

+ lim {•—"V ш(л'і) A * log Ах

Д Л'->0

l=—со

 

СО

 

J ш(л:)log-£іу(лг) djc —

lim logД х - > + со.

— со

Дл'-'О

Таким образом, энтропия непрерывной случайной ве­ личины всегда бесконечна. Да и интуиция подсказывает, что неопределенность примять случайной' величине из бесчисленного множества заданное значение сколь угод­ но велика.

Чтобы избавить теорию от бесконечности, имеется единственная возможность — ввести относительную ме­ ру неопределенности исследуемой непрерывной случай­ ной величины X по отношению к заданной Х0. В качест­ ве заданной величины Х0 возьмем непрерывную случай­ ную величину, равномерно распределенную на интервале с шириной S = Ь а. Тогда ее плотность вероятности

w (xo) = \/z7 а

энтропия

 

Н{Х0) =

\_

dx — lim log Д X =

е

 

Д Л--.О

 

 

= logs — lim log A X.

Д л ' - О

Положив, для простоты записи, е= 1, составим разность

Нс (X ) = Н{Х) Н{Хй) = — Сw(x) log ay(х) dx,

_loo

которая показывает, насколько неопределенность непре­ рывной случайной величины X с законом распределения w(x) больше [Я _(Х );>0] или меньше [Я£ (Х )<;0] неоп­

ределенности случайной величины, распределенной рав­ номерно на интервале с шириной е = Г. Поэтому вели­ чину

Н Z(X) = — j*w(x)\og w(x)dx

(1.26)

__ 1 СО

называют о т н о с и т е л ь н о й энтропией.

Задача L Доказать, что относительная энтропия не зависит от того, какие конкретные значения принимает случайная величина X.

35

\

Д о к а з а т е л ь с т в о . Для этого достаточно пока­ зать, что «сдвиг» распределения вероятностей иа любой интервал а не изменяет относительной энтропии. В самом деле,

00

= X а) — — j' w(x а) log w{x — a) dx —

__*00

w(x) log w{x) dx = HZ{X).

Заметим, что аналогичным' свойством обладала энтропия дискретной случайной величины.

Задача 2. Доказать, что для любых плотностей веро­ ятности w(x, у) и g(x, у) справедливо неравенство

J

J

У) Іоg f l * ’' ~

dxdy >

0.

(1.27)

_со

_ со

 

 

 

 

 

Д о к а з а т е л ь с т в о . Воспользуемся неравенством

log и(х, у) =

In а (х, уК

1

Л

1

 

ln 2

1п

2 1 —

и(х. у) '

(1-28)

справедливым при любом « > 0 . В самом деле,

если гг^-1,

то 17!> 1/и при 1

и

и

 

 

 

Іп* = і - Т > М d t = X - ( u — \) = (l - 4 -);

 

 

1

 

 

1

 

 

 

4

'

 

если

0 <1 и <

1, то

Х/t ^

l /и при

а

t < 1 и

 

ІП гг = _ J

 

 

и

= - - і - (1 - Ц) = 1 - - І-.

 

 

 

U

 

 

 

 

 

 

 

 

Из

неравенства

(1.28) следует

 

 

 

 

 

 

со

со

 

 

 

 

 

 

 

 

 

I

 

 

y

) l o

g f ^ ^

y

 

 

 

 

_со

_СО

 

 

 

 

 

 

 

 

 

 

 

00

со

*/)

1 -

g(x,

у)

dxdy

 

 

 

In 2

 

J

[

г

 

 

 

 

_со

_оо

 

 

W (х, у)

 

 

 

 

 

 

 

 

 

 

 

 

1

о*

со

 

 

 

00

00

 

 

 

 

Г

w(x,Г у ) dxdy —.

J

 

g(x,j

у) dxdy

О,

 

In 2

 

 

_оо _со

 

 

 

_о* —в*

 

 

 

 

 

 

 

 

 

 

 

-36

так как из условия нормировки плотностей вероятности

 

J

J w(x,

у) dxdy =

J

J g(x,

у) гілчД/ = 1.

 

_оо

со

 

_со

оо

 

Знак равенства в. (1.27)

 

имеет

место только при

w(X,

y ) = g ( x ,

у).

 

 

 

Задача 3. Используя неравенство (1.27) из предыду­

щей

задачи, доказать неравенство

 

Hjx, Y ) < H t(X) + H,(Y).

Д о к а з а т е л ь с т в о .

Я Е {X)

-|- Я , (F) =

 

ев

 

 

 

со

 

 

 

/

 

 

 

 

 

 

 

 

= — j w(x) log w(x) dx — I' w(y) log w(y) dy —

 

_ CO

 

 

 

» __CO

 

 

 

 

CO

CO ■

 

 

 

CO

CO

\w(x, y)logw(y)dxdy —

= — f

I w(x, y) log w(x) dydx

l‘

4 . / J

 

 

 

 

щJ

I *

 

 

 

CO

00

 

y) log [ш(л') да(у)] dxdy

 

)'

j' w(x,

 

 

__CO

__00

 

 

 

 

 

 

 

= —

00

00

 

y) log r

Z

 

dxdy

 

 

J

J w(x,

 

 

 

__SO

__Э0

 

 

u> (y/x)

 

 

 

 

 

 

 

 

w (y)

 

 

=

и . (X,

 

00

 

CO

 

 

dxdy

Y) -h

 

?w(x, y) log

 

 

 

__00

_t©

 

 

 

 

Я (X,

 

00

00

 

w (x, y)

dxdy.

Y) + - J

J w(x, y) log — jj

 

 

 

 

.00 ___OQ

 

 

W (x) W (y)

 

Так как последнее слагаемое положительно, то

 

 

 

HJX,

Y X H J - X ) +

HJY),

 

что и требовалось доказать.

Аналогично можно доказать, что, как и для дискрет­ ной случайной величины, справедливо неравенство

HJXIY) < Н в(Х).

Задача 4. Доказать, что

я £{X, Y) = Я (X) + Я (Y/X) = Я (У) 4- я (X/Y).

37

Д о к а з а т е л ь с т в о . По определению, относитель­ ная энтропия в совместном наступлении двух случайных величин X и Y

Я (Л\

Y) = —

 

со

со

 

I'

(■w(x, y)logffi<A-, y)dxdy =

*•

 

 

 

 

«•

I

 

 

 

 

_00

__ 00

=

f

f w{x,

у) log [сф) w(y/x) ] dxdy —

 

 

__oO

__ oo

 

 

 

 

 

=

oo

oo

 

 

J‘

 

1' w(x) log w(x)dx —

 

 

 

_oo

__oo

00

00

 

y) log w(y/x) dxdy = /V (Ar) + HE( Y/X),

I'

J w(x,

_CO

_oo

 

 

 

 

 

где Hc(YjX)=s—

00

 

00

Г

 

I' w(x] y) log w(y/x) dxdy —относи-

-

 

 

 

I*

 

•*

 

 

 

_00

_00

тельная условная энтропия случайной величины Y. Ана­ логично доказывается второе равенство.

Задача 5. Доказать, что всякое усреднение (сглажи­ вание) распределения вероятностей

g {y ) = J с(х, у) w(x) dx,

(1.29)

00

где с(х, у ) — весовая функция, удовлетворяющая усло­

виям

«

с(х, У) > 0 ,

 

Г с(х,

y)dx =

j' с(х,

у) dy — 1,

(1.30)

 

__00

 

 

_00

 

 

 

приводит к возрастанию энтропии.

 

 

 

Д о к а з а т е л ь с т в о .

Для

доказательства покажем,

что разность

HÈ(Y) Н£( Х ) ^ 0:

 

 

 

Н (К) — Н=(ЛГ) =

\ w(x) log

dx

 

 

 

 

 

__ 00

 

 

 

 

 

СО

СО-

 

 

 

 

 

 

 

.СО

f с(х, y)w(x)logg(y)dxdy =

 

 

_00

 

 

 

 

 

 

СО

со

 

 

,

(X)

 

 

j'

]■ с(х,

y)w(x) log - f ^ - d x d y =

 

_00

_00

 

 

о

ѴЭ /

 

 

OO

ао

 

 

 

 

oo

со

c(x,

у) w(x) log —

 

dxdy.

 

—00 _oo

 

 

 

 

 

c(x,

V) g(y)

 

38

На основании неравенства (1.27) последний интеграл

будет

положительным,

если

а(х,

у ) —с(х, y)w(x) и

Ь(х, у) =

с(х, y)g(y) являются

плотностями вероятнос­

ти.

Положительность а(х, у) и Ь(х%у)

следует из того, что

g(il) > о и с(х, у)^> 0. Остается показать,

что

 

 

 

со

 

со

оо

со

у) dxdy =

\ .

 

 

Г\

а(х, y ) d x d y =

('

Г b(x,

 

 

•/

_СО

*>

«;

 

 

 

 

_ОО

 

_00

со

 

 

 

В самом деле, с учетом

(1.29) и (1.30)

 

 

 

03

 

СО

 

 

03

 

ос

y)dij

1.

 

Г

 

Га(х, y)dxdy =

Гw(x)dx

Г с(х,

 

•'

 

J

 

 

*

 

t' .

 

 

 

__ 00

_ 0 0

 

 

00

со

 

 

Аналогично,

 

 

 

 

 

f

j'

b(x,

у) dxdy — j

w(x) dx

\ c(x, y)dx

\c{x, y)dy = 1.

__ 30

_ o o

 

 

 

%oo

o o

 

__ oo

 

Таким

образом, //.(T J — Iic( X ) ^ 0,

что

ii требовалось

доказать.

Задача 6. Определив количество информации, содер­ жащейся в одной непрерывной случайной величине отно­ сительно другой, как разность безусловной и условной дифферемциальных энтр опий:

 

1(Х,

Y)

=

Ht ( X ) - H ' ( X / Y ) ,

(•)

доказать

ее независимость от е.

относительная

Д о к а з а т е л ь с т в о .

Совместная

дифференциальная

энтропия

 

 

Н {X,

Y) = —

Г

Г

w (х, у) log e2w(x, у) dxdy =

 

= —«•1' w{y) log г w(y) dy t/ Г

«•)' w(x,

у) log £ w(x/y) dxdy =

oc

_00

CO

 

 

 

= h =(X) + я

(Y/X),

так как для w(x, у) = const:

 

 

 

const =

j - j l -----=

Л>

(г =

ь a).

S fd x d y

a a

Подставив

00

H' (X) = — j' w(x) log w(x) d x — log e

39

Соседние файлы в папке книги из ГПНТБ