Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методическое пособие 362

.pdf
Скачиваний:
109
Добавлен:
30.04.2022
Размер:
1.02 Mб
Скачать

Пример 2.2.5. По линии связи передаются непрерывные амплитудно-модулированные сигналы x(t), распределенные по нормальному закону с нулевым средним значением и среднеквадратичными отклонениямиσ (x) = 8 B.

Определить энтропию сигнала при точности его измере-

ния x = 0.2 B.

Решение. По условию задачи плотность вероятности сиг-

нала

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

(−

 

 

2

)

 

 

 

 

 

 

 

 

( ) =

 

 

 

 

 

 

 

 

 

2 ( )2

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( )√2

 

 

 

 

 

 

 

 

 

 

 

 

 

На основании (2.8) энтропия непрерывного сигнала

1

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

2

 

( ) = − ∫

 

 

 

 

 

2 ( )2 log2 [

 

 

 

2 ( )2]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

−∞ ( )√2

 

 

 

 

 

 

 

 

 

 

 

( )√2

 

 

 

 

 

− log2 ∆ ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Итак, энтропия сигнала Hx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( ) =

1

 

 

 

( )

 

 

 

 

 

 

 

 

 

 

+ log2

(

 

√2 ) ;

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H(σ) = 7.369 бит.

19

2.3. Типовые задачи

Задача 2.3.1. Имеются три дискретных источника информации X(x1,x2,x3), Y(y1,y2) и Z(z1,z2). Вероятности появления их сообщений P(xi), P(yi) и P(zi) заданы векторами

 

1

4

8

 

( ( )

(

) + ( ))

( ) = (

 

 

 

 

 

) , ( ) =

 

 

 

 

 

 

5

15

15

 

 

 

1

2

3

 

 

 

 

 

 

 

 

 

 

 

( ) = (

(2)

 

(3)

 

 

и

 

 

) .

 

( 2)+(3)

 

 

( 2)+(3)

Вычислить среднюю неопределенность каждого источника и установитьсвязь между их энтропиями.

Ответ. Средняя неопределенность источников:

H(X) = 1.457 бит; H(Y) = 0.722 бит; H(Z) = 0.918 бит.

Связь между энтропиями источников определяется выражением

( ) = ( ) + [ ( 2) + ( 3)] ( ).

Задача 2.3.2. Элементы алфавитов X и Y статистически связаны. Известно, что энтропии H(X) = 8 бит и H(Y) = 12 бит. В каких пределах меняется условная энтропия H(Y/X) приизменении H(X/Y) в максимально возможных пределах.

Ответ. Условная энтропия H(Y/X) меняется в пределах от 4 до 12 бит.

Задача 2.3.3. Дискретный источник информации X имеет энтропию H(X)= 16 бит, а источник Y – энтропию H(Y) = 8 бит. Найти условную энтропию H(X/Y), если условная энтропия

H(Y/X) = 4 бит.

Ответ. Условная энтропия H(X/Y) = 12 бит.

20

Задача 2.3.4. Дана при i = 1 .. 3, j = 1 .. 3 и матрица совместных вероятностей

(

 

1 8

1

8

1

8

,

) = 1

8

0

1

8

 

 

1

1

 

1

 

например, элемент (2.2)

матрицы P(x

y ) = 0.

 

8

 

82,

2

8

 

Определить энтропии H(X), H(Y), H(X/Y), H(Y/X),

H(X/y1), H(Y/x2), H(XY).

 

бит;

H(Y) = 1.561 бит;

Ответ. H(X)

=

1.561

H(XY) = 3 бит; H(X/Y) = 1.439 бит; H(Y/X) = 1.439 бит; H(Y/x2) = 1 бит; H(X/y1) = 1.585 бит.

Задача 2.3.5. а) Чему равна максимальная энтропия системы, состоящей из двух элементов, каждый из которых может быть в двух состояниях?

б) Чему равна энтропия системы, состоящей из трех элементов, каждый из которых может быть в четырех состояниях?

в) Чему равна энтропия системы, состоящей из четырех

элементов, каждый из которых может быть в трех состояниях? Ответ. а) Н1 = log222 = 2бит/символ.

б) Н2 = log243 = 6бит/символ.

в) Н3 = log234 = 6,32бит/символ.

Задача 2.3.6. Найти энтропию источника, описываемого графом вероятностей перехода (рис. 3).

21

Рис. 3. Граф к задаче 2.3.6

Ответ. Н(Х) = 1 бит.

Задача 2.3.7. Аналоговый сигнал U(t) на выходе датчика имеет постоянную составляющую μ = 3 B и ограничен по мощности при параметре σ(u) = 1.5 B значением P = σ(u)2. Выходной сигнал носит случайный характер и распределен по нормальному закону распределения.

Определить дифференциальную энтропию выходного

сигнала.

 

 

 

 

 

Ответ. При шаге квантования

u= 1 B дифференциальная

энтропия

 

 

 

 

 

д( ) = log2 (

( )

 

 

 

√2 )

 

 

 

и составляет Hд(u) = 2.632 бит.

22

3.ОЦЕНКА КОЛИЧЕСТВА ИНФОРМАЦИИ

3.1.Основные сведения

Вобщем случае количество информации I, получаемое в результате эксперимента, определяется как мера уменьшения неопределенности, а именно

I=H-H0,

(3.1)

где H – неопределенность (энтропия) до проведения эксперимента;

H0 – неопределенность после проведения эксперимента (остаточная).

Для дискретных случайных величин различают 4 вида информации [1, 5]:

1. Полная информация I(X) о величине X при непо-

средственном ее наблюдении

I(X) = H(X) = M[-log2P(X)] ≥ 0.

(3.2)

Это средняя информация, получаемая от всех возможных значений X в расчете на одно значение.

2. Полное количество информации I(YX) о вели-

чине X, содержащееся в величине Y,

I(YX)=H(X)-H(X/Y); (3.3)

I(YX)=I(XY)=I(Y↔X) ≥ 0,

где I(Y↔X) полная взаимная информация, содержащаяся в

X и Y,

 

 

 

( , )

 

 

 

 

 

( ) = ∑ ∑ ( , ) log

 

 

 

. (3.4)

2 (

) ( )

 

 

 

=1 =1

 

 

 

 

 

 

 

 

 

 

3. Частная информация I(yiX)≥0 о величине X, содержа-

щаяся в значении yi величины Y,

23

 

 

 

 

( ,

)

 

 

 

 

 

 

( ) = ∑ ( , ) log

 

 

 

(3.5)

 

( )

 

 

 

2

 

 

=1

 

 

 

 

 

 

 

 

 

 

 

или, учитывая равенство

( ⁄ ) = ( , ) .( )

( ) = ∑ ( , ) . (3.6) =1 ( ) ( )

4. Частная информация I(yjxi) о значении xi величины X, содержащаяся в значении yj величины Y,

I(yjxi ) = I(yj xi ) ,

где I(yjxi) − частная взаимная информация двух значений (может быть какположительной, так и отрицательной величиной)

 

( , )

 

 

 

 

 

 

 

 

( ) = log2

 

 

=

 

 

 

 

 

 

( ) ( )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(

⁄ )

 

(

⁄ )

 

 

 

= log2

 

 

 

 

= log2

 

 

.

(3.7)

 

( )

( )

 

 

 

 

 

 

 

 

 

 

Виды информации для непрерывных случайных величин:

• частная взаимная информация двух значений x и y

( ) = log2

( , )

;

 

(3.8)

( ) ( )

 

 

 

 

 

• частная информация о величине X, содержащаяся в зна-

чении y величиныY,

 

 

 

 

 

 

( , )

 

 

( ⁄ ) = ∫ ( ⁄ ) log2

;

(3.9)

( ) ( )

 

 

 

 

−∞

24

• полная взаимная информация, содержащаяся в X и Y,

∞ ∞

( , )

( ) = ∫ ∫ ( , ) log2 ( ) ( ) . (3.10)

−∞ −∞

3.2. Типовые примеры

Пример 3.2.1. По двоичному симметричному каналу связи с помехамипередаются два сигнала x1 и x2 с априорными вероятностями P(x1)=3/4 и P(x2)=1/4. Из-за наличия помех вероятность правильного приема каждого изсигналов уменьшается до 7/8. Требуется определить:

1) полную информацию I(X) на выходе источника сигна-

лов;

2)взаимную частную информацию I(y2,x2) двух случайных сигналов навыходе и входе канала связи относительно друг друга (т.е. количество информации о сигнале x2 источника в сообщении y2 приемника);

3)условную частную информацию I(x2/y2), содержащуюся в сообщенииx2 источника при условии приема сообщения y2;

4)среднее количество информации I(y2,X) в принятом со-

общении y2 относительно всех передаваемых сообщений

X(x1,x2);

5) среднее количество взаимной информации I(Y,X) в сообщениях Y приемника о сообщениях X источника;

Решение. По условию:

а) безусловные вероятности P(xi) сообщений x1 и x2:

( 1) =

3

;

( 2) =

1

.

4

 

 

 

 

4

б) условные вероятности P(yj/xi)приема сообщений y1, y2 приусловии передачи сообщений x1, x2:

25

( )

Вычислим вероятностиP(yj), P(xi,yj) и P(xi/yj) при i = 1 .. 2 и j = 1 .. 2, необходимые для расчета информационных характеристик:

2

( ) = ∑ ( ) ( ⁄ );

=1

P(y1) = 0.688; P(y2) = 0.313.

( ) = ( ) ( ⁄ ); ( ) = (0.6560.031 0.0940.219)

Итак, P(x1y1) = 0.656 ; P(x2y1) = 0.031 ;P(x1y2) = 0.094 ; P(x2y2) = 0.219 .

Так как

( ⁄ ) = ( ) ( ⁄ ) или ( ⁄ ) = ( ) ,( )

то имеем следующие условные вероятности

( ⁄ ) = (0.9550.045 0.3000.700), т.е.

( 11) = 0.955; ( 21) = 0.045;( 12) = 0.300; ( 22) = 0.700.

В случае дискретного источника полное количество информации на еговыходе в расчете на одно сообщение, согласно (3.2), совпадает с энтропиейисточника (2.1) и будет

2

( ) = − ∑ ( ) log2 ( );

=1

I(X) = 0.811 бит.

26

Согласно (3.7), взаимная частная информация I(y2,x2) двух сигналов

( ) = log

 

( 22)

или

 

( ) = log

 

( 22)

;

 

 

 

 

 

 

 

 

 

2 ( )

2 2

2 ( )

 

2 2

 

 

2

 

 

 

2

 

 

I(y2x2) = 1.485 бит; I(x2y2) = 1.485

бит.

 

 

 

 

Условная частная информация I(x2/y2)

 

 

 

 

( 22) = − log2 ( 22);

( 22) = 0.515 бит.

 

Согласно (3.5), среднее количество информации I(yj,X) в принятом сообщении yj относительно всех передаваемых сообщений X

 

 

 

 

(

⁄ )

 

 

0.22 )

( ) = ∑ ( ⁄ ) log

 

 

 

 

;

( ) = (

 

( )

 

 

 

2

 

 

0.643

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

I(y1X) = 0.22 бит;

I(y2X) = 0.643 бит.

 

 

 

Согласно (3.4), среднее количество взаимной информации I(YX) в сообщениях Y приемника относительно всех передаваемых сообщений X

2

2

 

( )

 

 

 

 

 

( ) = − ∑ ∑ ( ) log

 

 

 

;

2 (

) ( )

 

 

 

=1 =1

 

 

 

 

 

 

 

 

I(YX) = 0.352 бит.

Рассмотрим второй способ определения I(Y,X). Найдем, согласно (2.5),условную энтропию источника при условии снятия неопределенности приемника

( ⁄ ) = − ∑ ∑ ( ) log2 ( ⁄ );

27

H(X/Y) = 0.459 бит.

Тогда на основании (3.3) с учетом I(X)=H(X) среднее количество взаимной информации I(YX) в расчете на одно сообщение

I (YX) = I(X) - H(X/Y); I (YX) = 0.352 bit.

Пример 3.2.2. Радиостанция противника может работать на волне λ1 (событие A1) или на волне λ2 (событие A2), причем в импульсном режиме (событие B1) или непрерывном режиме (событие B2). Вероятности совместных событий имеют следующие значения:

P(A1B1) = 0.7 ;P(A1B2) = 0.15 ;

P (A2B1) = 0.05 ; P (A2B2) = 0.1 .

Вычислить количество информации, получаемой относительно режимаработы станции, если станет известной длина волны станции.

Решение. Предварительно определим единицы измерения количестваинформации:

Вычислим безусловные вероятности P(Ai) и P(Bj) при i = 1 .. 2, j = 1 .. 2:

P (Ai) = P (AiB1) + P (AiB2);

P (A1)= 0.85 ; P (A2) = 0.15,

P (Bj) = P (A1Bj) + P (A2Bj) ;

P(B1)=0.75 ; P (B2) = 0.25.

Вычислим условные вероятности P(B/A):

 

 

( )

 

( ⁄ ) = (0.824

0.333).

( ⁄ ) =

 

;

 

 

 

( )

 

0.176

0.667

 

 

 

 

 

 

28