Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методическое пособие 362

.pdf
Скачиваний:
109
Добавлен:
30.04.2022
Размер:
1.02 Mб
Скачать

0,03

= 2 [log2 10 + 0,03 log2 10 − 1 + (1 − 0,03) log2(1 − 0,03)] =

бит

= 6,064 сек.

Задача 4.2.9. Передаются текстовые сообщения, первичный алфавит которых содержит m качественных признаков, общее количество передаваемых сигналов – n1. Сообщения кодируются некоторым вторичным алфавитом m2; в принятых сообщениях содержится п2 символов. Определить избыточность от округления данных текстовых сообщений.

Решение. Количество информации в первичном сообщении длиной в п1 символов

I1= n1log2m1

и во вторичном сообщении длиной в п2 символов

I2 = n2log2 m2,

где т1 и т2— соответственно количество символов первичного и вторичного алфавитов.

Поскольку количество информации при любом виде кодирования не может возрастать, то I1=I2, или

n1 log2m1 = n2 log2 m2,

откуда определяем коэффициент сжатия µ

 

=

log2

1

; =

2

=

log2

1

.

 

 

 

 

 

 

 

2

1 log

2

2

 

 

log

2

 

2

 

 

 

 

 

 

1

 

 

 

 

Так какµне целое число, то избыточность от округления

−=

где k— округленное значение µ.

49

4.3. Типовые задачи

Задача 4.3.1. Алфавит состоит из четырех букв x1, x2, x3 и x4. Вероятности появления символов P(xi) заданы вектор-столб- цом

1

1

1

1

( ) = [

 

 

 

 

 

 

 

] .

2

4

 

 

8

8

Между соседними символами имеются корреляционные связи, которые описываются матрицей условных вероятностей P(xi/xj) следующего вида

 

0

0.2

0.4

0.4

 

( ⁄ ) = [

0.2

0.2

0.3

0.3

].

 

0.25

0

0.25

0.5

 

 

0.2

0.4

0.4

0

 

Требуется определить избыточность источника при статистической независимости символов и при учете зависимости между ними.

Ответ. Избыточность источника при статистической независимости символов R1 = 0.125 и при статистической зависимости символов R2 = 0.184.

Задача 4.3.2. Для передачи сообщений используется код, состоящий из трех символов, вероятности появления которых равны 0.8, 0.1 и 0.1.

Корреляция между символами отсутствует. Определить избыточность кода.

Ответ. Избыточность кода R=0.42.

50

Задача 4.3.3. Измерительное устройство вырабатывает при среднеквадратическом отклонении σu = 6 В и параметре α = 1 сек-1 случайный сигнал U(t) с нормальной плотностью вероятности и корреляционной функцией

( ) = 2 − | |.

Определить избыточность сигнала, вызванную наличием корреляции.

Ответ. При шаге квантования Δu = 1В избыточность сиг-

нала

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( ) = 1 −

д ( )

или ( ) =

− log2 √1 − −2 | |

.

д

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 log2

 

 

√2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Задача 4.3.4. На вход канала связи поступает ансамбль сигналов {xi}, i = 1.. 3 с длительностью τ = 0.01 сек и частотой следования F= 1/τ. Сигнал x1 значительно отличается от других

ивсегда принимается правильно. Априорные вероятности P(xi)

ивероятности переходов P(yj/xi), j= 1.. 3 имеют и параметрах p= 0.6; q= 0.2 и p0= 10 -2 значения, указанные в соответствующих матрицах

 

 

1

0

0

( ) = (

 

) ; ( ⁄ ) = [0

(1 − 0)

0 ].

 

 

0

0

(1 − 0)

Требуется найти пропускную способность канала связи и установить, можно ли использовать данный канал для передачи информации от заданного источника.

Ответ. При введении коэффициента

= 0 log2 0 + (1 − 0) log2(1 − 0)

пропускная способность канала

51

2+ 2= log2 ( 2) ;

C = 154.787 бит/сек.

Производительность источника

Ĩ = 137.095 бит⁄сек.

Задача 4.3.5. На вход канала связи поступает ансамбль сигналов {xi},i = 1.. 3 с длительностью τ = 0.01 сек и частотой следования F = 1 /τ. Априорные вероятности P(xi) и условные вероятности P(yj/xi), j = 1.. 3 имеют и вероятности ошибки p0= 10-2 значения, указанные в соответствующих матрицах

 

(

 

)

=

(

0.6

0.2 0.2

)

;

 

 

 

 

 

 

 

 

(1 − 0)

0

 

0

 

( ⁄ ) = [

 

0

 

 

(1 − 0)

 

0

].

 

 

 

 

0

 

0

(1 − 0)

Вычислить пропускную способность канала связи и установить, достаточно ли предоставленного канала для передачи информации от источника.

Ответ. Пропускная способность канала

= [log2 3 + [ 0 log2 0 + (1 − 0) log2(1 − 0)]];

C = 150.417 бит/сек.

Производительность источника

Ĩ= 137.095 бит/сек.

Задача 4.3.6. Определить пропускную способность канала связи, по которому передаются сигналы {xi}, i = 1.. 4 с длительностью τ = 0.01сек и частотой следования F = 1/ τ. Влияние помех характеризуется j = 1.. 4 и вероятности ошибки

52

p0= 10 -2 матрицей условных вероятностей

 

 

 

(1 − 0)

0

0

0

 

( ⁄ ) = [

0

(1 − 0)

0

0

].

0

0

(1 − 0)

0

 

 

 

0

0

0

(1 − 0)

 

Ответ. Пропускная способность канала

= [2 + [ 0 log2 0 + (1 − 0) log2(1 − 0)]];

C = 280.46 бит/сек.

Задача 4.3.7.Определить полосу пропускания канала передачи телевизионного черно-белого изображения с числом элементов N = 5·105 , числом кадров K = 25 за время τ = 1sec и числом градаций яркости G = 8 для отношения сигнал-помеха ρ = 15 при условии, что изображение может принимать наиболее хаотичный вид, а именно вид белого шума.

Ответ. Полоса пропускания канала

=

log2

1

;

 

 

log2(1 + )

F = 9.375 MГц.

Примечание. Изображение принимает вид белого шума, если все его элементы как в одном кадре, так и в различных кадрах независимы.

Задача 4.3.8. Определить пропускную способность симметричного канала с матрицей условных вероятностей

 

1

1

1

1

 

 

 

 

 

 

 

 

 

 

( ⁄ ) =

3

3

6

6 .

 

 

1

 

1

1

1

 

 

 

 

 

 

 

 

 

 

 

[6

6

3

3

]

Ответ. Пропускная способность C = 0.09 бит/символ.

53

Задача 4.3.9. Двоичный источник с равновероятными элементами имеет производительность

vI(x) = 1000 бит/сек.

При передаче по каналу в среднем один из переданных 100 символов искажается. Определить скоростьпередачи информации по данному каналу.

Ответ. При вероятности ошибки p0= 10 -2 скорость передачи информации по каналу

Ĩ = ( ) =

( )

[ln 2 + 0 log2 0 + (1 − 0) log2(1 − 0)];

ln 2

 

vI(k) = 919.207 бит/сек.

 

 

Задача4.3.10. По радиоканалу с минимальным временем передачи сигнала Tk= 1сек и полосой частот f k = 100 кГц, в котором действует белый гауссов шум со спектральной плотностью мощности S0= 1.6 ·10 -3 Вт/кГц , передается сигнал u(t), имеющий граничную частоту fc = 10 кГц и среднюю мощность Pu = 14 Вт. Сколько времени займет передача сигнала по данному каналу.

Ответ. Время передачи сигнала

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

log2 (1 +

 

 

 

 

)

 

 

 

0

 

 

 

 

 

=

 

 

 

 

 

;

= 6.617 сек.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

log

 

(1 +

 

 

)

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

Задача 4.3.11. Найти, при каких значениях вероятностей появления 0 и 1 достигается максимальная скорость передачи информации по бинарному каналу, если длительность передачи нуля 0,2 сек, а единицы 0,8 сек.

Ответ. Максимум следует искать между значениями p1 2 = 0,5 и р1 =0,8; р2 = 0,2. С = 2,2 ÷ 2,31 бит/сек.

54

Задача 4.3.12. Число символов алфавита m = 4. Вероятности появления символов равны соответственно p1 = 0,15; р2 = 0,4; р3 = 0,25; р4 = 0,2. Длительности символов τ1= 3 сек.; τ2 = 2 сек.; τ3 = 5 сек.; τ4 = 6 сек. Чему равна скорость передачи сообщений, составленных из таких символов?

Ответ. С= 0,51 бит/сек.

Задача 4.3.13. Сообщения по данному каналу связи передаются частотным кодом. Всего частот 5. Встречаются они в сообщениях с равной вероятностью. Вероятности перехода одной частоты в другую равны между собой и составляют 5% от общего числа частот в передаваемых сообщениях. Определить пропускную способность такого канала связи, если источник вырабатывает частотные посылки со скоростью 10 посылок в секунду.

Ответ. Сп= 27 бит/сек.

Задача 4.3.14. Какое минимальное число вопросов необходимо задать собеседнику, чтобы угадать любое число из 240, если собеседник отвечает только «Да» и «Нет»?

Ответ.

= log2 = log2 24 + log2 10 = 7.9. log2

Так как 7,9 вопроса задать нельзя, то число вопросов будет

8.

55

5.КОНТРОЛЬНЫЕ ВОПРОСЫ

1.Поясните сущность понятия энтропии. В каких единицах измеряется энтропия?

2.Как определяется энтропия дискретной системы с равновероятными и неравновероятными состояниями?

3.В чем заключается особенность определения энтропии для непрерывных распределений?

4.Что такое условная и совместная энтропия?

5.Сформулируйте основные свойства энтропии сложных сообщений.

6.Поясните связь между энтропией и информацией.

7.Какие основные требования предъявляются к мере количества информации?

8.Как количественно оценивается информация при полной и неполной достоверности сообщений?

9.Поясните сущность понятий частной и полной инфор-

мации.

10.Что понимается под избыточностью сообщений?

11.Что является мерой количественной оценки избыточ-

ности?

12.Какими обобщенными характеристиками определяется сигнал и канал передачи информации?

13.Что понимается под объемом сигнала и емкостью канала передачи информации?

14.Сформулируйте необходимые и достаточные условия согласования сигнала с каналом передачи информации?

15.Объясните, как можно передать широкополосный сигнал через узкополосный канал без искажений?

16.Какими факторами определяется скорость передачи информации и пропускная способность канала?

17.Что понимается под дискретным каналом и непрерывным каналом?

18.Каким образом определяется пропускная способность дискретного канала с помехами и без помех?

56

19.В чем сущность теоремы Шеннона для дискретного канала без помех?

20.В чем сущность теоремы Шеннона для дискретного канала с помехами?

21.Каким образом определяется скорость передачи информации по непрерывному каналу с помехами?

22.Объясните характер зависимости пропускной способности канала с помехами от полосы пропускания канала?

23.Что понимается под эффективностью системы передачи и какими показателями она характеризуется?

24.Какие критерии применяются для оценки помехоустойчивости систем передачи информации?

25.Перечислите известные способы повышения помехоустойчивости передачи.

57

6.ТЕМЫ РЕФЕРАТОВ

1.Дискретные и непрерывные источники. Преобразование сообщений в сигнал. Модуляция и кодирование.

2.Каналы передачи. Теорема дискретизации. Квантование непрерывных сигналов.

3.Дискретные ансамбли и источники. Классификация дискретных источников. Оптимальные неравномерные коды.

4.Частное и полное (замкнутое) использование информации: ее передача/прием и реализация в действиях на основе содержания и ценности.

5.Задача кодирования дискретного источника. Высоковероятные множества источников без памяти.

6.Скорость создания информации источником без памяти при равномерном кодировании. Эпсилон-энтропия.

7.Прямая теорема кодирования Шеннона для дискретных каналов без памяти. Обратная теорема Шеннона.

8.Способы введения избыточности в передаваемые сообщения. Информационные пределы избыточности.

9.Регулярные и случайные коды. Эффективные методы сжатия информации. Реализуемые принципы помехоустойчивого кодирования.

10.Динамические приоритеты поведения субъекта, корректируемые по информационным поступлениям.

11.Непрерывные каналы с дискретным временем; пропускная способность канала.

12.Задача кодирования с заданным критерием качества.

13.Совместное кодирование для источника и канала. Цифровое кодирование с предсказанием.

14.Предельная эффективность системы передачи информации. Эффективность аналоговых и цифровых систем.

15.Связь с эффективностью защиты информации на основе соизмерения разнообразий собственника информации и его соперника.

16.Сплайн-интерполяция.

58