Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Толстоусов, Г. Н. Прикладная теория информации учеб. пособие

.pdf
Скачиваний:
9
Добавлен:
19.10.2023
Размер:
4.97 Mб
Скачать

 

 

 

 

 

 

<,і9>

Среднее количество

информации Ух*+-у есть среднее

значение ве­

личин

 

I причем осреднение

производится по всем состояни­

ям получателя

У

 

:

 

 

 

 

Ук~у--М[*%-*х]-£

Ъ; Эу.

(fZ.io)

 

 

 

 

 

<Г1

 

 

Сравнивая

(12.8)

и

(12.10),

получим

 

 

 

 

 

 

 

 

Іші>

Сравнивая

(12.9)

и

(12.I I ) ,

получим

 

 

 

 

 

 

 

<а а )

Это количество информации может быть любого знака'; Если

после приема

сообщения 0^

вероятность рассматриваемого состо­

яния p(Xb/ifj) увеличивается по сравнению с априорной

вероятно­

стью рч , то

частное количество информации положительно. Ес­

ли вероятность

состояния уменьшается после получения

сообщения,

то частное количество информации отрицательно. На

вычислении

максимального отношения

основан один

из способов

выбора переданного сообщения по принятому сообщению при пере­ даче инфорыации с помехами. Выбирается такое сообщение Хс , для которого величина максимальна.

Рассмотрим свойства выражения (12.I I ) . Воспользуемся нера­ венством

 

вп.а,^

/ - о .

при а.-?О.

Величина

Ж

как

отношение вероятностей положительна,

 

Р(*г./%)

 

 

поэтому можно записать

 

 

Рс

і -

Р»

 

Р Ж /& )

( и . ъ )

59

или

 

Pc,

' Р (Ъ Ш

Шд)

 

 

Подставляя (12.13) в (12.I I ) , получим

 

Ч -X *

~

Г

Рс

^

РІХо/% )/ р(Хі

- ^

е[^Р о -

P te /to fto p fr - *]=°-

Следовательно,

частное количество

информации

неотрица­

тельно. Любое

принятое сообщение не увеличивает неопределенно­

сти источника

информации.

 

 

 

Среднее количество информации (12.10) как математическое ожидание неотрицательных величин также неотрицательно. Несмот­ ря на действие помех информация монет быть передана.

Согласно (1 2 .I)

 

Н(Х/У)< Н(Х. ) .

(Л.П)

Условная энтропия системы не может быть больше априорной энтро­ пии. Этим доказано предположение (6 .10).

§13. Пропускная способность дискретного канала связи с помехами. Согласование источника

иканала связи

Помехи в канале связи создают ситуацию, при которой на первый взгляд невозможна передача информации. Искажение пере­ даваемого сигнала случайно. Приняв сигнал, мы точно не знаем, какой сигнал был передан. Поэтому после декодирования принятой кодовой комбинации нет уверенности в правильности принятого со­ общения. Однако 1согласно результатам предыдущего параграфа, пе редача информации при помехах возможна. Это можно подтвердить и рядом простых примеров. Наличие ошибочных букв в полученной те­ леграмме большей частью позволяет правильно восстановить пере­ данное сообщение. Это возможно из-за избыточности языкового текста. При отсутствии помех примерно половина букв в тексте

60

лишняя. Она может быть убрана и текст будет понят. Однако если полностью устранить избыточность (лишние буквы) и передавать предельно сокращенный текст, то ошибка в любой букве сделает невозможным прием всего текста..

Рассмотрим другой пример. Пусть принятые сообщения о пара­

метре объекта в дискретные моменты времени имеют

вид, показан­

ный на рис. 13.I .

Можно полагать,

что в моменты времени

и

действовала

помехами принятые

в эти моменты

сообщения дол­

жны быть исправлены. Зто можно сделать, например, интерполяци­ ей. Здесь передача информации возможна также благодаря избыточ­ ности. Видно, что при отсутствии помех сообщения можно было бы передавать реже.

Многократное повторение передачи одного сигнала также по­ нижает вероятность ошибки и повышает вероятность правильного приема сигнала. Таким образом, здесь избыточность помогает борь­ бе с помехами. Однако для бесконечно малой вероятности ошибки необходима бесконечно большая избыточность. Тогдаскорость пере­ дачи информации будет бесконечно малой»и информация также не может быть передана. Покажем, что это рассуждение неверно.

Каждый канал связи характеризуется своей скоростью передачи информации.

Пусть H'(Z)- скорость изменения энтропии передатчика. При сигналах передатчика равной длительности имеем

61

H'(Z

(ы )

где Н(Ю- энтропия передатчика на один сигнал, определяе­ мая вероятностями состояний источника и системой кодирования;

“ZT - длительность одного сигнала.

Каждый сигнал передатчика передает согласно (12Л ) коли­ чество информации

 

 

 

= Н(2) - H (i/W ),

(кл)

где

 

H(Z/W)~ величина потери информации,

зависящая от

 

 

 

статистических характеристик сигнала и по­

 

 

 

мехи.

 

 

 

Такое количество информации "недодается" каждым сигналом

из-за действия помех.

 

 

 

Для скорости

передачи информации имеем

 

 

н ' И М

w =н 'Ш

(zw )*

^

где

- количество

потерянной из-за

помех информа-

 

 

■ ции в единицу времени.

 

 

Максимально достижимая в данном канале связи скорость пе­

редачи информации называется пропускной способностью канала

связи

и определяется следующим образом:

 

 

 

4 =

ггѵСох[н '(Z)-H '(z/w ) У <

( / 3.4

 

К.Шенноном была доказана

 

а

 

следующая теорема. Пусть дискрет­

ный канал связи с помехами обладает пропускной способностью

Сt i »

а дискретный источник

информации - скоростью изменения

энтропии

Н'(Х). Если Н'(X)^ Cfi , то существует такая систе­

ма кодирования, которая позволяет все сообщения источника пѳрет дать по каналу связи со сколь угодно малой ненадежностью///!^/}/.

Если Н'(Х) '"Сrit то не существует системы кодирования, обес­ печивающей ненадежность, меньшую, чем Н'(Х)~Сп. «

Эта теорема здесь приводится без доказательства, главным образом потому, что способ доказательства не указывает системы

62

кодирования. Система кодирования, пригодная для передачи инфор­ мации при любом виде помех, до сих пор не найдена, несмотря на утверждение теоремы. Однако значение теоремы Шеннона очень ве­ лико. Показана принципиальная возможность передачи информации при помехах, и указываются продельные потребные характеристики канала связи, необходимые для этой передачи, не подтверждаетсяинтуитивное представление о необходимости бесконечно большой избыточности для повышения достоверности. Для некоторых видов помехи задача в настоящее время решена и система кодирования найдена;

Подчеркнем, что в отличие от канала без помех здесь важно не только успеть передать все сообщения. Для этого было бы до­ статочно соотношения

н (х )< с ^/п £ и сн { г). (as)

Важно успеть принять все сообщения без искажения, а для этого необходимо соотношение

H 'fK j& C aBm aafc'fehH 'tè/vr)]' (*&

Из сравнения (13.5) и (13.б) видно, какую избыточность следует вводить для канала с помехами. Эта избыточность используется при построении системы кодирования.

Рассмотрим пример вычисления пропускной способности кана­ ла связи с помехами. Пусть имеется передатчик с двумя сигнала­

ми гГу и Ид

равной длительности.

Т

. Действие помехи при­

водит к тому, что каждый из сигналов с

вероятностью ju*

при -

нимается неверно и с вероятностью I

- JUL,

принимается верно

(рис. 13 .2).

 

 

 

 

Для определения

 

 

 

 

 

/ -

/

Jr*

*

пропускной способности

X

выбираем выражение

 

 

£ = y£-max[H(W)-H(WM)]'

W )

 

 

 

Wj

/ - /

Рис. 13.2

63

Модель помех описывается табл. 13.I условных вероятностей Pftij/Zi} . Найдем частные условные энтропии. Имеем

H(WM

Таблица 13.I

1

z

.

ьГі

 

A

bTz

JLL

*~A

fyju

В обоих случаях ( Z =%f

и £ - %х ) значения Н(У/х.^) одинаковы, поэтому средняя условная энтропия равна

H(w/z)~-/ueo<jju-

- Ü -ßM )-io $ (i-/ll)^< l(ju), 05.8)

где оС(fil) - используемое далее обозначение.

При определении пропускной способности необходимо найти максимум выражения (13.7). Характеристика помехи ߣ считается заданной и не варьируется. Для энтропии приемника H(w) как системы с двумя состояниями имеем

rrubxH(W)- 1<fcr. (/3.9;

Следовательно, пропускная способность

05.10)

Скорость передачи информации равна пропускной способности, ког­

да выполняется условие (13.9), т .е , принимаемые

сигналы

^

и

Ыг равновероятны. Из симметрии помехи (рис. 13.2) следует,

 

что это выполняется, когда

передаваемые

сигналы

и

рав­

новероятны. Но из этого не

следует,

что

в данном случае монет

 

быть использован код Фано.

На рис.

13.3

показана

зависимость

 

пропускной способности от условной вероятности искажения

jU. .

При ja = 0,5 передача информации в

системе нѳвоамонна (

Сц-0 ).

Помеха такова, что сигнал с равной вероятностью может быть при­ нят правильно и неправильно. Канал связи можно заменить схемой, когда телеграфист подбрасывает монету, при выпадении "герба"

вписывается

в приемный бланк

 

£ , , а

при

выпадении

"решетки"

-

.

Когда

/ с

) 0

,5 ,

монно пытаться

искать

систему

кодирования,

которая

должна учитывать,

что

при

^ * -0 ,5 более

64

вероятно решение о правильном приеме, а при jic> 0,5 - о не­ правильном.

§ 14. Понятие об обнаруживающем и корректирующем кодах

Некоторые модели помех позволяют построить систему кодиро­ вания, обеспечивающую согласование источника и канала связи в полном соответствии с теоремой о пропускной способности. Рас­ смотрим следующий пример. В бинарном канале связи (передатчик передает два сигнала 0 и I ) помехи таковы, что из трех последо­ вательно передаваемых сигналов монет исказиться только одиіиТри вероятности искажения любого из трех сигналов и вероятность правильной передачи равны. Определим пропускную способность та­ кого канала. Для удобства в качестве сигнала передатчика примам трѳхраарядную кодовую комбинацию. Тогда будем иметь восемь пе­

редаваемых сигналов

Zf ,

. . .

,

Z f

(000,

001, . . . ,

I I I ) и во­

семь принимаемых сигналов

uff ,

. . .

,

Условные

вероятно­

сти

/ Z-i) , записанные в. соответствии

с принятой моделью

помех, приведены в табл. 14.I ;

 

 

 

 

 

 

Пропускную способность канала будем вычислять по формуле

 

 

Сл=

т лх [н (и ) - H(W/Z)],

(rt.i)

где

- время передачи

трех

сигналов передатчика.

 

 

Частные

условные энтропии Н(і/ / х і )

д л я любого

, как

это

видно из

табл.

14 .I ,

будут

 

одинаковы:

 

 

65

H(wMc)= - £ р(г$/Ъ)6$рЩ /*г)=-4-~~Лу£=ЪГит .

 

 

 

 

 

 

Таблица 14-,I

 

 

000

001

010

он

100

ІОІ

по

іи

000

ІА

ІА

іА

■ 0

іА

0

0.

0

001

ІА

ІА

0

іА

0

іА

0

0

010

ІА

0

іА

іА

0

0

іА

0

он

0

іА

ІА

іА

0

0

0

іА

100

ІА

0

0

0

ІА

ІА

ІА

0

ІОІ

0

ІА

0

0

іА

ІА

0

іА

но

0

0

ІА

0

іА

0

іА

ІА

III

0

0

0

іА '

0

ІА

іА

ІА

P ( * /j/Z i)

Следовательно, средняя условная энтропия приеиника

H (w {zh ld U T .

Для определения пропускной способности необходимо найти m axH (W ). Учитывая, что принимается восемь разных сигналов,

имеем

fno*3e.H(w) = &xj£-d<fur .

Следовательно, пропускная способность канала

Г -

m abH {W )-H (W fe} -

/

Lri~

~

'Ѵ '

При отсутствии помех пропускная способность этого канала была

у, mcbX.H(W)_ з

С ~

ZT

~ Ъ 4

66

Помехи втрое уменьшили пропускную способность. Хотя техни­

ческая скорость передачи сигналов от помех естественно не за­ висит, необходимо передавать сообщения источника втрое медлен­ нее. Избыточные сигналы передатчика используем следующим обра­ зом. Закодируем сообщения оптимальным неравномерным кодом. На­ зовем сигналы, необходимые для этого, информационными и обозна­ чим их через ct . При передаче по линии связи после каждого информационного сигнала будем передавать еще два контрольных сигнала еі и 6ХѣЭти сигналы выберем так, чтобы суммы

s ^ c , + e i t

Sj.—C1+

были четными.

При приеме сообщения обе суммы проверяются на четность. Из трех сигналов Сі , С, , может быть неправильно пере­ дан только один. Поэтому в случае нечетности сумм ошибка обна­ руживается и исправляется (корректируется) согласно правилам, указанным в табл. 14.2. По существу этот код с проверкой на четность сводится к трехкратному дублированию передачи инфор­

мационного

сигнала.

Таблица 14.2

Рассмотрим не­

 

 

Л

 

 

Неправильно

которые общие

прин­

 

 

передан сигнал

ципы использования

четно

четно

 

-

избыточности

при

нечетно

четно

 

 

составлении двоич­

 

 

ных помехоустойчи­

четно

нечетно

 

 

 

С4

вых кодов. Пусть

нечетно

нечетно

 

 

 

 

 

имеется 2 *

сооб­

 

 

 

 

щений, для кодиро­

 

 

 

 

вания которых до -

статочно составить кодовые

комбинации из К

сигналов передат­

чика. Составляются п,

разрядные комбинации,

причем пт-к , а

число комбинаций равно

2 Л

. Таким образом

вносится избыточ­

ность. Ііы используем более длинные кодовые комбинации. Величи­ на избыточности кода

6?

 

 

 

А =

rt-K

 

(м л )

 

 

 

гъ

 

Кз

Zn

комбинаций

выбираются для

кодирования

сообщений

2 * кодовых

комбинаций,

которые могут

быть переданы

по каналу

связи.

Эти

комбинации называются разрешенными. ОстальныеZ-ZK

комбинаций

не передаются

и называются запрещенными.

В общем

случае помех, передавая только разрешенные комбинации, возмок-

но принять

любую из

Z комбинаций

 

(рис. І 4 Л ), т .ѳ .

всего воз­

можно

Z* х

случаев передачи. В

это число

входит:

ZH слу­

чаев

безошибочного

приема (сплошные

линии);

Z K’(ZK-i) случа­

ев перехода в другие разрешенные комбинации (пунктирные линии), что соответствует необнарукиваемым ошибкам; ~£к)спуча- ев перехода в запрещенные комбинации, что соответствует обна­ руживаемым ошибкам.

Следовательно, часть опознанных ошибок от общего числа случаев передачи составляет

2 к(2'ь-2*) z Kz n-

 

 

 

Рассмотрим,

окалько

ошибок

 

 

 

может быть

исправлено (скоррек­

 

 

 

тировано).

Все Z n комбинаций

 

 

9

разбиваются

на 2* групп. Каж­

 

 

 

 

 

 

дой разрешенной комбинации при­

 

 

 

писывается своя группа. Если ком­

 

 

 

бинация после передачи искажает­

 

 

 

ся так, что

попадает в свою груп­

 

 

О)

пу, ошибка корректируется. В про­

 

 

тивном случае она либо обнаружи­

 

 

 

 

Рис. 14 .I

 

вается, либо нет, как было пока­

 

 

зано ранее.

Таким

образом, в

 

 

 

Z K

случаях ошибка

коррек­

тируется

(мы имеем

Z Kслучаев безошибочной передачи).

Следова­

тельно,

любой код с

избыточностью может быть обнаруживающим и

корректирующим.

Некоторые элементарные понятия о построении кода могут быть показаны с помощью геометрической интерпретации. Любая

68

Соседние файлы в папке книги из ГПНТБ