Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы дальней связи

..pdf
Скачиваний:
4
Добавлен:
12.11.2023
Размер:
2.63 Mб
Скачать

Правая часть

этого неравенства

 

- £

K)log22 "'<+ £

P (tu ) logt £ 2~"'r=

/■=1

/~1

r - 1

(11.2.3)

 

 

S Д 5 п )= 1 .

С учетом выражения (H.1.4)

получим, что

 

 

L

 

 

 

log,

£

2 - " '< l o g t l= 0 .

 

 

r--i

 

 

Но

если

 

 

 

 

S р ( ^ ) - / и / + д > т

 

L

 

 

 

где

Д = log2 £ 2 Шг >

0,

то

тем более справедливо нера-

 

r=i

 

 

 

венство

 

 

 

 

ср

i - 1

(И.2.4)

 

 

 

Т. е. средняя длина кодограмм не может быть меньше ее сред­

ней энтропии. Знак равенства достигается, если Р(Ци) = 2 " т<* так как в данном случае

Щ ) =

-

£

^ l o

g

, 2 :- " i =

£

Р(1и )

т ~

т ср.

 

 

1

 

 

г •

I

 

 

При этом средняя длина кодограмм

 

оказывается

минималь­

ной.

 

 

 

 

 

 

 

 

 

Обычно

вероятности

Р(ё,) не являются

целочисленными

отрицательными

степенями

двух. Поэтому

при рассмотрен­

ном выше обычном посимвольном способе кодирования нижняя граница минимальной длины кодограмм не достига­

ется. Однако если использовать так называемое крупно­ блочное кодирование, то можно подойти к этой границе как угодно близко.

Суть данного способа кодирования заключается в том, что вся последовательность из п элементов сообщения разбивает­ ся на блоки по к элементов. Если каждый элемент является случайной выборкой из Ь символов алфавита, то, рассмат­ ривая каждый блок как сообщение из К элементов, можно заключить, что возможное число блоков будет равно LK. Если все элементы блока независимы, то в соответствии с выражением (II.2.3) энтропия блока

 

 

 

 

 

 

 

(Н-2.5)

где //(£ )—энтропия

кодограммы.

 

 

 

Пусть вероятность у-го

блока

будет

равна Р(;у),

а его

длина

составляет т } двоичных посылок.

Определим

целые

числа

т }

таким, например,

неравенством:

 

 

 

 

- l o g 2P ( Ê ,K m ,< - to g 2P(Êy)-H .

(11.2.6)

Согласно

теореме Крафта

 

 

 

 

 

 

LK

 

L*

 

 

 

 

2

2~"V

^ 1 =

2 Р(Ё,),

 

а в соответствии с выражением (11.2.4) средняя длина блока удовлетворяет неравенству /яу > Я к(£). Раз справедливо вы­

ражение (II.2.6), то имеем Н к(\) + 1 или с уче­ том (11.2.5)

А •//(?)*£ от,-<ЛГЯ(£)+1.

(11.2.7)

Деля данное выражение на К, получим

 

Я(6)=

/пу< Я(-) + -^ -.

 

Тогда

 

 

Нш A rm j= m cp=H(X),

(11.2.8)

К-* х ^

т.е. средняя длина кодограммы стремится к ее энтропии. Таким образом, доказана фундаментальная теорема о ко­

дировании' при отсутствии помех, которая в формулировке К. Шеннона гласит: при кодировании сообщений источника с некоррелированным алфавитом и отсутствии шума средняя

длина кодограммы не может быть меньше ее энтропии; ниж­ няя граница достигается, если вероятности кодограмм явля­ ются целочисленными отрицательными степенями двух; в про­ тивном случае близкое достижение этой границы возможно при кодировании достаточно длинными блоками.

Равенство Н(Ч) — т ср говорит о том, что среднее на 1 кодограмму количество информации, действительно, пере­ носится двоичными посылками. Другими словами, одна двоичная посылка,- способная переносить 1 дв. ед. информа­

ции, в среднем не переносит „лишней" информации.

В тон*

случае, когда Н(1)<Стср, каждая посылка

переносит в сред­

нем

больше

информации,

чем это требуется. Поэтому коды*

для

которых

т ср-ъН{$),

можно

отнести к разряду

оптй-

мальных.

 

 

 

 

 

При использовании оптимального кода действи+ельнай

скорость передачи информации

 

 

 

 

 

= - т т ер= 4 -

Я(^) = ^ ,

(Н.2,9)

т. е.

равна

необходимой.

В частности,

если v a -*C,

то й

vud

-*С. Таким образом,действительная

скорость передачи

может сколь угодно приближаться к пропускной способно­ сти канала. Для этого, например, необходимо, чтобы алфа­ вит входных сигналов имел равномерное распределение символов, как это_ следует из выражения (II.5.7). Поэтому оптимальные в указанном смысле коды получили название эффективных.

Рассмотренная теорема касалась источников с некоррели­ рованным алфавитом. Можно показать, что при кодировании сообщений марковских источников существует код, для кото­ рого

Н 2(\) К шс„ < Н,(<) + 1,

(Н.2.10)

где //,(;) учитывает корреляцию символов. Если имеем про­ извольный источник с коррелированным алфавитом, то оп­ тимальный код может быть построен с использованием крупноблочного кодирования, если известны условные и безусловные вероятности символов.

Предположим теперь, что для передачи непрерывных сиг­ налов используется гауссов канал с пропускной способно­ стью, определяемой выражением (1.5.15). Это выражение по­ лучено при условии, что как полезный сигнал, так и помеха имеют нормальную плотность распределения. Отсюда следует,

что, если осуществить такое непрерывное кодирование исход­ ных низкочастотных сигналов (т|), при котором линейные сигналы [U] будут нормально распределены и будут иметь равномерный спектр в полосе A/*, то можно вести пере­ дачу со скоростью, сколь угодно близкой к пропускной способности канала.

§II. 3. ПЕРВАЯ ТЕОРЕМА ШЕННОНА

ОКОДИРОВАНИИ В КАНАЛАХ

С ПОМЕХАМИ

Пусть по двоичному каналу передается бинарная последо­ вательность из п элементарных посылок £Д7) длительно­ стью т0 каждая. Будем считать, что все элементы последо­ вательности независимы, а сама она является эргодическим

случайным дискретным

процессом.

Если энтропия на один

элемент равна Н (\),

то общее

число реализаций

 

 

 

 

(Н.3.1)

Если производительность

бинарного

источника

v „ .u = Jr m

= C = - ? r

H ( tU x= - £ - lo g ,,2 = - f ,

то за время, равное длительности одной элементарной посыл­ ки, будет передано

7(т0)=С --:0- х 0 !-■

- Ь tf($)fflax =

Я (;)тах =

1 дв. ед.

информа-

ции. Если

Ч)

 

1

 

источника

vn u < С , то

за то

производительность

же время

будет

передано

/(т0) =

г»п

Я (-) < 7/(S)max.

Тогда

действительное количество

реализаций,

которое мо­

жет быть

передано

при такой

производительности

источ­

ника,.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2л /ы <

2я" (Е)тах.

 

 

 

(II.3.2)

Если в канале действуют помехи, то некоторые из элемен­

тов каждой реализации будут искажены.

Д ля простоты счи­

тается, что между последовательными ошибками

 

не сущест­

вует корреляции.

 

 

 

 

 

 

 

 

 

 

Пусть энтропия на 1 элемент принимаемой последователь­

ности

равна //(;')•

Наличие

помех

приводит

к

тому, что

после

наблюдения

 

посылки

(t )

у

получателя

остается

конечная доля неопределенности относительно переданной посылки $,(<), равная апостериорной энтропии //(£/£'). Поэто­ му каждая принимаемая последовательность из общего чис­

ла 2яЯ(Е ’ может рассматриваться

как одна из

2яЯ<Е/Е) воз­

можно переданных. В частности,

если

то каждой

принятой последовательности соответствует количество по­

следовательностей 2°=1, действительно переданное. Наобо­

рот, если Н(% ;')= Я ($ ), то

каждая принятая последователь­

ность

может

рассматриваться как

одна' из

2яЯ(Е)

передава­

емых.

Т. е. необходимым

и достаточным

условием ошибки

является

неравенство 2яЯ(£/:,|> 1,

при котором вероятность

ошибки

равна

вероятности

того,

что принятую

последова­

тельность можно рассматривать как более чем одну от­

правляемую.

 

 

 

 

 

Поскольку реальное число

отправляемых

последователь­

ностей 2я/l"", составляет только часть общего

числа 2яЯ(5,п,ах>

то вероятность

того, что

данная

отправляемая последова­

тельность действительно

относится к разряду

используемых

(рабочих), будет

равна

 

 

 

 

 

2Я/(Т,)

_gn|/(V 7/(£)та«1

(11*3.3)

 

2,1^(н)тах

 

 

 

 

 

 

Следовательно, вероятность того,

что отправляемая последо­

вательность не принадлежит к рабочей группе, будет равна

 

j l _2л[/(То)

^ ^ тах1)

(И.3.4)

Как уже отмечалось, принятому сигналу при наличии по­ мех может соответствовать 2яЯ(е/51 передаваемых, причем, если ни один из этих сигналов (кроме одного, действитель­ но переданного) не относится к рабочей группе, то ошиб­ ки не произойдет. Вероятность этой ситуации, очевидно, будет равна

 

(11.3.5)

если пренебречь

одним случаем из 2 ' ’, когда пере­

дается действительная последовательность.

Если vnM < С ,

то имеем:

1 Ы = vn.a ъ < V т° [ а д « « ~ н ( т )]■.

(Н.3.6)

Другими словами,

для

некоторого А > 0 справедливо

равен­

ство

 

 

 

 

 

1 Ы - # (« )„»

= н ( т ) - А-

 

(И-3 -7)

Подставив это выражение в формулу (И.3.5),

получим

Я = {1 _ 2 л|" (£Д',+л|Г * <ЕД’ •

 

(И.3.8)

Прологарифмируем обе

части

этого выражения и перейдем

к пределу при

оо:

 

 

 

 

lim 1 п Р = |1 т 2 '" “,!'’

1т1 ( 1 - 2 “

=

 

П -• ОО

П + ОО

 

 

 

 

=

lim

 

 

 

(11.3.9)

 

п - ОС

 

 

 

 

=

lim

rf

n—яЯ(Е/Е')

 

 

П~ то

 

 

 

 

</я

 

 

 

Найдем необходимые производные:

 

 

^•1п {1 - 2 " |W,5/î',+a|

2-nl//(tA')+Al

 

 

 

In 2 [ //( - £ - ) + д ];

 

 

j_2-n|«(£A')+4|

 

 

 

d 0 -я//(Е/Е') _ n-nHW )

 

 

d n Z

 

*

 

 

Подставий эти значения в формулу (II.3.9), получим:

 

lim In P = lim —

 

2—1,4

(11.3.10)

^ T j

 

 

~

(1_ 2- л'Я(5/Е',+ д1

 

Но раз предел

логарифма

Р равен 0, то

lim P =

1, т. е.

 

 

 

Я- оо

 

при достаточно большом п вероятность ошибочного приема может быть доведена до сколь угодно малой величины. Таким образом, можно констатировать следующее: если производительность источника меньше пропускной способ­ ности канала с помехами, то существует код, при котором вероятность ошибки на приеме будет сколь угодно малой.

Выражение (II.3.10) справедливо для любой, даже очень малой величины Д, т. е. при любом приближении vnM к С.

Поэтому приведенную выше формулировку можно усилить: если производительность источника в шумящем канале без памяти не превышает его пропускной способное» и, то су­ ществует код, при котором вероятность ошибки на приеме будет сколь угодно малой.

Так формулируется первая теорема Шеннона о кодиро­ вании в присутствии помех.

Следует отметить, что указанная теорема справедлива не только для двоичного, но и для любого дискретного канала без памяти.

$ II. 4 ВТОРАЯ ТЕОРЕМА ШЕННОНА О КОДИРОВАНИИ В ПРИСУТСТВИИ ПОМЕХ

Первая теорема Шеннона указывает на существование ко­ да, обеспечивающего произвольную малость вероятности ошибки, но не дает никаких рекомендаций относительно ал­

горитма

(т. е. способа)

построения такого кода.

В то же вре­

мя

при

реализации

того

или

иного

алгоритма

 

может ока­

заться,

что из

последовательности

п двоичных

элементов,

составляющих

то или

иное

сообщение, только

часть мо­

жет

использоваться для

передачи

информации,

а

осталь­

ная

часть будет

служить

для обеспечения заданной

веро­

ятности

ошибки.

При

этом

скорость передачи

информа­

ции

v lt

может

оказаться меньше

скорости

ее

создания,

т. е. производительности источника

v n u. С усилением

требо­

вания относительно минимально допустимой величины веро­ ятности ошибки действительная скорость передачи инфор­ мации. казалось бы, должна стремиться к 0, так как при этом фактически все п элементов должны выполнять функ­ ции корректирования ошибок. Тогда вывод первой теоремы теряет какой-либо практический смысл. Однако это не так.

Пусть получатель наблюдает элемент ; (£), гдеу= 1,2,3,...,А.

Д ля того, чтобы установить, какая именно посылка была передана, необходимо сначала определить, была ли вообще совершена ошибка при передаче данного элемента. Вели вероятность ошибки есть Р 0, то количество информации, необходимое для ее обнаружения, составит

/(Р 0; ( 1 - Р 0)|= Л /[Р 0; ( 1 - Р 0) ] -

- - P 0log2P 0- ( l - P 0)log2( l- P * ) .

(11.4.1)

Если обнаружилось, что ошибка совершена, то нужно устано­

вить, какой

именно из

(L —1) оставшихся

символов

был

действительно передан.

Согласно

определению количества

информации

по

Хартли, для этого

необходимо

количество

информации,

равное log2(Z, —1). Но так как

выполнять

эту

операцию нужно' всякий раз, когда

возникает

ошибка,

т. е.

с вероятностью

Р 0, то

среднее

количество

 

информации,

необходимое

для

решения 2-й задачи, составит

 

 

 

 

P 0 / / ( £ - l ) = P 0log2( I - l ) . .

 

(И.4.2)

Т. е. для того, чтобы установить, какой именно элемент ;Д 0 был передан, если наблюдается элемент (t ), необходимо в среднем

H [P 0( \ - P n)} + P tH ( L - D = - P n log2P „ -

- (1 - />o)!og,(l - P o R P o l o g ^ - l )

(H.4,3)

дв. ед. информации. Это количество информации должно быть достаточным, чтобы убрать оставшуюся неопределенность после наблюдения \} (t). Поэтому является справедливым неравенство

M - f ) < Яо 1о& Р » ~ ( 1~ R )lo g 2( l - P 0) + P 0log2( Z .- 1 ), (И.4.4)

называемое неравенством Фэно.

Оно может быть отнесено, конечно, не только к отдельным

элементам

сообщения, но и к сигналам любой длины. При

этом

под Н п (-4-)

можно

понимать апостериорную неопре­

деленность

отправленной

последовательности. Р 0—вероят­

ность

ошибочного

приема всей этой последовательности,

L —количество реализаций, высоковероятной группы N e. Если теперь принять во внимание условия первой теоремы Шеннона, из которой следует, что Р,,<4, где е—сколь угодно малое положительное число, то справедливыми будут следующие неравенства:

e lo g îS ^ - ^ O g îO - e H - s lo g a O V e - l) - 1 Ь

+ г log-,(iV„ - 1 ) < Н - в• л/У ф .

(11.4.5)

В данном случае учитывается, что

 

е log, (We- 1 ) = s •«//($),

(Н.4.6)

поскольку для определения того, какая из (N , — 1) после* довательностей была передана, нужно иметь па приеме эту последовательность, которая несет примерно пЛ/(Ь) дв. ед. информации. Разделив обе части выражения (И.4.5) на я, по­ лучим

(П.4.7)

Таким образом, при п -*■оо апостериорная энтропия на сим-

вол

скорость передачи информации, в со­

ответствии с выражением (1.2.11), равна

(II.4.8)

поэтому при п со

(II.4.9)

Полученный результат позволяет сформулировать вторую теорему Шеннона для кодирования в условиях воздействия помех; при условии v„.u< С среди кодов, обеспечивающих

сколь

угодно

малую вероятность

ошибки, существует код,

для которого

скорость передачи

информации сколь угодно

близка

к производительности источника.

Обе теоремы пЬсле этого можно объединить в одну общую, сформулировав ее следующим образом: если скорость переда­ чи информации в шумящем канале без памяти не превышает его пропускной способности, то существует код, при котором вероятность ошибки на приеме будет сколь угодно малой.

Отсюда следует более строгое определение пропускной спо­ собности: пропускной способностью называется предельная скорость передачи информации, для которой еще обеспечива­ ется сколь угодно малая вероятность ошибки.

Вторая теорема, как и первая, не дает никаких рекоменда­ ций относительно алгоритма построения, оптимального в ука­ занном смысле кода, за исключением того, что с увеличени­ ем п ее утверждение становится все более справедливым. Практически еще не найден алгоритм кода, реализующего тео­ ретические пределы величин е и Uu. Более того, использо­ вание очень длинных кодограмм сопряжено со значитель­ ным усложнением кодирующих устройств и увеличением

задержки получения информации на приемном конце систе­ мы связи. Поэтому важное значение приобретает вопрос о граничных значениях вероятности ошибки при кодировании блоками не очень большой длины. Эди оценки приведены в ряде исследований и хорошо согласуются с теоремами.

.Оказалось, например, что для минимальной вероятности ошибки, которую можно обеспечить при кодировании блоками длины по, могут быть указаны ^верхний и нижний пределы.

к.у 2 -"А s £ $ s £ k 1-2 - "*'\

 

(11.4.10)

Здесь коэффициенты к, и к.,

слабо зависят

от

я0; Ех и

Ег

являются функциями

v n u и С и не зависят

от я 0. Они

по­

ложительны при v nu

< С

и равны нулю

при

Un u —

С.

С увеличением vn u они уменьшаются, что вполне соответ­

ствует интуитивным представлениям: вероятность ошибки при увеличении производительности источника должна воз­ растать. При я - * о о е - * 0 , что согласуется с первой и вто­ рой теоремами Шеннона о кодировании в присутствии помех.

§ 11.5. ОБРАТНАЯ ТЕОРЕМА ШЕННОНА ДЛЯ КАНАЛОВ С ПОМЕХАМИ

Предположим, что к входу канала с пропускной способно­ стью С подключен источник с производительностью vn u > С. Возникает вопрос: что при этом произойдет с ве­

роятностью ошибки?

 

 

В соответствии

с выражением

(II.4.5)

апостериорная эн­

тропия

 

 

 

Н „ ( т )

« si + Ро

- 1 ).

(11.5.1 )

В силу фундаментального свойства Е для эргодических диск­

ретных

прОЦеССОВ При П

оо

 

 

 

Н„(Ь) =

log, Ne.

(11.5.2)

Тогда

имеем

 

 

 

 

H n( j ) *£ Нп{-)

+ 1

-f Р„ log2 (N, -

1 ).

или

 

 

 

 

 

UH-n-x0 > log, jV, —

1 — Р 0 logi(N t —\),