книги / Основы дальней связи
..pdfПравая часть |
этого неравенства |
|
- £ |
K)log22 "'<+ £ |
P (tu ) logt £ 2~"'r= |
/■=1 |
/~1 |
r - 1 |
(11.2.3)
|
|
S Д 5 п )= 1 . |
||
С учетом выражения (H.1.4) |
получим, что |
|||
|
|
L |
|
|
|
log, |
£ |
2 - " '< l o g t l= 0 . |
|
|
|
r--i |
|
|
Но |
если |
|
|
|
|
S р ( ^ ) - / и / + д > т |
|||
|
L |
|
|
|
где |
Д = log2 £ 2 Шг > |
0, |
то |
тем более справедливо нера- |
|
r=i |
|
|
|
венство |
|
|
|
|
|
ср |
i - 1 |
(И.2.4) |
|
|
|
|
Т. е. средняя длина кодограмм не может быть меньше ее сред
ней энтропии. Знак равенства достигается, если Р(Ци) = 2 " т<* так как в данном случае
Щ ) = |
- |
£ |
^ l o |
g |
, 2 :- " i = |
£ |
Р(1и ) |
т ~ |
т ср. |
|
|
‘ |
1 |
|
|
г • |
I |
|
|
При этом средняя длина кодограмм |
|
оказывается |
минималь |
||||||
ной. |
|
|
|
|
|
|
|
|
|
Обычно |
вероятности |
Р(ё,) не являются |
целочисленными |
||||||
отрицательными |
степенями |
двух. Поэтому |
при рассмотрен |
ном выше обычном посимвольном способе кодирования нижняя граница минимальной длины кодограмм не достига
ется. Однако если использовать так называемое крупно блочное кодирование, то можно подойти к этой границе как угодно близко.
Суть данного способа кодирования заключается в том, что вся последовательность из п элементов сообщения разбивает ся на блоки по к элементов. Если каждый элемент является случайной выборкой из Ь символов алфавита, то, рассмат ривая каждый блок как сообщение из К элементов, можно заключить, что возможное число блоков будет равно LK. Если все элементы блока независимы, то в соответствии с выражением (II.2.3) энтропия блока
|
|
|
|
|
|
|
(Н-2.5) |
где //(£ )—энтропия |
кодограммы. |
|
|
|
|||
Пусть вероятность у-го |
блока |
будет |
равна Р(;у), |
а его |
|||
длина |
составляет т } двоичных посылок. |
Определим |
целые |
||||
числа |
т } |
таким, например, |
неравенством: |
|
|
||
|
|
- l o g 2P ( Ê ,K m ,< - to g 2P(Êy)-H . |
(11.2.6) |
||||
Согласно |
теореме Крафта |
|
|
|
|
||
|
|
LK |
|
L* |
|
|
|
|
|
2 |
2~"V |
^ 1 = |
2 Р(Ё,), |
|
а в соответствии с выражением (11.2.4) средняя длина блока удовлетворяет неравенству /яу > Я к(£). Раз справедливо вы
ражение (II.2.6), то имеем Н к(\) + 1 или с уче том (11.2.5)
А •//(?)*£ от,-<ЛГЯ(£)+1. |
(11.2.7) |
|
Деля данное выражение на К, получим |
|
|
Я(6)= |
/пу< Я(-) + -^ -. |
|
Тогда |
|
|
Нш A rm j= m cp=H(X), |
(11.2.8) |
К-* х ^
т.е. средняя длина кодограммы стремится к ее энтропии. Таким образом, доказана фундаментальная теорема о ко
дировании' при отсутствии помех, которая в формулировке К. Шеннона гласит: при кодировании сообщений источника с некоррелированным алфавитом и отсутствии шума средняя
длина кодограммы не может быть меньше ее энтропии; ниж няя граница достигается, если вероятности кодограмм явля ются целочисленными отрицательными степенями двух; в про тивном случае близкое достижение этой границы возможно при кодировании достаточно длинными блоками.
Равенство Н(Ч) — т ср говорит о том, что среднее на 1 кодограмму количество информации, действительно, пере носится двоичными посылками. Другими словами, одна двоичная посылка,- способная переносить 1 дв. ед. информа
ции, в среднем не переносит „лишней" информации. |
В тон* |
|||||
случае, когда Н(1)<Стср, каждая посылка |
переносит в сред |
|||||
нем |
больше |
информации, |
чем это требуется. Поэтому коды* |
|||
для |
которых |
т ср-ъН{$), |
можно |
отнести к разряду |
оптй- |
|
мальных. |
|
|
|
|
|
|
При использовании оптимального кода действи+ельнай |
||||||
скорость передачи информации |
|
|
|
|||
|
|
= - т т ер= 4 - |
Я(^) = ^ , |
(Н.2,9) |
||
т. е. |
равна |
необходимой. |
В частности, |
если v a -*C, |
то й |
|
vud |
-*С. Таким образом,действительная |
скорость передачи |
может сколь угодно приближаться к пропускной способно сти канала. Для этого, например, необходимо, чтобы алфа вит входных сигналов имел равномерное распределение символов, как это_ следует из выражения (II.5.7). Поэтому оптимальные в указанном смысле коды получили название эффективных.
Рассмотренная теорема касалась источников с некоррели рованным алфавитом. Можно показать, что при кодировании сообщений марковских источников существует код, для кото рого
Н 2(\) К шс„ < Н,(<) + 1, |
(Н.2.10) |
где //,(;) учитывает корреляцию символов. Если имеем про извольный источник с коррелированным алфавитом, то оп тимальный код может быть построен с использованием крупноблочного кодирования, если известны условные и безусловные вероятности символов.
Предположим теперь, что для передачи непрерывных сиг налов используется гауссов канал с пропускной способно стью, определяемой выражением (1.5.15). Это выражение по лучено при условии, что как полезный сигнал, так и помеха имеют нормальную плотность распределения. Отсюда следует,
что, если осуществить такое непрерывное кодирование исход ных низкочастотных сигналов (т|), при котором линейные сигналы [U] будут нормально распределены и будут иметь равномерный спектр в полосе A/*, то можно вести пере дачу со скоростью, сколь угодно близкой к пропускной способности канала.
§II. 3. ПЕРВАЯ ТЕОРЕМА ШЕННОНА
ОКОДИРОВАНИИ В КАНАЛАХ
С ПОМЕХАМИ
Пусть по двоичному каналу передается бинарная последо вательность из п элементарных посылок £Д7) длительно стью т0 каждая. Будем считать, что все элементы последо вательности независимы, а сама она является эргодическим
случайным дискретным |
процессом. |
Если энтропия на один |
||
элемент равна Н (\), |
то общее |
число реализаций |
||
|
|
|
|
(Н.3.1) |
Если производительность |
бинарного |
источника |
||
v „ .u = Jr m |
= C = - ? r |
H ( tU x= - £ - lo g ,,2 = - f , |
то за время, равное длительности одной элементарной посыл ки, будет передано
7(т0)=С --:0- х 0 !-■ |
- Ь tf($)fflax = |
Я (;)тах = |
1 дв. ед. |
информа- |
||||||||
ции. Если |
Ч) |
|
1 |
|
источника |
vn u < С , то |
за то |
|||||
производительность |
||||||||||||
же время |
будет |
передано |
/(т0) = |
г»п |
Я (-) < 7/(S)max. |
|||||||
Тогда |
действительное количество |
реализаций, |
которое мо |
|||||||||
жет быть |
передано |
при такой |
производительности |
источ |
||||||||
ника,. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2л /ы < |
2я" (Е)тах. |
|
|
|
(II.3.2) |
|||
Если в канале действуют помехи, то некоторые из элемен |
||||||||||||
тов каждой реализации будут искажены. |
Д ля простоты счи |
|||||||||||
тается, что между последовательными ошибками |
|
не сущест |
||||||||||
вует корреляции. |
|
|
|
|
|
|
|
|
|
|
||
Пусть энтропия на 1 элемент принимаемой последователь |
||||||||||||
ности |
равна //(;')• |
Наличие |
помех |
приводит |
к |
тому, что |
||||||
после |
наблюдения |
|
посылки |
(t ) |
у |
получателя |
остается |
конечная доля неопределенности относительно переданной посылки $,(<), равная апостериорной энтропии //(£/£'). Поэто му каждая принимаемая последовательность из общего чис
ла 2яЯ(Е ’ может рассматриваться |
как одна из |
2яЯ<Е/Е) воз |
можно переданных. В частности, |
если |
то каждой |
принятой последовательности соответствует количество по
следовательностей 2°=1, действительно переданное. Наобо |
|||||||
рот, если Н(% ;')= Я ($ ), то |
каждая принятая последователь |
||||||
ность |
может |
рассматриваться как |
одна' из |
2яЯ(Е) |
передава |
||
емых. |
Т. е. необходимым |
и достаточным |
условием ошибки |
||||
является |
неравенство 2яЯ(£/:,|> 1, |
при котором вероятность |
|||||
ошибки |
равна |
вероятности |
того, |
что принятую |
последова |
тельность можно рассматривать как более чем одну от
правляемую. |
|
|
|
|
|
Поскольку реальное число |
отправляемых |
последователь |
|||
ностей 2я/l"", составляет только часть общего |
числа 2яЯ(5,п,ах> |
||||
то вероятность |
того, что |
данная |
отправляемая последова |
||
тельность действительно |
относится к разряду |
используемых |
|||
(рабочих), будет |
равна |
|
|
|
|
|
2Я/(Т,) |
_gn|/(V 7/(£)та«1 |
(11*3.3) |
||
|
2,1^(н)тах |
|
|
||
|
|
|
|
||
Следовательно, вероятность того, |
что отправляемая последо |
||||
вательность не принадлежит к рабочей группе, будет равна |
|||||
|
j l _2л[/(То) |
^ ^ тах1) |
(И.3.4) |
Как уже отмечалось, принятому сигналу при наличии по мех может соответствовать 2яЯ(е/51 передаваемых, причем, если ни один из этих сигналов (кроме одного, действитель но переданного) не относится к рабочей группе, то ошиб ки не произойдет. Вероятность этой ситуации, очевидно, будет равна
|
(11.3.5) |
если пренебречь |
одним случаем из 2 ' ’, когда пере |
дается действительная последовательность. |
|
Если vnM < С , |
то имеем: |
1 Ы = vn.a ъ < V т° [ а д « « ~ н ( т )]■. |
(Н.3.6) |
Другими словами, |
для |
некоторого А > 0 справедливо |
равен |
||
ство |
|
|
|
|
|
1 Ы - # (« )„» |
= н ( т ) - А- |
|
(И-3 -7) |
||
Подставив это выражение в формулу (И.3.5), |
получим |
||||
Я = {1 _ 2 л|" (£Д',+л|Г * <ЕД’ • |
|
(И.3.8) |
|||
Прологарифмируем обе |
части |
этого выражения и перейдем |
|||
к пределу при |
оо: |
|
|
|
|
lim 1 п Р = |1 т 2 '" “,!'’ |
1т1 ( 1 - 2 “ |
= |
|
||
П -• ОО |
П + ОО |
|
|
|
|
= |
lim |
|
|
|
(11.3.9) |
|
п - ОС |
|
|
|
|
= |
lim |
rf |
n—яЯ(Е/Е') |
|
|
П~ то |
|
|
|||
|
|
</я |
|
|
|
Найдем необходимые производные: |
|
|
|||
^•1п {1 - 2 " |W,5/î',+a| |
2-nl//(tA')+Al |
|
|
||
|
In 2 [ //( - £ - ) + д ]; |
||||
|
|
j_2-n|«(£A')+4| |
|
|
|
|
d 0 -я//(Е/Е') _ n-nHW ) |
|
|
||
d n Z |
|
* |
|
|
|
Подставий эти значения в формулу (II.3.9), получим: |
|
||||
lim In P = lim — |
|
2—1,4 |
(11.3.10) |
||
^ T j |
|
||||
|
~ |
(1_ 2- л'Я(5/Е',+ д1 |
|
||
Но раз предел |
логарифма |
Р равен 0, то |
lim P = |
1, т. е. |
|
|
|
|
Я- оо |
|
при достаточно большом п вероятность ошибочного приема может быть доведена до сколь угодно малой величины. Таким образом, можно констатировать следующее: если производительность источника меньше пропускной способ ности канала с помехами, то существует код, при котором вероятность ошибки на приеме будет сколь угодно малой.
Выражение (II.3.10) справедливо для любой, даже очень малой величины Д, т. е. при любом приближении vnM к С.
Поэтому приведенную выше формулировку можно усилить: если производительность источника в шумящем канале без памяти не превышает его пропускной способное» и, то су ществует код, при котором вероятность ошибки на приеме будет сколь угодно малой.
Так формулируется первая теорема Шеннона о кодиро вании в присутствии помех.
Следует отметить, что указанная теорема справедлива не только для двоичного, но и для любого дискретного канала без памяти.
$ II. 4 ВТОРАЯ ТЕОРЕМА ШЕННОНА О КОДИРОВАНИИ В ПРИСУТСТВИИ ПОМЕХ
Первая теорема Шеннона указывает на существование ко да, обеспечивающего произвольную малость вероятности ошибки, но не дает никаких рекомендаций относительно ал
горитма |
(т. е. способа) |
построения такого кода. |
В то же вре |
||||||||
мя |
при |
реализации |
того |
или |
иного |
алгоритма |
|
может ока |
|||
заться, |
что из |
последовательности |
п двоичных |
элементов, |
|||||||
составляющих |
то или |
иное |
сообщение, только |
часть мо |
|||||||
жет |
использоваться для |
передачи |
информации, |
а |
осталь |
||||||
ная |
часть будет |
служить |
для обеспечения заданной |
веро |
|||||||
ятности |
ошибки. |
При |
этом |
скорость передачи |
информа |
||||||
ции |
v lt |
может |
оказаться меньше |
скорости |
ее |
создания, |
|||||
т. е. производительности источника |
v n u. С усилением |
требо |
вания относительно минимально допустимой величины веро ятности ошибки действительная скорость передачи инфор мации. казалось бы, должна стремиться к 0, так как при этом фактически все п элементов должны выполнять функ ции корректирования ошибок. Тогда вывод первой теоремы теряет какой-либо практический смысл. Однако это не так.
Пусть получатель наблюдает элемент ; (£), гдеу= 1,2,3,...,А.
Д ля того, чтобы установить, какая именно посылка была передана, необходимо сначала определить, была ли вообще совершена ошибка при передаче данного элемента. Вели вероятность ошибки есть Р 0, то количество информации, необходимое для ее обнаружения, составит
/(Р 0; ( 1 - Р 0)|= Л /[Р 0; ( 1 - Р 0) ] -
- - P 0log2P 0- ( l - P 0)log2( l- P * ) . |
(11.4.1) |
Если обнаружилось, что ошибка совершена, то нужно устано
вить, какой |
именно из |
(L —1) оставшихся |
символов |
был |
|||
действительно передан. |
Согласно |
определению количества |
|||||
информации |
по |
Хартли, для этого |
необходимо |
количество |
|||
информации, |
равное log2(Z, —1). Но так как |
выполнять |
эту |
||||
операцию нужно' всякий раз, когда |
возникает |
ошибка, |
т. е. |
||||
с вероятностью |
Р 0, то |
среднее |
количество |
|
информации, |
||
необходимое |
для |
решения 2-й задачи, составит |
|
|
|||
|
|
P 0 / / ( £ - l ) = P 0log2( I - l ) . . |
|
(И.4.2) |
Т. е. для того, чтобы установить, какой именно элемент ;Д 0 был передан, если наблюдается элемент (t ), необходимо в среднем
H [P 0( \ - P n)} + P tH ( L - D = - P n log2P „ -
- (1 - />o)!og,(l - P o R P o l o g ^ - l ) |
(H.4,3) |
дв. ед. информации. Это количество информации должно быть достаточным, чтобы убрать оставшуюся неопределенность после наблюдения \} (t). Поэтому является справедливым неравенство
M - f ) < Яо 1о& Р » ~ ( 1~ R )lo g 2( l - P 0) + P 0log2( Z .- 1 ), (И.4.4)
называемое неравенством Фэно.
Оно может быть отнесено, конечно, не только к отдельным
элементам |
сообщения, но и к сигналам любой длины. При |
|||
этом |
под Н п (-4-) |
можно |
понимать апостериорную неопре |
|
деленность |
отправленной |
последовательности. Р 0—вероят |
||
ность |
ошибочного |
приема всей этой последовательности, |
L —количество реализаций, высоковероятной группы N e. Если теперь принять во внимание условия первой теоремы Шеннона, из которой следует, что Р,,<4, где е—сколь угодно малое положительное число, то справедливыми будут следующие неравенства:
e lo g îS ^ - ^ O g îO - e H - s lo g a O V e - l) - 1 Ь
+ г log-,(iV„ - 1 ) < Н - в• л/У ф . |
(11.4.5) |
В данном случае учитывается, что |
|
е log, (We- 1 ) = s •«//($), |
(Н.4.6) |
поскольку для определения того, какая из (N , — 1) после* довательностей была передана, нужно иметь па приеме эту последовательность, которая несет примерно пЛ/(Ь) дв. ед. информации. Разделив обе части выражения (И.4.5) на я, по лучим
(П.4.7)
Таким образом, при п -*■оо апостериорная энтропия на сим-
вол |
скорость передачи информации, в со |
ответствии с выражением (1.2.11), равна
(II.4.8)
поэтому при п со
(II.4.9)
Полученный результат позволяет сформулировать вторую теорему Шеннона для кодирования в условиях воздействия помех; при условии v„.u< С среди кодов, обеспечивающих
сколь |
угодно |
малую вероятность |
ошибки, существует код, |
для которого |
скорость передачи |
информации сколь угодно |
|
близка |
к производительности источника. |
Обе теоремы пЬсле этого можно объединить в одну общую, сформулировав ее следующим образом: если скорость переда чи информации в шумящем канале без памяти не превышает его пропускной способности, то существует код, при котором вероятность ошибки на приеме будет сколь угодно малой.
Отсюда следует более строгое определение пропускной спо собности: пропускной способностью называется предельная скорость передачи информации, для которой еще обеспечива ется сколь угодно малая вероятность ошибки.
Вторая теорема, как и первая, не дает никаких рекоменда ций относительно алгоритма построения, оптимального в ука занном смысле кода, за исключением того, что с увеличени ем п ее утверждение становится все более справедливым. Практически еще не найден алгоритм кода, реализующего тео ретические пределы величин е и Uu. Более того, использо вание очень длинных кодограмм сопряжено со значитель ным усложнением кодирующих устройств и увеличением
задержки получения информации на приемном конце систе мы связи. Поэтому важное значение приобретает вопрос о граничных значениях вероятности ошибки при кодировании блоками не очень большой длины. Эди оценки приведены в ряде исследований и хорошо согласуются с теоремами.
.Оказалось, например, что для минимальной вероятности ошибки, которую можно обеспечить при кодировании блоками длины по, могут быть указаны ^верхний и нижний пределы.
к.у 2 -"А s £ $ s £ k 1-2 - "*'\ |
|
(11.4.10) |
|||
Здесь коэффициенты к, и к., |
слабо зависят |
от |
я0; Ех и |
Ег |
|
являются функциями |
v n u и С и не зависят |
от я 0. Они |
по |
||
ложительны при v nu |
< С |
и равны нулю |
при |
Un u — |
С. |
С увеличением vn u они уменьшаются, что вполне соответ
ствует интуитивным представлениям: вероятность ошибки при увеличении производительности источника должна воз растать. При я - * о о е - * 0 , что согласуется с первой и вто рой теоремами Шеннона о кодировании в присутствии помех.
§ 11.5. ОБРАТНАЯ ТЕОРЕМА ШЕННОНА ДЛЯ КАНАЛОВ С ПОМЕХАМИ
Предположим, что к входу канала с пропускной способно стью С подключен источник с производительностью vn u > С. Возникает вопрос: что при этом произойдет с ве
роятностью ошибки? |
|
|
|
В соответствии |
с выражением |
(II.4.5) |
апостериорная эн |
тропия |
|
|
|
Н „ ( т ) |
« si + Ро |
- 1 ). |
(11.5.1 ) |
В силу фундаментального свойства Е для эргодических диск
ретных |
прОЦеССОВ При П |
оо |
|
|
|
Н„(Ь) = |
log, Ne. |
(11.5.2) |
|
Тогда |
имеем |
|
|
|
|
H n( j ) *£ Нп{-) |
+ 1 |
-f Р„ log2 (N, - |
1 ). |
или |
|
|
|
|
|
UH-n-x0 > log, jV, — |
1 — Р 0 logi(N t —\), |