Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
книги / Теория электрической связи. Помехоустойчивая передача данных в информационно-управляющих и телекоммуникационных системах модели, алгоритмы, структуры.pdf
Скачиваний:
14
Добавлен:
13.11.2023
Размер:
24.95 Mб
Скачать

3.2.Оценка помехоустойчивости при передаче дискретных сообщений

Введем ряд понятий и обозначений, исследуемых в дальнейшем. Обозначим двоичный л-разрядный кодовый вектор (кодовую комбинацию) через

У =(a\,a2,- ,a i,...,anXai =0,1.

Обозначим л-разрядный вектор ошибки через

е = (е,,е2,

.

= 0,1.

Ошибка (искажение) в /-м разряде кодового вектора означает подме­ ну одного (передаваемого) кодового символа другим, не равным ему. При этом в /-м разряде вектора ошибки появляется единица.

Обозначим вектор на выходе канала передачи данных (КПД) через ,а'п),а\ = 0,1. Примем аддитивную модель взаимодейст­

вия передаваемого вектора V и вектора ошибок (шума), т. е.

У' = У Ф ё .

(3.5)

Тогда для двоичного канала ошибка при передаче /-го символа озна­ чает его инвертирование. Инверсия двоичного символа эквивалентна вы­ полнению логической операции «исключающее или» («суммирование по модулю два») с логическим символом «1»: а\ = а( 01.

Введем метрику рассматриваемого кодового пространства. Норма (величина) кодового вектора равна его весу:

\ \ Ц = н п

где w(V) - вес кодового вектора, т. е. число его ненулевых компонентов (разрядов).

Тогда расстояние между двумя кодовыми векторами У} и V2

d(V„V2) =

и равно весу разности этих векторов по mod а , т. е.

d{Vb V2) = M yx-V 2)maia.

(3.6)

При а = 2

 

d(Vl9V2) = w (V ^ V 2).

(3.7)

Введенное кодовое расстояние, называемое расстоянием Хемминга,

равно числу разрядов, в которых различаются два сравниваемых вектора

V ^ v ,

Пример3.1. Пусть Vx =1010 и V2 =1110, тогда w(Vx) =2;и<Р2) = 3;

= МУ\ Ф ^ ) = w(1010©ll 10) = и<0100) = 1, т. е. два сравниваемых вектора различаются только во втором разряде.

Пример 3.2. Пусть = 1010 и ё= 0010, тогда Kj'= 101000010 =

= 1000. Следовательно, ошибка произошла в третьем разряде передаваемо­ го вектора, т. к. именно этот разряд вектора ошибки равен 1.

Из (3.5) следует, что

e = V ' O V

Назовем вес вектора ошибки кратностью ошибки. Так, в примере 3.2 w{e) = 1, т. к. имеет место однократная ошибка. Проанализируем собы­ тия, имеющие место при передаче информации по двоичному симметрич­ ному каналу л-разрядным двоичным неизбыточным кодом, для которого справедливо равенство

М0 = М = 2 \

и, следовательно,

Ri = R\] = 0.

Рассмотрим вероятностные соотношения для передачи сообщений кодовыми комбинациями.

Событие, при котором вся кодовая комбинация принимается пра­ вильно, возникает в случае правильного приема всех символов кодовой комбинации. Для симметричного двоичного канала вероятность правиль­ ного приема сообщения (отсутствия ошибок) Р(0) определяется следую­ щим образом:

Р(0) = дп = ( \ - р Г ,

(3.8)

где п - длина кодовой комбинации; q - вероятность правильной передачи символа; р - вероятность неправильного (ошибочного) приема одного символа (вероятность ошибки на символ).

Обобщим приведенные соображения, записав вероятность полной группы событий, возникающих при приеме кодовой комбинации. Действи­ тельно, возможно одно из следующих событий: нет ошибок - с вероятно­ стью Р{0), однократная ошибка в любом разряде - с вероятностью />(1), двукратная ошибка в любых разрядах - с вероятностью Р(2), и т. д. Сумма вероятностей, образующих полную группу независимых событий, равна 1:

Рассмотрим, какие могут возникать события после приема кодовых комбинаций кодом неизбыточного кода, т.е. без дополнительных возможностей по повышению достоверности и помехоустойчивости передачи сообщений. Таких событий возможно два:

правильная передача сообщения - имеет место при правильном приеме всех символов;

трансформация сообщения - возникает при появлении ошибок, поскольку вместо переданной кодовой комбинации (сообщения) получате­ лю информации будет выдана другая кодовая комбинация (сообщение).

Поскольку указанные варианты образуют полную группу событий, то сумма их вероятностей равна 1. Вероятность правильной передачи Рпр определяется вероятностью Р(0), а вероятность трансформации Рхр - сум­ мой всех остальных вероятностей от Р(1) до Р(п):

р ^ т ^ о - р г ,

(3.10)

Для наглядности анализа указанных событий воспользуемся графом канала передачи данных (ГКПД). При этом на входе дуги находится кодо­ вая комбинация из множества рабочих комбинаций кода {Л,-}, а на выходе дуги - кодовая комбинация, наблюдаемая на выходе канала. Это могут быть либо кодовое слово из {А; } при правильной передаче или трансфор­ мации сообщения, либо кодовое слово из множества запрещенных комби­ наций кода {B i} при искаженной передаче. Ребро ГКПД нагружено соот­ ветствующим значением вектора ошибки.

Пример 33. Пусть М0= М= 2*\ ГКПД показан на рис. 3.1.

(At) fBj}

000

001

010

O il

100§=(000)

б= (0 0 1 )--------

101(010)

110

111

Рис. 3.1. ГКПД при передаче сообщений неизбыточным кодом п = 3

Из рис. 3.1 видно, что т. к. М0 - М = 0, то подмножество {В( } - пус­ тое, и, следовательно, любая ошибка вызывает трансформацию сообщения, т.е. является необнаруженной. Действительно, если передается кодовый вектор (кодовая комбинация) Л4 = V4 = 100, то искажение (ошибка) в лю­ бом разряде вызывает переход в одну из разрешенных комбинаций и полу­ чателю выдается другое сообщение.

Таким образом, неизбыточный код не способен обнаруживать ошиб­ ки никакой кратности. Возможность кода обеспечить (повысить) достоверность и помехоустойчивость передачи сообщений сводится к наличию у него корректирующих свойств. Они заключаются в том, что даже при наличии некоторого количества ошибок в принятом сообщении трансформации сообщения не возникнет.

Корректирующие свойства кода могут быть направлены на два вида действий:

исправление ошибок;

обнаружение ошибок.

Исправление сводится к обнаружению факта наличия ошибок, к оп­ ределению мест их возникновения (ошибочных разрядов), замене ошибоч­ ных символов правильными. Обнаружение сводится только к обнаруже­ нию факта наличия ошибок в кодовой комбинации. При этом для недопу­ щения трансформации сообщение с ошибками нужно стереть, а получате­ ля - проинформировать об этом.

Разумеется, процесс исправления ошибок требует более сложного алгоритма обработки и дополнительных затрат, зато более эффективен. Процесс обнаружения ошибок менее требователен к затрачиваемым ресур­ сам, но и менее эффективен, поскольку требует дополнительных повто­

ров, запросов, подтверждений и т. п. Поэтому он применяется только в системах с обратной связью.

Корректирующие свойства кода могут быть направлены на обнару­ жение и/или исправление ошибок. Рассмотрим далее общие принципы об­ наружения и исправления ошибок корректирующими кодами.

3.3. Обнаружение ошибок избыточными кодами

Рассмотрим структуру избыточного кода (рис. 3.2), обнаруживающе­

го ошибки. В нем выделяются два множества: {

и {Bt }.

_

Ы ,\

{В /}

_

 

А,

В,

 

 

 

 

А,

 

 

В.

 

А

Вм3

м р

Рис. 3.2. ГКПД при передаче сообщений избыточным кодом, обнаруживающим ошибки

Согласно (3.3) избыточность построенного кода Rx =

----------- .

 

М о

Покажем, что благодаря введенной избыточности данный код обна­ руживает ошибки. Проиллюстрируем с помощью ГКПД передачу сообще­ ний кодом, обнаруживающим ошибки, по ДСК.

Рис. 3.3. ГКПД при передаче сообщений избыточным кодом, обнаруживающим ошибки

Из рис. 3.3 видно, что при передаче сообщений кодом, обнаружи­ вающим ошибки, имеют место три события: правильная передача (неис­ каженная), трансформация сообщения, вызываемая необнаруженной ошибкой, и стирание сообщения, вызываемое обнаруженной ошибкой. Обнаружение ошибки происходит при появлении на выходе ДСК (на входе декодера) запрещеной комбинации. Доля обнаруживаемых ошибок равна

М о-М р

---------- -, т. е. совпадает с избыточностью кода.

М 0

Пример 3.4. Представим неизбыточный код из примера 3.3 с помо­ щью разбиения рис. 3.2, получив в итоге избыточный код, представленный на рис. 3.4. На этом же рисунке проиллюстрирован и процесс передачи информации.

Ш<Bj}

001

V e =

101

у

000

 

 

 

Л = ш

010

1

/

 

011

 

\ ^

f = l l l

100

■^=001».

101

 

\е = 0 1 0

 

111

^ = 0 1 1 4 .

110

•*

 

 

Рис. 3.4. ГКПД при передаче сообщений избыточным кодом п - 3, обнаруживающим ошибки нечетной кратности

Разобьем полное множество комбинаций на два непересекающихся множества: множество рабочих комбинаций Мр и множество запрещенных комбинаций Мг. Для первичного кодирования будем использовать только рабочие комбинации А,.

А,

Аг

мв

 

 

 

м

 

Аг

А4

в,

в2

Вг

Вл

001

0 1 0

100

111

0 0 0

011

101

П О

Размерность каждого из множеств равна 4, следовательно,

А/0 =Л/р +М г =4 + 4 = 8.

Проверим корректирующие свойства построенного кода, состоящего из рабочих комбинаци Ah на примере однократных искажений для любой кодовой комбинации, например А3.

А3100—- —►ООО.в, е М 3,

Л3100—^-И 10В 4 еМ „

А3100— »1012?з е М 3.

Из приведенного анализа очевидно, что любые однократные искаже­ ния переводят комбинацию из множества Мр в множество Мг. Таким обра­ зом, ошибка может быть обнаружена путем проверки на принадлежность принятой кодовой комбинации одному из множеств. Для рассматриваемо­ го кода можно оценить корректирующие свойства как способность обна­ руживать любые однократные и трехкратные ошибки. Нетрудно убедить­ ся, что двукратные ошибки не могут быть обнаружены, поскольку они ос­ тавляют принятую кодовую комбинацию во множестве Мр.

Для исправления ошибки характеристик кода недостаточно. Дейст­ вительно, любую из комбинаций Bj можно получить в результате ошибки одинаковой кратности в разных рабочих кодовых комбинациях. Например, комбинацию В\ можно получить в результате однократной ошибки ех в Л3,

е2в Л2и л и е3вА\.

Кодовые комбинации, принадлежащие множеству запрещенных комбинаций, называют избыточными, поскольку они не используются для первичного кодирования сообщений. Однако, как мы убедились на приме­ ре, присутствие избыточных комбинаций в полном множестве кодо­ вых комбинаций является необходимым условием построения кода, корректирующего ошибки.

Избыточность построенного кода оценивается, как Rx = 0,5; /?п= 0,33. Минимальное кодовое расстояние </min = 2. Код обнаруживает любые ошибки нечетной кратности. Ошибки четной кратности не обнаруживают­ ся, т.е. вызывают трансформацию сообщений. Можно ввести параметр г как кратность обнаруживаемых ошибок, т.е. код гарантирует обнаружение ошибок кратности не более г.

Рассмотрим вероятностные соотношения при реализации корректи­ рующих свойств кода, направленных на обнаружение ошибок.

Сообщение будет принято правильно, если ошибок в кодовой комбинации нет (вероятность этого события Рпр). Все ошибки кратности не более г будут обнаружены, и сообщение будет стерто (вероятность этого события Яст). Если кратность ошибок превысит г, то произойдет трансфор­ мация сообщения (вероятность этого события Р^).

Запишем сформулированные условия:

w(e) = 0 - - правильная передана сообщения,

О< w(e) < г- стирание сообщения,

и/(е) > г - трансформация сообщения.

Вероятностные соотношения выглядят следующим образом:

(3.11)

Как видно из приведенных соотношений, вероятность транс­ формации уменьшается из-за появления вероятности стирания.

Очевидно, что для кода, не имеющего корректирующих свойств, из­ быточность равна 0. Поэтому корректирующие коды еще называют избы­ точными. Очевидно, что чем больше избыточность, тем выше коррек­ тирующие свойства кода. Покажем это, построив код, исправляющий ошибки.

3.4. Исправление ошибок избыточными кодами

Общая структура кода, исправляющего ошибки, представлена на рис. 3.5.

{я;.} {в,}

Рис. 3.5. Структура кода, исправляющего ошибки

Для построения кода, исправляющего ошибки, необходимо полное множество М0 комбинаций кода разбить на М непересекающихся подмно­ жеств так, что

" р

М 0 = Е ( ^ + 1 ) , (3.12) /=1

где Li - мощность /-го подмножества запрещенных комбинаций; L, + 1 - мощность подмножества, включая /-ю рабочую комбинацию; данное под­ множество называют сигнальной зоной (сферой) /-й рабочей комбинации.

Мощность Li может быть определена как

кратность ис­

правляемых ошибок.

Таким образом, разбиение типа рис. 3.5 удовлетворяет следующим условиям:

Lv о Z/ц = 0

 

м

(3.13)

1 4 < л / 0 - м р.

Способ приема состоит в том, что если принята некоторая комбина­ ция из /-го подмножества, то декодером выносится решение о том, что пе­ редана комбинация Таким образом, исправляется та часть всевозмож­ ных ошибок, под действием которых /-я рабочая комбинация (Af) не выхо­ дит за пределы /-й сигнальной зоны. При этом знак равенства в (3.13) озна­ чает, что построен код, исправляющий ошибки, так называемый «плотноупакованный»; знак < означает, что корректирующая способность кода ис­ пользована либо для исправления ошибок, либо для исправления и обна­ ружения ошибок. Доля исправляемых ошибок, в предположении, что все

м р 1 L 1

рабочие комбинации равновероятны, составляет ]Г-------------1-----= ----- • wA/p М р

Корректирующая способность избыточного кода должна быть ис­ пользована для исправления наиболее вероятных ошибок в канале связи. Выполнение этого требования обусловлено конструированием сигнальных зон. Для ДСК, т. е. двоичных симметричных каналов связи, описываемых биномиальным законом распределения ошибок, справедливо соотношение

/>(/)>/>(/+ 1),

(3.14)

т.е. ошибки малой кратности более вероятны, чем ошибки большой крат­ ности. Поэтому в /-ю сигнальную зону включаются запрещенные комби­ нации Bt, удаленные от А{ на наименьшее кодовое расстояние по сравне­

нию с удаленностью от любой другой рабочей комбинации. Тогда опти­ мальное декодирование исправляющего ошибки кода, учитывающее ста­ тистику ошибок в канале связи, будет заключаться в вычислении кодового расстояния от принятого кодового вектора до всех { } (/ = 1, М ) и выне­ сении решения в пользу той рабочей комбинации, до которой кодовое рас­ стояние минимально. Подобная схема принятия решения называется деко­ дированием по критерию максимального правдоподобия, которое считает­ ся оптимальным.

Пример 3.5. Построим код, исправляющий однократные ошибки со­ гласно схеме разбиений рис. 3.5.

На рис. 3.6. приведен код с d(AXiA2) = 3, исправляющий все возмож­ ные однократные ошибки, и ГКПД, иллюстрирующий процесс передачи информации указанным кодом. Построенный код является плотноупакованным. В КПД имеют место 2 события: правильная передача сообщений и трансформация. Правильная передача имеет место как при отсутствии ошибок, так и при любой однократной ошибке. Из рис. 3.6 видно, что по­ строенный код исправляет любую однократную ошибку, т.к. запрещенная комбинация не выходит из сигнальной зоны соответствующей рабочей комбинации, искаженной однократной ошибкой попутно. Отметим, что сигнальные зоны кода, обнаруживающего ошибки, состоят только из рабо­ чих комбинаций кода, т. е. L/= L = 1, (/ = 1, М ) .10

001 - А

111

е = 001

# 100 - Я 3

е - 100

А2

101

011 - В 6

Рис. 3.6. Структура избыточного кода п = 3, исправляющего однократные ошибки и ГКПД

Оценим избыточность кода, исправляющего однократную ошибку.

и -m _ w-[log2M „ ] _ 3 - l _ 2

ft

n

3

3

Минимальное кодовое расстояние dm\n= 3.

Еще раз отметим, что чем больше избыточность, тем сильнее кор­ ректирующие свойства кода.

Сигнальная зона содержит и кодовые комбинации, которые отлича­ ются от данной рабочей комбинации не более чем в S разрядах, а от ос­ тальных рабочих комбинаций - более чем в S разрядах. Поэтому ошибка кратности не более чем S приведет в сигнальную зону переданной рабочей комбинации, что дает возможность для исправления ошибки. При этом ошибки кратности более чем S приведут либо в сигнальную зону другой рабочей комбинации, либо непосредственно в другую рабочую комбина­ цию, что вызовет трансформацию сообщения. Поэтому можно ввести па­ раметр S как кратность исправляемых ошибок.

Рассмотрим вероятностные соотношения при реализации корректи­ рующих свойств кода, направленных на исправление ошибок.

Будем считать, что все ошибки кратности не более S будут исправ­ лены и сообщение будет принято правильно (вероятность этого события Рпр). Если кратность ошибок превысит S, то произойдет трансформация сообщения (вероятность этого события Pw). Запишем сформулированные условия:

О< w(e) < S - правильная передача сообщения, w(e) > S - трансформация сообщения.

Вероятностные соотношения выглядят следующим образом:

Как видно из приведенных соотношений, вероятность транс­ формации уменьшается из-за увеличения вероятности правильной передачи.

3.5. Исправление и обнаружение ошибок избыточными кодами

Рассмотрим избыточные коды, у которых корректирующие свойства направлены на обнаружение и исправление ошибок. Очевидно, что полное множество запрещенных комбинаций содержит подмножество сигнальных зон, предназначенное для исправления ошибок, и подмножество запре­ щенных комбинаций, предназначенное для обнаружения ошибок. При этом кодовое расстояние до подмножества запрещенных комбинаций больше, чем ширина сигнальной зоны. Это означает, что параметр г для рассматриваемого вида корректирующих кодов всегда больше S.

Пример 3.6. Построим код длины /1 = 4, исправляющий однократные и обнаруживающий двукратные ошибки.

На рис. 3.7. приведен код с d(Al9A2) = 4, исправляющий все одно­ кратные и обнаруживающий все двукратные ошибки, и ГКПД, иллюстри­ рующий процесс передачи информации указанным кодом. Построенный код является плотноупакованным. В КПД имеют место 3 события: пра­ вильная передача сообщений, стирание и трансформация. Правильная пе­ редача имеет место как при их отсутствии ошибок, так и при любой одно­ кратной ошибке. Стирание происходит при двукратной ошибке. Из рис. 3.7 видно, что построенный код исправляет любую однократную ошибку, т. к. запрещенная комбинация не выходит из сигнальной зоны соответствую­ щей рабочей комбинации, искаженной однократной ошибкой попутно. Двукратные ошибки также будут обнаружены, поскольку переведут рабо­ чую комбинацию во множество запрещенных состояний Мг.

Мг

Г 0110

•ООП

1001

•0000

1111

^ • 1100

Рис. 3.7 Структура избыточного кода п- 4, исправляющего однократные и обнаруживающиего двукратные ошибки и ГКПД

Оценим избыточность кода, исправляющего однократную и обна­ руживающего двукратную ошибки.

М 0 - М р

16 -2

7

 

 

1_

М 0

16

~ 8

 

D п - т

n-[1og2Mp]

4 -1

3

R n~ ~ T ~

«

4

 

"4*

Минимальное кодовое расстояние <4™ = 4.

Рассмотрим вероятностные соотношения при реализации корректи­ рующих свойств кода, направленных на исправление и обнаружение оши­ бок.

Будем сичтать, что сообщение будет принято правильно, если ошибок в кодовой комбинации нет или кратность ошибок не превышает S, и они будут исправлены (вероятность этого события Рп^). Все ошибки кратности более S и менее г будут обнаружены, и сообщение будет стерто (вероятность этого события Рсг). Если кратность ошибок превысит г, то произойдет трансформация сообщения (вероятность этого события Р1р).

Запишем сформулированные условия:

0 < w(e) < S - правильная передача сообщения,

1S < w(e) < г~ стирание сообщения,

w(e) > г - трансформация сообщения.

Вероятностные соотношения выглядят следующим образом:

Р

+ Р

ст

+ />

=1,

пр

 

тр

 

 

/=0

 

 

 

 

 

 

(3.16)

 

i-S*I

P ' - V - P ) " 1,

 

i*S+l\l ,

р ‘ ( \ - р У

v /

Как видно из приведенных соотношений, вероятность транс­ формации уменьшается из-за исправления ошибок (увеличения вероятности правильной передачи) и появления вероятности стирания (обнаружения ошибок).

3.6. Геометрическая модель кода

Геометрической моделью «-мерного кода является /7-мерный куб, размещенный в «-мерном пространстве. При этом по каждой из « взаимно ортогональных осей откладывается к различных значений ординат, каждая из которых равна одному из к значений соответствующего разряда кода.

Пример 3.7. Рассмотрим геометрическую модель 3-разрядного дво­ ичного кода (рис. 3.8).

Геометрической моделью является 3-мерный куб, каждая из 8 вер­ шин которого соответствует кодовой комбинации двоичного неизбыточно­ го кода. Кружками обведены вершины куба, соответствующие рабочим комбинациям кода, обнаруживающего ошибки из примера 4.4. Каждое ребро куба соответствует расстоянию Хемминга d = 1. На модели видно, что для кода, обнаруживающего ошибки, минимальное расстояние между рабочими комбинациями равно двум (</min~ 2).

Из рис. 3.8 видно, что кодовое расстояние между вершинами куба, соответствующими рабочим комбинациям 101 и 010 (пример 3.5), равно 3.

Рис. 3.8. Геометрическая модель 3-разрядного двоичного кода

Сплошными линиями обведены сигнальные зоны, соответствующие каж­ дой из двух рабочих комбинаций кода, исправляющего однократные ошибки.

3.7. Связь между кодовым расстоянием Хемминга и максимальной кратностью обнаруживаемых и исправляемых ошибок

Обозначим через s максимальную кратность исправляемых ошибок перехода (в дальнейшем - просто ошибок), г - максимальную кратность обнаруживаемых ошибок, ес - максимальную кратность исправляемых ошибок стирания. При использовании обозначения «максимальная крат­

ность» предполагается, что код исправляет либо обнаруживает все ошибки указанной кратности и меньше.

Сформулируем и докажем ряд утверждений.

Утверждение 3.1. Для того чтобы код обнаруживал любые ошибки кратности г и меньше, минимальное кодовое расстояние должно удовле­ творять условию

(3.17)

Краткое доказательство. Как было показано в подразд. 3.3, сиг­ нальные зоны кода, обнаруживающего ошибки, состоят только из рабочих комбинаций кода. Таким образом, если между комбинациями кода рас­ стояние не меньше г + 1, то не существует никакой ошибки кратности г и меньше, которая перевела бы одну комбинацию кода в сигнальную зону другой (для этого потребуется, по крайней мере, ошибка кратности (г + 1)). Следовательно, все ошибки кратности г и меньше будут обнаружены.

Пример 3.8. Пусть г = 1, поэтому dm\n=1 + 1=2 . Рассмотрим гео­ метрическое представление кода (рис. 3.9).

Рис. 3.9. Геометрическая иллюстрация обнаружения ошибки кратности г = 1

Рабочие комбинации К, и Vj имеют dij= dmт = 2, а кодовое расстояние до любой из комбинаций множества Л/3 равно d = 1. Поэтому при любой однократной ошибке будет принята кодовая комбинация из Л/3. Это даст возможность обнаружить однократную ошибку. При двукратной ошибке вместо одной рабочей комбинации Vt будет принята другая рабочая ком­ бинация Vj. Это приведет к трансформации сообщения.

Код с */mjn = 2 был рассмотрен в примере 3.4, из которого видно, что не существует ни одной ошибки нечетной кратности, способной вызвать трансформацию (см. рис. 3.4), т.к. любая такая ошибка переведет рабочую комбинацию кода в запрещенную и будет обнаружена. Но так как двукрат­ ные ошибки при этом обнаружены не будут, то код с tfmin= 2 в соответст­ вии с утверждением 3.1 гарантирует обнаружение однократных ошибок.

Пусть г = 2, поэтому dm\n = 2 + I = 3 . Рабочие комбинации К, и Vj имеют dy = dmj„ = 3, а кодовое расстояние d до любой из комбинаций мно­ жества Мг равно 1 или 2. Поэтому при любой однократной или двукратной ошибке будет принята кодовая комбинация из М2. Это даст возможность обнаружить такие ошибки. При трехкратной ошибке вместо одной рабочей

комбинации Vi будет принята другая рабочая комбинация Vh Это приведет к трансформации сообщения.

Распространив приведенные соображения по закону математической индукции для произвольного значения г, можно считать утверждение до­ казанным.

Утверждение 3.2. Для того чтобы код исправлял любые ошибки кратности s и меньше, минимальное расстояние должно удовлетворять ус­ ловию

4m . ^ 2 s + 1. (3.18)

Краткое доказательство. В сигнальную зону каждой рабочей ком­ бинации кода, кроме рабочей комбинации, входят еще запрещенные ком­ бинации, удаленные от рабочей на расстояние 5 и меньше. Согласно усло­ вию (3.13) сигнальные зоны не должны пересекаться. Для обеспечения этого условия достаточно соблюдение (3.18), т. к. непересекающиеся сиг­ нальные зоны каждой рабочей комбинации разделяются по крайней мере одним кодовым переходом. Таким образом, при соблюдении (3.18) любая ошибка кратности s и меньше не способна перевести передаваемую рабо­ чую комбинацию в чужую сигнальную зону и, следовательно, в соответст­ вии с правилом принятия решения (п. 3.4) будет исправлена.

Пример 3.9. Пусть s = 1, тогда согласно (3.18) dmin = 3. В примере 3.5 рассмотрен подобный код. Из рис. 3.6 и 3.8 видно, что dmin = 3 гаранти­ рует соблюдение условий (3.18), т. е. сигнальные зоны (СЗ) двух рабочих комбинаций кода не пересекаются. Каждая сигнальная зона состоит из всех возможных запрещенных комбинаций, удаленных от рабочей на d - 1, что соответствует однократным искажениям, и, значит, любая однократная ошибка будет исправлена.

Рассмотрим геометрическое представление кода (рис. 3.10).

СЗ/ СЗ,

к, r ^ r

i r \ y ,

t

\\

Рис. ЗЛО. Геометрическая иллюстрация исправления ошибки кратности s = 1

Рабочие комбинации К, и V) имеют dy = */mm = 3, а кодовое расстояние до любой из комбинаций собственной сигнальной зоны СЗ равно d = S= 1. Поэтому при любой однократной ошибке будет принята кодовая комбина­ ция из СЗ. Это даст возможность исправить ошибку, заменив комбинацию из СЗ на соответствующую ей рабочую комбинацию. При двукратной ошибке будет принята комбинация из сигнальной зоны другой рабочей комбинации. Это приведет к исправлению другой рабочей комбинации

и, соответственно, трансформации сообщения. Таким образом, код с dmm= 3 гарантирует исправление однократной ошибки.

Распространив приведенные соображения по закону математической индукции для произвольного значения s, можно считать утверждение до­ казанным.

Утверждение 3.3. Для того чтобы код исправлял ошибки кратности s и обнаруживал ошибки кратности от s + 1 до г (s < г), минимальное рас­

стояние должно быть не меньше чем s + г + 1, т. е.

 

> 5 + r + 1.

(3.19)

Краткое доказательство. Проанализированная в утверждении 3.2 конструкция сигнальных зон кода, исправляющего 5-кратные ошибки, со­ гласно условию (3.19) требует расстояния между сигнальными зонами, равного по крайней мере 25 + 1.

Пусть г = 5 + А (А > 1). Тогда (3.19) гарантирует выполнение требо­ вания (3.18), т.е. ошибки кратности s и меньше будут исправлены. При этом ошибки кратности 5 < г ' < г = 5 + Д (Д > 1) порождают запрещенные комбинации кода, не принадлежащие ни одной сигнальной зоне. Они уда­ лены от соответствующей рабочей комбинации на кодовое расстояние больше 5 , в то же время они не переведут рабочую комбинацию в чужую сигнальную зону, т. е. будут обнаружены.

Пример ЗЛО. Пусть s = 1, г = 2, тогда dmi„ = 4.

Изобразим фрагмент геометрической модели кода, состоящий из двух рабочих комбинаций: Vt и V);, таких, что d(Vt ,F; ) = 4 (рис. 3.11).

Рис 3.11. Фрагмент геометрической модели кода с dm;„= 4

Образуем сигнальные зоны, удовлетворяющие условию (3.13), т.е. непересекающиеся и состоящие из рабочей комбинации и запрещенных комбинаций, удаленных от рабочей на d = 1. Следовательно, такой код ис­ правляет любую однократную ошибку. В то же время любая двукратная ошибка переведет V{ или V в запрещенную комбинацию из множества Af3,

отличного от обеих сигнальных зон. Применив процедуру оптимального декодирования и установив, что d(V^^M 3) = 2, можно обнаружить ошибку и стереть сообщение.

При трехкратной ошибке будет принята комбинация из сигнальной зоны другой рабочей комбинации. Это приведет к исправлению другой ра­ бочей комбинации и, соответственно, трансформации сообщения.

Распространив приведенные соображения по закону математической индукции для произвольного значения s и г, можно считать утверждение доказанным.

В зависимости от минимального кодового расстояния корректирую­ щая способность кода может быть перераспределена на разные действия.

^min

 

Корректирующие свойства кода:

1

отсутствуют, т. к. код является неизбыточным,

2

обнаружение однократной ошибки (г = 1),

3

исправление однократной ошибки (s = 1),

обнаружение двукратной ошибки (г = 2),

 

 

исправление однократной (5 = 1) и обнаружение двукратной

4ошибки (г = 2),

обнаружение трехкратной ошибки (г = 3),

исправление двукратной ошибки (s = 2),

5• исправление однократной (5 = 1) и обнаружение трехкратной ошибки (г = 3),

• обнаружение четырехкратной ошибки (г = 3).

Избыточность вносится в код на передающей стороне и не зависит от корректирующих свойств кода, поскольку определяется только dmin. Очевидно, что корректирующие свойства кода реализуются при процедуре декодирования.

3.8. Верхние и нижние границы избыточных кодов

Верхними границами обычно называются наилучшие граничные со­ отношения между кодовым расстоянием, числом избыточных и информа­ ционных символов, обеспечивающие наименьшую избыточность кода или наибольшую скорость передачи информации. Обсуждаемые ниже верхние границы Хемминга и Плоткина не гарантируют существование кодов с па­ раметрами, полученными из границ. В то же время рассматриваемая ниж­ няя граница Варшамова-Гильберта гарантирует существование кодов с числом избыточных символов, не превышающим некоторую верхнюю оценку избыточных символов при заданных требованиях к dmin-

3.8.1.Верхняя граница Хемминга

Проанализируем соотношение (3.13). Если принять, что

Ц = ф 1 = щ , ) ,

(3.20)

то указанное соотношение можно записать в виде MpL < М0- М р. Обозначим через Е полное множество исправляемых ошибок. Тогда

имеет место Е = L. Подставляя (3.1) и (3.2) в (3.20), получим

2"' < 2"

(3.21)

1+ Е

 

Поскольку s - максимальная кратность исправляемых ошибок, то для двоичных л-разрядных кодов, исправляющих ошибки,

£ =

(3.22)

Подставляя (3.22) в (3.21), получим окончательный вид границы Хемминга для двоичных кодов:

(3.23)

i + s i

Напомним, что т - число информационных символов кода, п - об­ щее число символов (разрядов) кода, называемое длиной кода, к = (и - т) - число избыточных символов кода. Поделив левую и правую части нера­ венства (3.23) на 2п\ получим другой вид границы Хемминга:

s f п

(3.24)

2* S l + I .

Неравенства(3.23) и (3.24) при заданных т ns решаются подбором. Пример 3.11. Найти параметры кода, исправляющего однократную

ошибку, для передачи М= 11 сообщений.

Найдем т = [log 11] = 4; s = 1. Тогда из (3.23) получим

24 — .

1 4- П

Подбором устанавливаем, что л = 7; к = 3.

Пример 3.12. Положим, что надо найти все параметры кода длины п = 63 с кодовым расстоянием dm\n= 5 и наибольшим возможным значени­

ем т - числа

информационных символов. Согласно (3.24) получим

<2*™,

^ > [log22017] =11.

1 _

 

Таким образом, из границы Хемминга следует, что не существует кода с числом избыточных символов к меньше 11 или с числом информа­ ционных символов т больше 52. В то же время из замечания, сделанного в начале данного подраздела, о том, что граница Хемминга не является границей существования, следует, что не гарантируется существование ко­ дов с найденными параметрами к = 11, т - 52.

Если для некоторого кода верхняя граница Хемминга выполняется со знаком равенства, то код называется совершенным. Совершенные коды называют также плотноупакованными кодами (см. подразд. 3.4). В заклю­ чение отметим, что верхняя граница Хемминга дает точные оценки при больших значениях п.

3.8.2. Верхняя граница Плоткина

т

В области малых значений /?и = — верхняя граница Хемминга явля­

п

ется довольно грубой. При малых значениях /?„ точнее границы Хемминга является верхняя граница Плоткина, определяемая для двоичного л-разрядного кода следующим образом:

где Мр- фактическое число используемых кодовых слов.

(3.25)

Другой вид границы Плоткина:

Пример 3.13. Пусть т = 4, dmin = 3. Тогда из (3.25) получим

п ♦16 = п ♦0,533 и л > 5,625. Выбираем ближайшее большее целое чис­ Т ч 5

ло п = 6, тогда согласно (3.25,а) тхгах < 4 и Л > 2.

Таким образом, из границы Плоткина следует, что не существует ко­ да, исправляющего однократные ошибки, с числом избыточных символов к меньше 2 и общей длиной кода меньше 6. Действительно, ближайший существующий код с максимальной скоростью передачи имеет параметры п = 7, к = 3. Но данный пример подтвердил, что граница Плоткина дает лучшие оценки, чем граница Хемминга, при малых RH. Данный пример подтверждает, что граница Плоткина не является границей существования. В работе [10] показано, границы Плоткина достигают лишь коды, в кото­ рых расстояние между любыми двумя различными кодовыми словами од­ но и то же; такие коды называются эквидистантными. Например, двоич­ ными эквидистантными кодами являются коды, состоящие из последова­ тельностей максимальной длины, и коды, получающиеся из матриц Адамара [10,11]. Наряду с рассмотренными верхними границами существует еще граница Элайеса, которая лучше обеих рассмотренных границ, по

крайней мере при средних скоростях /?и = —. Граница Элайеса нами не

п

рассматривается.

Отметим, что в главе 5, посвященной алгебраическим кодам, в част­ ности групповым систематическим кодам, нами будет использована верх­ няя граница Хемминга (3.24).

3.8.3. Нижняя граница Варшамова-Гильберта

Как отмечалось выше, наряду с верхними границами существуют нижние кодовые границы, в частности граница Варшамова-Гильберта [12]. Сравнительный анализ этих границ показывает следующее. Верхняя гра­ ница утверждает, что не существуют коды с числом избыточных символов меньше определенного граничного числа к\. В то же время нижняя грани­ ца, в частности Варшамова-Гильберта, «гарантирует» существование ко­ дов с числом избыточных символов к2 меньше другого граничного числа:

к2> к\.

Нижняя граница Варшамова-Гильберта имеет вид

(3.26)

При этом утверждается, что существует (л,/и)-код с кодовым рас­ стоянием, не меньшим г/, и с числом избыточных разрядов к < п ~ т .

Пример 3.14. Оценим с помощью границы Варшамова-Гильберта параметры кода из примера 3.12, т.е. кода длины п = 63 с dmin = 5. Согласно

(4.21) имеем 2

к

3

или 2

к

> 39774. Тогда наименьшее число избы-

 

> У

 

 

 

/-oV

/ )

 

 

точных символов к, для которого выполняется это неравенство, 16. Итак, сравнивая результаты примеров 3.12 и 3.14, приходим к такому

выводу: из границы Хемминга следует, что не существует кодов с к < 11, т.е, по Хэммингу, к > 11 (нижняя граница по избыточным символам и, сле­ довательно, верхняя граница по информационным символам), а граница Варшамова-Гильберта «гарантирует» существование кодов с к < 16 (верх­ няя граница по избыточным символам и, следовательно, нижняя граница по информационным символам).

3.9. Оптимальное декодирование с «жестким» и «мягким» принятием решения первой решающей схемой

В главе 2 описан поэлементный прием сигналов ПРО, получивший наибольшее распространение в современных цифровых телекоммуника­ ционных системах. ПРС может принимать «жесткое» и «мягкое» решение относительно элементарных сигналов на входе. Если мощность входного канального алфавита равна к, а мощность выходного канального алфавита к ’, то условно такой канал обозначим как (к х &')-канал. Тогда при «жест­ ком» принятии решения имеет место к = к' , а при «мягком»- к <к'

Мы будем рассматривать (2 х &')-канал, т. е. двоичный симметрич­ ный канал, у которого мощность выходного канального алфавита больше трех. Промежуточное место между поэлементным приемом с «жестким» принятием решений и «приемом в целом» занимает прием с «мягким» принятием решения. Было доказано, что в (2 х /г')-канале нецелесообразно делать к' больше 8, т. е. к ' <8 [12]. Поэтому ниже будет рассмотрен (2 х 8)-канал. Выигрыш в помехоустойчивости канала передачи данных,

L) и •1и и □ L in □ □□ П □Г1ПГ1 □п п П Г !П П Г »Г !П П □ П !'1□ □П П П □ □ [3Г □

н при «мягком» декодировании, по сравнению с «жестким» декодированием, объемом дополнительной информации о величине искаженного элементарного сигнала, поступающего на вход декодера.

3.9.1. Сигнальные зоны, реализуемые в ПРС (2 ж 8)-канала

Пусть ПРС реализует когерентный прием двух противоположных сигналов ± S(t) . В канале действует «белый шум» со спектральной плот­ ностью N0/ 2Вт/Гц. Оптимальным приемником является согласованный фильтр (СФ) с импульсной характеристикой g(t) = к s (Т - /), где Т -

длительность элементарного сигналаS ( t ) , на который настроен согласо­ ванный фильтр. Отсчеты сигналов на выходе СФ берутся с частотой сле­ дования сигналов и подаются на вход решающего (регистрирующего) уст­ ройства (РУ). В ПРС с «жестким» принятием решения РУ определяет знак отсчета, т. е. сигнальные зоны противоположных сигналов отслеживают только знак входного сигнала. В ПРС с «мягким» принятием решения сиг­ нал с выхода СФ подается на вход аналого-цифрового преобразователя с N уровнями квантования (N = 8). Таким образом, РУ принимает решение о величине сигнала на его входе, и на вход декодера передается одно из восьми соответствующих значений элементарного сигнала. Значения на­ пряжения на выходе СФ в моменты отсчетов являются гауссовскими слу­

чайными величинами со средним значением ±

(в зависимости от пере­

дачи 1 или 0) и дисперсией с 2 = N0/2 (£*- энергия принятого элементарно­ го сигнала). Таким образом, плотность распределения вероятностей напря­ жения р = S + £, на выходе согласованного фильтра (рис. 3.12) имеет вид

W(p = S ^ ) = 1

(ptyfEj)2

 

No

(3.27)

4 щ > е

 

 

Рис. 3.12. Плотность распределения вероятностей значения напряжения р = S + <Е,

Шкала квантования сигналов на выходе СФ равномерная с шагом кванто­ вания

д = о д л )

= 2-

(3.27)

N

7 *

 

Величинаy'-го квантованного отсчета на выходе РУ

 

U j = A - m j9

 

(3.28)

где шj —весовой коэффициент.

Опуская количественные оценки обоснования выбора /иу, миними­

зирующие вероятность ошибки на выходе ПРС, приведем оптимальное распределение весовых коэффициентов в (2 х 8)-канале [12]: { т ; } = {0, 3,

6,9, 12, 15, 18,21}.

__

_

В дальнейшем изложении для упрощения расчетов d (V i9V j ) , т.е.

кодового расстояния, реализуемого оптимальным

декодером

в канале

2 x 8 , примем другое распределение весовых коэффициентов: {mf } = {0, 1,

2, 3,4, 5, 6, 7}.

При использовании простого аналого-цифрового преобразователя двоичный симметричный канал преобразуется в симметричный канал с двоичным входом и восьмеричным выходом, т. е. в (2 х 8)-канал. Пере­ ходные вероятности в симметричном (2 х 8)-канале вычисляются как пло­ щади под графиком плотности распределения вероятностей между соот­ ветствующими уровнями квантования (/, ,//+1) :

0+1

,

JPlJblI

 

PU/0)= j

- f—

e N° dp,

(3.29)

0

V“tfo

 

где p ( j / 0) - условная вероятность появления на выходе РУ ПРС кванто­ ванного сигнала величины Ц при передаче символа «0». При этом с уче­ том свойства симметрии справедливо соотношение

P U /0 ) = p(Nma)i- \ - j / l ) ,

(3.30)

где jVniaxмаксимальное число уровней квантования, включая нулевой. Из (3.30) для сигнальных зон S0 и S, получим

р(0/0) = р(7/\),р(\/0) = р(Ь/\),р(2/0) = р(5/\),р(3/0) = /7(4/1).

Этот ряд можно продолжить и для вероятностей ошибок перехода. Граф (2 х 8)-канала приведен на рис. 3.13.

Рис. 3.13. Граф симметричного (2 х 8)-канала

3.9.2. Оптимальное декодирование в канале с «мягким» принятием решения

Для вычисления кодового расстояния в канале с «мягким» приняти­ ем решения введем метрику, отличную от (3.6):

d{Vx,V2) = ±\au - a 2'\,

(3.31)

 

1= 1

 

где Vj =(д, |,flj 2 ,.--,^! Я);К2 = (a2 J>a2 ,2 >—’a2 jt)

 

Пример 3.15. Пусть Ft= (3, 4,

0, 7, 7, 7) и У2= ( 1,7,

1, 3, 4, 5).

Тогда </(^,К2)= 2 + 3 + 1 + 4 + 3 + 2=

15.

 

В канале с «жестким» принятием решения по-прежнему пользуемся метрикой (3.6).

Алгоритм оптимального декодирования по критерию максимального правдоподобия, реализуемый декодером в канале 2 х 8 с «мягким» приня­ тием решения, таков:

1.В памяти декодера хранятся все (2м- 1)-векторов. При этом для двоичной записи каждого символа отводим по три ячейки памяти.

2.Для исправления ошибок при приеме вектора V 1 вычисляются по

формуле (3.31) кодовые расстояния (1(У\У{), где / = l,2m - 1 . Находится

наименьшее кодовое расстояние

Декодер принимает решение

отом, что передавался кодовый вектор Уу.

3.Для исправления и обнаружения ошибок при приеме вектора V повторяется процедура, описанная в п. 2. Если для некоторого Vv находит­

ся наименьшее кодовое расстояние среди всех вычисленных, то принима­ ется решение о том, что передавался вектор Уу. Если же хотя бы для двух хранимых кодовых векторов Уу и У^ вычисленные кодовые расстояния до

У' совпали, т. е. ^(У г,Уу)=с((У\У^), то сообщение ^'стирается.

Пример 3.16. Рассмотрим код с параметрами п = 7, т = 3, dm\n = 4. В двоичном симметричном канале с «жестким» принятием решения дан­ ный код исправляет однократные ошибки (некоторые сочетания двукрат­ ных ошибок - при оптимальном декодировании) и обнаруживает все дву­ кратные ошибки и ряд ошибок большей кратности. Проанализируем кор­ ректирующую способность этого же кода, но в канале 2 х 8 с «мягким» принятием решения (см. рис. 3.12 и 3.13). Представим два из семи векто­ ров рассматриваемого кода: У{ и У2 соответственно в каналах с «жест­ ким» и «мягким» принятием решения.

В канале 2 x2: У} = 1011100;К2 = 0101110.

В канале 2x8: = 7077700;F2 = 0707770.

Рассмотрим несколько ситуаций, различающихся величиной и крат­ ностью ошибки (степенью искажения) при передаче вектора У{:

1. У = 7437700. Возникла двукратная ошибка во втором и третьем символах (подчеркнуты).

d(V',yl) = 8;d(V',V2) = 20. Решение в пользу У]9 т.е. двукратная ошибка исправлена.

2. У' = 7527700. Возникла двукратная ошибка, но увеличилась вели­ чина искажения.

d iy \y \) - Ю; d(F',y2) = 18. Решение в пользу Vl9 т.е. и эта дву­ кратная ошибка исправлена.

3. У' = 7707700. Произошла двукратная ошибка с максимальной ве­ личиной искажения.

d {y \y \) = 14; d ( y \ y 2) = 14. В соответствии с описанным выше ал­ горитмом принято решение о стирании сообщения.

Данный пример подтверждает, что в канале с «мягким» принятием решения в целом возрастает корректирующая способность кода, полно­ стью реализуемая оптимальным декодером. Это обусловлено дополни­ тельной информацией о величине ошибки (степени искажения), выдавае­ мой ПРС декодеру (за счет усложнения ПРС).

3.9.3. Оптимальное декодирование в двоичном канале со стиранием

Наиболее часто применяются следующие модели двоичного канала:

канал с «жестким» принятием решения (канал 2 х 2);

канал с «мягким» принятием решения (канал 2 x 3 ) (канал со сти­ ранием).

При «жестком» приеме для передаваемого символа возможны два варианта приема - правильный и ошибочный. Для двоичного канала связи ошибочный прием эквивалентен инверсному значению символа. Размер­ ность алфавита на входе и выходе канала связи совпадает (рис. 3.14).

Рис. 3.14. Модель ошибок канала с «жестким» принятием решения

Вероятности Р0о и Р\\ соответствуют правильному приему символа, а вероятности Рох и Р\0 - неправильному (ошибочному или инверсному) приему символа (вероятность ошибки).

В рассматриваемой модели имеют место следующие вероятностные соотношения:

(3.32)

С точки зрения соотношения вероятностей ошибки разных направ­ лений ранее были введены понятия симметричный и асимметричный ка­ нал. Для симметричного канала вероятности ошибок разных направлений совпадают, а для асимметричного - отличаются. Для симметричного дво­ ичного канала связи вводились следующие обозначения:

(3.33)

где р - вероятность ошибочного приема символа; q - вероятность правиль­ ного приема символа.

Большинство каналов связи описывается именно моделью симмет­ ричного канала связи с уверенным приемом (жестким принятием реше­ ния). Однако существуют ситуации, когда эффективно применение модели канала с «мягким» принятием решения. Размерность алфавита на выходе таких каналов связи больше, чем на входе, за счет появления дополнитель­ ных символов. Эти символы характеризуют некоторые значения принятых сигналов, по которым символ нельзя отнести ни к одному из алфавита на передающей стороне (неуверенный прием). Например, для двоичного ка­ нала 2 x 3 вводится дополнительный символ «х» (рис. 3.15). Подобные ка­ налы, реализуемые ПРС, называются каналами со стиранием.

«О»

> «о»

 

«х»

«I»

> «1»

 

РII

Рис. 3.15. Модель ошибок канала со стиранием

Вероятности Poo и Р п соответствуют правильному приему символа, вероятности Р0\ и Pj0 - неправильному (ошибочному, инверсному) приему символа (вероятность ошибки), вероятности Р0х и Р Хк - неуверенному приему символа.

В рассматриваемой модели имеют место следующие вероятностные соотношения:

Р(Ю+ Pot + Р0х = U

(3.34)

Pl\+Pl0+P\x='-

Назовем ошибку, которая возникает при замене одного символа дру­ гим, ошибкой перехода. Тогда ошибку, которая возникает при замене сим­ вола на «х», назовем ошибкой стирания (удаления символа). На основании вышеназванного введем для симметричного канала связи следующие обо­ значения:

^01 “ ^01

= Р п ’

 

*^ох~ ^ \х - Рс>

(3.35)

k^оо =

= Я*

 

где рп - вероятность ошибочного приема символа; рс - вероятность стира­ ния символа; q - вероятность правильного приема символа.

На рис. 3.16 и 3.17 изображены примеры для приема сигнала ампли­ тудно-импульсной манипуляции («0» - отсутствие импульса, «1» - им­ пульс с амплитудой Um) в каналах с «жестким» и «мягким» принятием ре­ шения.

и т

1

о

UJ2

I

0

t

Рис. 3.16. Иллюстрация приема в канале с «жестким» принятием решен

Рис. 3.17 Иллюстрация приема в канале с «мягким» принятием решения

При уверенном приеме (рис. 3.16) множество возможных значений информационных параметров сигнала разбивается на подмножества, коли­ чество которых совпадает с разновидностью символов (размерностью ал­ фавита на входе канала). Для двоичного канала связи таких подмножеств два: зона уверенного приема символа «О» и зона уверенного приема сим­ вола «1». Пороговое значение для принятия решения обычно определяется как UJ2.

При неуверенном приеме (рис. 3.17) добавляется зона, в которую по­ падают значения информационных параметров, которые нельзя отнести ни

кодному из символов. Она имеет границы от нижнего порога (С/Пн) до верхнего порога (£УПВ)- Попадание в зону неуверенного приема приводит

кзамене принятого символа на символ «х». Попадание в зону выше U* приводит к принятию решения о приеме символа «1». Попадание в зону ниже UnHприводит к принятию решения о приеме символа «О».

При уверенном приеме сигнала (символа) из линии связи на выходе ПРС, реализующей «жесткое» принятие решения, наблюдается один из двух символов: «О» и «1». При неуверенном приеме сигнала (символа) из линии связи на выходе ПРС, реализующей «мягкое» принятие решения, наблюдается один из трех символов: «О», «1», «х» (рис. 3.18).

т

{0,1^}

т

ПРС

ВРС

—►

Рис. 3.18. Прием и декодирование линейного сигнала S'(i) в канале со стиранием

Поскольку ошибка стирания обнаруживается уже на уровне ПРС, то для ВРС коррекция ошибок стирания сводится только к исправлению ошибок указанного вида. Количество стираний (символов <сс» в принятой кодовой комбинации) явно указывает кратность ошибок стирания.

Сформулируем несколько утверждений, связывающих избыточность (^min) и корректирующие свойства кода в канале со стиранием.

Утверждение 3.4. Для того чтобы код исправлял любые ошибки стирания кратности ес и меньше, минимальное кодовое расстояние должно удовлетворять условию

dm>n>eс+1. (3.36)

Краткое доказательство. Необходимо применить оптимальное де­ кодирование по критерию min кодового расстояния в уверенно принятых символах. Это означает, что нужно вычислить d({Kl},K') и принять реше­

ние в пользу того вектора Vt (/ = l,2m -1), для которого d(Vi>Vr) = 0. Это вы­

текает из условия, что в уверенно принятых символах отсутствуют ошибки перехода, следовательно, min {^(K/,F/)} = 0 (ошибки стирания исправлены).

Пример 3.17. Выберем избыточный код (7,3,4). J min = 4, поэтому со­ гласно (3.36) ес = 3. Проведем анализ для рабочих векторов V\ = 1110100 и V2 = 0111010. Пусть принят вектор V' = НдсссОО. Определяем кодовое расстояние по уверенно принятым символам: <ИУ\У) = 0, d(V2,V ) = 2. По результатам вычислений делаем вывод о том, что был передан вектор Vt.

Исправление ошибок стирания сводится к выбору правильного вари­ анта замены символов <сс». Аналогичные выводы позволяют сформулиро­ вать соотношения для кодов, исправляющих или обнаруживающих и ошибки перехода, и ошибки стирания.

Утверждение 3.5. Для того чтобы код обнаруживал любые ошибки перехода кратности г и меньше и исправлял любые ошибки стирания крат­ ности ес и меньше, минимальное кодовое расстояние должно удовлетво­

рять условию

 

г + е с+ 1.

(3.37)

Краткое доказательство. Необходимо применить оптимальное де­ кодирование по критерию min кодового расстояния в уверенно принятых символах. Это означает, что нужно вычислить ^({^},^0 для уверенно при­ нятых символов и принять решение. Если присутствуют только ошибки

стирания, то решение принимается в пользу того вектора (/= l,2m-1), для которого d(V/iHr) = 0. Это вытекает из условия, что в уверенно приня­ тых символах отсутствуют ошибки перехода, поэтому min {d(V„V')} = 0. Если присутствуют и ошибки перехода, и ошибки стирания, то все вычис­ ленные кодовые расстояния будут больше нуля (d({F/}fF/) >0). По этому условию ошибки будут обнаружены, а сообщение стерто.

Пример 3.18. Выберем избыточный код (7,3,4). dmjn = 4, поэтому со­ гласно (3.37) г = 1 и ес = 2 (как один из вариантов). Проведем анализ для рабочих векторов V\ = 1110100 и У2 = 0111010. Пусть принят кодовый век­ тор У = 11*1*00. Определяем кодовое расстояние по уверенно принятым символам: d(V\,Vr) = 1, d(V2,Vr) = 2. По результатам вычислений делаем вы­ вод об обнаружении ошибок перехода и стирании сообщения.

Утверждение 3.6. Для того, чтобы код исправлял любые ошибки перехода кратности s и меньше и любые ошибки стирания кратности ес и меньше, минимальное кодовое расстояние должно удовлетворять условию

rfmi„>25 + ec+ 1.

(3.38)

Краткое доказательство. Необходимо применить оптимальное де­ кодирование по критерию min кодового расстояния в уверенно принятых

символах. Это означает, что нужно вычислить d({Vi}>V) для уверенно при­ нятых символов и принять решение. Если присутствуют только ошибки

стирания, то решение принимается в пользу того вектора V/ (z = 1,2W-1), для которого = 0. Это вытекает из условия, что в уверенно приня­ тых символах отсутствуют ошибки перехода, поэтому min {d(VhV )} = 0. Если присутствуют и ошибки перехода, и ошибки стирания, то все вычис­ ленные кодовые расстояния будут больше нуля (rf({Pi},P0 >0). При этом выбирается минимальное кодовое расстояние (для исправления ошибок оно будет < s). По этому условию ошибки перехода будут исправлены, а сообщение передано получателю.

Пример 3.19, Выберем избыточный код (7,3,4). dm\n = 4, поэтому со­ гласно (3.38) s = 1 и ес= 1. Проведем анализ для рабочих кодовых векторов V) = 1110100 и У2 = 0111010. Пусть принят кодовый вектор V9= 1111*00. Определяем кодовое расстояние по уверенно принятым символам и полу­ чаем d(V!,*")= 1 = s, d(V2, y f) = 2 > s. По результатам вычислений делаем вывод об исправлении ошибок перехода и передаче правильного сообще­ ния получателю.

Утверждение 3.7. Для того чтобы код обнаруживал любые ошибки перехода кратности г и меньше, исправлял любые ошибки перехода крат­ ности s и меньше и любые ошибки стирания кратности ес и меньше, мини­

мальное кодовое расстояние должно удовлетворять условию

 

tfmill> s + r + ec+ 1.

(3.39)

Декодирование кодов при наличии ошибок указанной кратности рас­ смотрено в примерах 3.17, 3.18, 3.19 отдельно, поэтому рассматриваться не будет.

Методы обеспечения помехоустойчивости на приеме в ПРС сводятся к оптимальному приему сигналов на фоне помех. Но для обеспечения вы­ сокой достоверности указанных методов явно недостаточно. Это объясня­ ется возможными искажениями в передаваемом по линии связи закодиро­ ванном сообщении. Обработка кодовых комбинаций происходит во второй решающей схеме. Поэтому методы обеспечения помехоустойчивости при обработке кодовых комбинаций во ВРС сводятся к применению специаль­ ных алгоритмов декодирования.

Контрольные вопросы к главе 3

1. Привести выражения и сравнить способы оценки избыточнос (/?ь /?„), привести примеры: а) М0= 16, Мр= 8; б) Л/0 =16, Л/р = 3.

2.Ввести понятия «кодовый вес», «кодовое расстояние» («расстоя­ ние Хэмминга»), «кратность ошибки», привести примеры их вычисления. Рассмотреть аддитивную модель воздействия ошибок на кодовый вектор

вдискретном канале связи, привести примеры искажения кодового вектора для ошибок кратности е = 1, 2,3.

3.Проанализировать, какие события могут возникать на выходе ка­ нала связи при передаче сообщений неизбыточным кодом, привести веро­

ятностные характеристики.

4.Проанализировать, какие события могут возникать на выходе ка­ нала связи при передаче сообщений избыточным кодом, способным обна­ руживать ошибки, привести вероятностные характеристики.

5.Проанализировать, какие события могут возникать на выходе ка­ нала связи при передаче сообщений избыточным кодом, способным ис­ правлять ошибки, привести вероятностные характеристики.

6.

Проанализировать

связь

минимального

кодового

расстояния

с кратностью обнаруживаемых ошибок перехода.

 

 

7.

Проанализировать

связь

минимального

кодового

расстояния

скратностью исправляемых ошибок перехода.

8.Привести примеры использования корректирующих свойств кода

Д Л Я ^niin 6 И l/rnin ~ 7.

9.Проанализировать верхние и нижние границы избыточных кодов.

10.Рассмотреть оптимальное декодирование в двоичном канале со стиранием, привести вероятностные характеристики.

11. Проанализировать связь минимального кодового расстояния с кратностью корректируемых ошибок перехода и стирания.

Соседние файлы в папке книги