- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
2.5. Прямая теорема о кодировании в канале с шумами
Здесь, не претендуя на строгость, представим возможное обоснование справедливости утверждения, указанного в сформулированной выше прямой теореме Шеннона для кодирования в дискретных каналах без памяти, основываясь не методе случайного кодирования.
Пусть Н(В) и H(В) — энтропия на символ источника на входе канала и, соответственно, энтропия на символ принятой на выходе канала последовательности (кодового блока). В силу свойства асимптотической равновероятности типичных множеств постоянных источников можно сделать следующее утверждение: группа типичных кодовых блоков длины n содержит около 2nН(B) последовательностей. Аналогичным образом можно утверждать, что группа типичных принятых на выходе канала кодовых блоков длины n содержит последовательностей.
Допустим, что скорость кодаR отличается от величины энтропии Н(В) на сколь угодно малую конечную величину. ЕслиR< Н(В) < С, то число типичных отправляемых кодовых слов длиной в n символов будет удовлетворять неравенству Проблема поиска определенного кода состоит в определении того, какие именно из возможных последовательностей (кодовых блоков) выбираются в качестве2пН(B) разрешенных для передачи (кодовых слов) и как они разбиваются на 2пR непересекающихся подгрупп выходных последовательностей. Рассматривается класс всевозможных кодов, которые получаются, если 2пR разрешенных последовательностей размещать случайным образом среди 2пН(B) возможных сигналов типичной группы; задача заключается в выборе сильно отличающихся сигналов с последующей возможностью их надежного различения (находится среднее значение вероятности ошибки для этих кодов).
Далее представим следующие соображения.
Будем полагать, что последовательно передаются сигналы выбираемые каждый раз случайно (независимо от всех ранее переданных сигналов) с вероятностями , в результате чего в канал отправляется кодовое слово, представляемое в виде Таким образом, будем выбирать все нужные нам 2nR кодовых слова из числа 2пН(B) типичных кодовых блоков. Каждое передаваемое кодовое слово на приемном конце будет восприниматься как последовательность (блок) из некоторых n элементарных сигналов (в частности,r = т). В силу случайного характера помех, передавая много раз один и тот же блок , мы будем получать на приемном конце много разных блоков . Однако множество этих блоков обладает определенной закономерностью.
Рассмотрим теперь всевозможные последовательности вида , состоящие из nпереданных и тех n сигналов в которых переданные преобразовались. В целях упрощения будем полагать r = т. Тогда общее число таких 2n-членных последовательностей, определяется величиной .R ним также можно применить теорему о высоковероятных множествах, из которой вытекает, что если все сигналы выбираются независимо и передаются по каналу без памяти, то только из общего числа последовательностей будут типичными. Число типичных последовательностей 2n-членных блоков превосходит число n-членных последовательностей в раз. Отсюда можно заключить, что каждой типичной последовательности отвечает группа из типичных последовательностей принимаемых сигналов, в одну из которых последовательность перейдет с большой вероятностью. Эта группа может рассматриваться как решающая область .
Два передаваемых кодовых слова и следует считать «сильно отличающимися друг от друга», если решающие области не пересекаются между собой. Словам и будут соответствовать решающие области и . Очевидно, что если потребуется подобрать 2пR различных кодовых слов из n сигналов то для того чтобы вероятность ошибки при декодировании принятых сообщений была очень мала, достаточно иметь возможность выбрать эти кодовые слова так, чтобы все 2пR решающих областей не пересекались между собой.
Так как каждая группа содержит последовательностей то в2пR областей будет входить последовательностей. Поскольку все такие последовательности входят в типичные 2n-членные последовательности ,то и сами они естественно будут типичными. С другой стороны, общее число типичных n-последовательностей на выходе канала, связанных с энтропией кодовых символов , определяется величиной
Составим теперь отношение общего числа типичных последовательностей к суммарному числу таких последовательностей, входящих в 2nR областей :
(2.7)
Отсюда следует, что если бы Rбыло больше, чем С, то это отношение было бы меньше в единицы, т.е. полное число последовательностей в наших 2пRобластях , было бы больше, чем общее число всех типичных последовательностей ; поэтому ясно, что при R>C кодовые слова никак нельзя подобрать, так, чтобы отвечающие им области не пересекались. Но если R<C то отношение(26) оказывается большим единицы; более того, при очень большом n,yне зависящим от R, оно оказывается равным 2, возведенному в очень большую степень, т.е. очень большим. В этом и состоит существо обосования справедливости утверждения, сформулированного в теореме.
Выражение (2.7) можно представить с ином виде; если с учетом того, что при величину R можно записать в следующей форме: , тогда
(2.7a)
Отсюда также следует, что поскольку μ выбрано не зависящим от n, то при отношение общего числа типичных последовательностей к суммарному числу таких последовательностей, входящих в 2nR областей также стремится к бесконечности.
Таким образом, при большом п полное число последовательностей в 2пR областях ; будет составлять ничтожную часть всего числа типичных последовательностей из nсигналов ; это обстоятельство делает очень правдоподобным предположение о том, что2пR кодовых слов длины n можно выбрать так, чтобы решающие области кода не пересекались между собой. Эти соображения делают теорему Шеннона весьма правдоподобной, хотя их и нельзя рассматривать как её строгое доказательство.
На этом же уровне строгости можно представить более формализованное доказательство прямой теоремы Шеннона.
Пусть принят некоторый сигнал . Вероятность ошибочного декодирования при этом равна вероятности того, что данный сигнал не может происходить более чем от одного из 2nR разрешенных сигналов. Поскольку код получается случайным (равновероятным) выбором 2nR последовательностей из 2пН(B) то вероятность того, что заданный сигнал на входе канала попадет в число разрешенных, равна .
Принятому сигналу соответствует возможно отправленных сигналов. Отсюда средняя вероятность того, что ни один из сигналов (кроме одного действительно отправленного) не является разрешенным, равна (в пренебрежении единицей по сравнению с .
(2.8)
Поскольку все кодовые слова являются равновероятными (с очень большой вероятностью), это есть средняя вероятность безошибочного приема.
Используем далее то же представление дляR, что и выше [см. (V.7a)]
. (2.9)
Подставляя (26) в (27), получим
Нетрудно показать, что lim р = 1.
Действительно,
(2.9а)
Применяя правило Лопиталя, получаем
, (2.10)
откуда и следует, что , т.е. средняя вероятность ошибки может быть сделана сколь угодно малой.
Очевидно, что существует хотя бы один код, у которого вероятность ошибки меньше средней. В силу закона больших чисел можно даже отметить, что почти любой код, выбранный случайным образом, будет близок к оптимальному при кодировании достаточно длинными блоками.
Из доказательства теоремы становится понятно, что пропускная способность оказывается не просто максимально возможной скоростью передачи, но и максимальной скоростью (как определил Шеннон), при которой еще возможна передача со сколь угодно малой вероятностью ошибки.