- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
До сих пор в задачах кодирования с искажениями мы рассматривали в качестве источника информации непрерывные случайные величины или случайные последовательности. Напомним, что, с точки зрения применения методов теории информации, принципиальное различие между дискретными и непрерывными источниками состоит в том, что для непрерывных источников не определена собственная информация для отдельных сообщений источника и поэтому вместо обычной энтропии для них вычисляется дифференциальная энтропия.
В оставшейся части главы все доказательства приводятся для самого простого случая - дискретных постоянных источников. Мы рассматриваем дискретные источники, поскольку запись доказательств для них проще, чем для непрерывных. На самом деле, в доказательстве обратной теоремы кодирования для перехода к непрерывным источникам достаточно было бы поменять там, где это надо, обычную энтропию на дифференциальную. Обобщение же прямой теоремы кодирования или алгоритма подсчета функции скорость-искажение на непрерывные источники потребовало бы значительно больших усилии.
Итак, имеется множествоXп последовательностей длины n, на выходе источника без памяти, выбираемых в соответствии с заданным на нем распределением вероятностей . Кодовая книга или код со скоростьюR для этого источника определен как множество изM = 2Rn последовательностей из аппроксимирующего множестваYп. При построении кода мы стремимся минимизировать величину средних искаженийD =M[dn(x, у)], где мера искажения dn(x,у) удовлетворяет ограничениям, сформулированным в начале главы , т.е. неотрицательна и
Приведенная ниже обратная теорема кодирования утверждает, что для достижения требуемого уровня средний искажений не выше D скорость R кода источника должна быть не меньше значения функции скорость-искажение H(D).
Теорема. Пусть заданы дискретный алфавит постоянного источника X = {x}, аппроксимирующий алфавит X = {x} и мера искажения . Для любого кода со скоростью R и средней ошибкой D имеет место неравенство R>H(D)
Доказательство. Следующая цепочка преобразований доказывает теорему
Переход (а) справедлив, поскольку энтропия кодовой книги не превышает логарифма числа кодовых слов, (b) имеет место, поскольку вычитаемое неотрицательно. Далее, (с) и (d) - хорошо известные свойства взаимной информации, равенство (е) использует отсутствие зависимости букв источника. В (f) мы неравенство, опустив некоторые условия в вычитаемом, отчего вычитаемое могло только увеличиться. В (g) и (h) использованы определения взаимной информации и затем функции скорость-искажение как минимума взаимной информации при ограниченной ошибке, причем через обозначена средняя ошибка аппроксимации значениями из . Неравенство (i) основано но выпуклости функции скорость-искажение, равенство (j) - на определении средней меры искажения для последовательностей длины n.
4.10. Прямая теорема кодирования с заданным критерием качества
Прямая теорема кодирования устанавливает существование кодов источника, для которых скорость R при заданном допустимом среднем искажении D может быть сделана сколь угодно близкой к соответствующему значению функции скорость-искажение H(D). Один из способов доказательства этого утверждения могло быть указание конкретного способа кодирования и декодирования, как это было сделано в случае кодирования без потерь. Такое доказательство мы назвали бы конструктивным. К сожалению такое конструктивное решение задачи возможно только для некоторых вырожденных ситуаций (например, приD = 0). Чтобы доказать существование хороших кодов для произвольных источников без памяти, придется воспользоваться уже знакомой нам техникой случайного кодирования.
Итак, метод доказательства состоит в том, что среднее искажение оценивается для кода, слова которого получены случайным независимым выбором кодовых слов. При подсчете ошибки кодирования усреднение выполняется как по множеству последовательностей источника, так и по множеству кодов. Если среднее значение искажений окажется равным D, то мы сможем утверждать что найдется хотя бы один код, для которого среднее искажение не больше D.
Теорема. Для дискретного постоянного источника , аппроксимирующего множества и заданной ограниченной меры искажений , для любых положительных , найдется достаточно большое число , такое, что при при любом заданномD найдется код со скоростью , и среднем искажении не больше , где
функция скорость-искажение дискретного постоянного источника.
Иными словами, при любомD и любой скорости кода большей функции скорость-искажение H(D) возможно кодирование со средними искажениями сколь угодно близкими к D.
Доказательство. Доказательство, аналогично теореме кодирования для канала с шумом, разбивается на три шага: построение ансамбля случайных кодов, выбор процедуры кодирования, оценка величины средних (по ансамблю кодов и по последовательностям источника) искажений.
Сложность применения теоретических оценок к реальным задачам связана с тем, что мы не умеем вычислять значения H(D)для весьма ограниченного набора моделей, и эти модели связаны в основном со стационарными гауссовскими источниками.
Существенным подспорьем в практическом применении теории кодирования для источников с заданной мерой точности является численный алгоритм Блэйхута, позволяющий построить функциюH(D) по дискретной модели или по ее оценке, полученной по реализации последовательности данных на выходе источника.