- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
4.2. Свойства функции скорость-искажение
В данном параграфе мы изучим некоторые свойстваH(D), которые позволят понять ее поведение и получить простые выражения для этой функции для широкого класса моделей.
Первое свойство очень простое.
Свойство 1.
Свойство 2. - невозрастающая функция аргумента D.
Доказательство. С увеличением D расширяется область поиска минимума, при этом результат поиска минимума, очевидно, не увеличивается.
Свойство 3. Для стационарного источника без памяти
(4.20)
где - одномерное условное распределение на Y при известном .
Доказательство. Имеем
где (а) использует независимость букв источника, a (b) - неубывание условной энтропии с увеличением числа условий. Равенство достигается при
(4.22)
где в обозначении учтено, что условная плотность может, вообще говоря, зависеть от индекса i.
Поскольку нас интересует зависимость информации от условного распределения вероятностей , изменим на время обозначения:
В силу выпуклости средней взаимной информации относительно условных распределений
, где (4.1)
причем равенство имеет место, если , при всех
Наименьшее значение достигается в том случае, когда условное распределение представляет собой произведение n одинаковых одномерных плоскостей, вычисленных как среднее одномерных плоскостей, полученных из . Чтобы завершить доказательство теоремы, осталось доказать, что такое распределение удовлетворяет ограничению на ошибку D, если исходное распределение ему удовлетворяло.
Простые выкладки
Подтверждают, что при подстановке
Ошибка не измениться. При этом
где I(X;Y) вычислено при .
Свойство 4. H(D) выпуклаяU функция аргумента D.
Доказательство. Для сокращения записи доказательства рассмотрим случай источника без памяти. Нужно доказать что для любых D1D2и
где использовано обозначение . Обозначим через и те условные распределения, на которых достигаются соответственноH(D1) иH(D2) и положим . Доказываемое утверждение вытекает из следующей цепочки преобразований:
Здесь (а) имеет место потому, что на распределении не обязательно достигается минимум взаимной информацииI(X;Y) равный ; (b) следует из выпуклостиU средней взаимной информации.
Свойство 5. Для произвольного стационарного источника при
(4.24)
Доказательство. Пустьy0 обозначает тот элемент y, на котором достигается минимум. В качестве условной плотности ) выберем плотность, с вероятностью 1 сопоставляющую последовательность любой последовательности . Поскольку последовательности xи y независимы,I(Xn,Yn) = 0 и, следовательно, H(D) = 0. Средняя ошибка при этом равна величине D0.
Итак, в данном параграфе мы узнали, что H(D) - выпуклая монотонно убывающая функция неотрицательная функция, которая становится равной нулю при некоторой ошибке.
Для источников без памяти мы получили формулу, которая очень похожа на формулу для пропускной способности канала без памяти. Вместо максимума - минимум и вместо поиска оптимального распределения на входе - поиск среди условных распределений. В действительности, поиск функции скорость-искажение чуть сложнее, поскольку экстремум - условный, и ответ - функция, а не число.
Заметим, что для источников с памятью свойство 5 дает не самую точную оценку той минимальной ошибки, начиная с которой возможна аппроксимация источника с нулевой скоростью (без передачи какой-либо информации о сообщениях источника).