- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
1. Энтропия источников сообщений
1.1. Дискретные ансамбли и источники
С методической точки зрения изучение информационных характеристик сообщений, сигналов и их свойств целесообразно начать с определения и анализа дискретных ансамблей и источников. Будем рассматривать множество сообщения , состоящее из конечного числа элементов . (Принято обозначать сами множества прописными буквами, а строчными – элементы этих множеств.) Предположим, что на множестве задано распределение , где каждому элементу из соответствует значение вероятности (см. приложение 1). Множество с заданным в нём распределением называют дискретным ансамблем сообщений, обозначая его
Рассмотрим теперь два множества сообщений и , содержащих конечное число элементов и соответственно. Будем называть множество, элементы которого представляют все возможные упорядоченные пары произведением и , обозначая его как . Из определения следует, что в общем случае и - различные множества. Если множества и совпадают, используется обозначение
Для множества с заданными совместным распределением определен дискретный ансамбль При определении задаются ещё два ансамбля и (на основании свойства согласованности распределений дискретной случайной величины ). и называют ансамблями статически независимых сообщений, если
При наличии статической зависимости сообщений величина, определяемая соотношением (предлагается, что ), называется условной вероятностью сообщения при условии, что сообщение фиксировано (задано). Известно, что множество условных вероятностей относительно фиксированного сообщения , получаемое при переборе всех значений индекса , удовлетворяет общему определению распределения вероятностей. Это есть условное распределение на множестве относительно заданного сообщения . Аналогичным образом задается условное распределение на множестве относительно сообщения . Отсюда следует, что задание ансамбля определяет ещё два условным ансамбля сообщений и . При определении условных ансамблей предполагается, что в исходных ансамблях не существует сообщений с нулевой вероятностью.
Дальнейшее обобщение понятия ансамбля связывают с произведением , представляющим собой множество всех последовательностей длины , таких, что первый элемент принадлежит множеству и т.д. (надстрочный индекс обозначает номер элемента в последовательности). При этом образуется ансамбль, обозначаемый При совпадении всех элементов произведения используется обозначение . Таким образом, представляется множество всех последовательностей длины , образованных из элементов множества . Очевидно, что все закономерности, отмеченные при рассмотрении частного случая , при необходимости могут быть обобщены на произведение ансамблей.
Определимся теперь с дискретными источниками информации.
Дискретные источники сообщений рассматриваются как устройства, выбирающие в каждую единицу времени одно из сообщений множества . С точки зрения теории информации источник (телеграфный аппарат, телевизионное устройство) считается заданным полностью, если задан случайный процесс дискретного времени, который в каждый момент принимает значения из А. Как источник, так и порождаемый им случайный процесс, задаются своими -мерными распределениями. Распределение вероятностей -последовательностей является функцией переменных, из которых являются выборками из элементов ансамбля сообщений, а оставшиеся — соответствующими моментами времени:
Источник называется стационарным, если совместное распределение последовательностей не зависит от их произвольного сдвига по оси дискретного времени. Источник называется источником без памяти, если для любых и любых последовательностей совместное распределение представляет собой произведение одномерных распределений для всех моментов времени.
В дальнейшем на протяжении данного курса рассматриваются только стационарные источники. Стационарный источник, не имеющий памяти, является простейшей моделью источника информации и носит название постоянного источника.