Добавил:
Upload
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз:
Предмет:
Файл:06 ТЕОРИЯ ИНФОРМАЦИИ.doc
X
- •Часть 4. Элементы теории информации
- •Глава 1. Энтропия
- •1.1. Комбинаторный подход к вычислению количества информации. Формула Хартли
- •Аксиомы теории информации
- •1.2. Вероятностный подход к вычислению количества информации. Формула Шеннона. Понятие об энтропии
- •Вывод формулы Шеннона
- •1.3. Единицы измерения энтропии и информации
- •С точки зрения теории кодирования существует объяснение, почему используется двоичная система (основание логарифма).
- •1.4. Свойства функции энтропии
- •, Где коэффициент по Лагранжу, а – из условия ограничения.
- •1.5. Энтропия сложных событий. Условная энтропия
- •Глава 2. Информация
- •2.1. Понятие информации
- •2.2. Характеристики дискретных источников информации
- •2.3. Свойства информации
- •2.4. Условная информация
- •Свойства условной информации
- •2.5 Формы адекватности информации
- •Синтаксическая мера информации. Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
- •2.6 Качества информации
- •Глава 3. Кодирование информации. Общие понятия
Глава 3. Кодирование информации. Общие понятия
В предыдущих главах мы рассматривали кодирование методом Шеннона-Фано. Рассмотрим общие понятия теории кодирования.
Определение. Для замены названия объекта (сообщения) на условное обозначение (код) в целях обеспечения удобной и более эффективной обработки информации применяется система кодирования.
Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]