Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие 3000114.doc
Скачиваний:
4
Добавлен:
30.04.2022
Размер:
421.38 Кб
Скачать

Вопросы для самопроверки

  1. Как Вы представляете себе информационное общество?

  2. В чем заключается основной метод, используемый в информатике?

  3. Что определяет вербальный характер информации?

  4. Какие задачи рассматривает системный анализ?

  5. В чем различие информации и данных?

  6. Какие существуют показатели качества информации?

  7. Какая форма представления информации – непрерывная или дискретная – приемлемы для компьютеров и почему?

  8. Сформулируйте теорему Котельникова и поясните ее смысл.

  9. В чем состоит процедура дискретизации непрерывной информации?

  10. Перечислите свойства информации.

  11. Какое свойство информации характеризует возможность ее получения?

  12. Какое свойство информации характеризует степень её соответствия реальности?

  13. Что такое семантическая емкость информации?

  14. В каком виде данные входят в состав команд компьютера?

  15. Что может выступать в качестве носителя информации?

  16. Что представляет собой канал связи в вычислительной сети?

  17. Как связана скорость передачи информации с уровнем помех в системе?

    1. Меры и единицы количества и объема информации

Итак, информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Для измерения информации вводят два параметра: количество информации I и объем данных Vq.

Количество информации I невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы), так как получение информации о какой-либо системе всегда связано с изменением неосведомленности получателя о состоянии этой системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения α. Мерой его неосведомленности о системе является функция H(α). После получения некоторого сообщения β получатель приобрел дополнительную информацию Iβ (α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала Hβ (α).

Тогда количество информации Iβ (α) о системе, полученной в сообщении β, определяется как

Iβ (α) = H(α) - Hβ (α),

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность Hβ (α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Iβ (α) = H(α), т.е. энтропия системы H(α) может рассматриваться как мера недостающей информации.

Энтропия системы H(α), имеющей N возможных состояний, согласно формуле Шеннона равна

,

где Pi - вероятность того, что система находится в i – м состоянии.

Для случая когда все состояния системы равновероятны, т.е. их вероятности равны Pi = , её энтропия определяется соотношением

.

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

N = mn,

где N - число всевозможных отображаемых состояний;

m - основание системы счисления (разнообразие символов, применяемых в алфавите);

n – число разрядов (символов) в комбинации.

При равновероятном появлении любой из кодовых комбинаций количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log m (формула Хартли). Количество информации, содержащееся в сообщениях, является логарифмической мерой числа различных состояний, и в принципе, безразлично, при каком основании вычислять этот логарифм. Обычно основание логарифма выбирают равным двум (из соображений простоты технической реализации устройств ЭВМ), и количество информации получают в двоичных единицах или битах:

I =log2 N и при N = 2 I =1.

Энтропия также является логарифмической мерой:

и если основание логарифма равно двум, то

H2 = log2 m

и энтропия измеряется в двоичных единицах на элемент сообщения.

Объем данных Vq в сообщении измеряется количеством символов (разрядов) в этом сообщении. В ЭВМ наряду с минимальной единицей измерения данных «бит» широко используется укрупненная единица измерения «байт», равная 8 бит. Для удобства использования введены и более крупные единицы. Так, 1024 байта образуют килобайт (Кбайт), 1024 килобайта – мегабайт (Мбайт), 1024 мегабайта – гигабайт (Гбайт) и т.д.