Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция 2. Измерение информации.doc
Скачиваний:
11
Добавлен:
19.11.2019
Размер:
525.82 Кб
Скачать

Пример 3. Игра «Угадай число»

На примере игры "Угадай число" можно рассмотреть уменьшение неопределенности. Один из участников загадывает целое число (например, 30) из заданного интервала (например, от 1 до 32), цель второго - "угадать" число первого участника. Для второго игрока начальная неопределенность знания составляет 32 возможных события. Чтобы найти число, необходимо получить определенное количество информации. Первый участник может отвечать только "да" и "нет". Второй должен выбрать следующую стратегию: последовательно, на каждом шаге уменьшать неопределенность знания в два раза. Для этого он должен делить числовой интервал пополам, задавая свои вопросы.

Вопрос второго

Ответ первого

Количество возможных

событий

(неопределенность

знаний)

Полученное количество информации

 

 

32

 

Число больше 16?

Да

16

1 бит

Число больше 24?

Да

8

1 бит

Число больше 28?

Да

4

1 бит

Число больше 30?

Нет

2

1 бит

Число 30?

Да

1

1 бит

Для того чтобы угадать число из интервала от 1 до 32 потребовалось 5 вопросов. Количество информации, необходимое для определения одного из 32 чисел, составило 5 бит.

Таким образом, очень приближенно можно сказать, что количество информации в сообщении о каком-то событии совпадает с количеством вопросов, которые необходимо задать, чтобы получить ту же информацию, ответ на эти вопросы может быть лишь "да" или "нет".

Вернемся к примеру 1.

Пусть x – количество информации в сообщении о том, что вытащен белый шар. Тогда

2x = 1/0,5  2x = 2  x = 1 бит,

т.е. мы доказали, что сообщение об одном событии из двух равновероятных несет 1 бит информации.

Количество информации можно рассчитать методами Р. Хартли и К. Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информациирассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. I =log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I = – ( p1log2p1 + p2log2p2 + . . . + pNlog2pN),

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N и формула Шеннона превращается в формулу Хартли.

Пример 4. В мешке лежат 64 монеты. Сообщение о том, что достали золотую монету, несет 4 бит информации. Сколько золотых монет было в мешке?

Дано: N = 64; iзол. = 4.

Найти kзол.

Сообщение о том, что достали золоту монету. несет 4 бит информации. Следовательно:

24 = 1/pзол.

Отсюда можно найти вероятность вытаскивания золотой монеты:

pзол. = 1/16.

С другой стороны, pзол. = kзол./N, следовательно, kзол.= Npзол. = 84/16 = 4.

Ответ: Число золотых монет – 4.

Пример 5. В ящике лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?

Дано: kчерн. = 8; kбел. = 24.

Найти: iчерн.

N = kчерн. + kбел. = 32;

p = kчерн./N = 8/32 = ¼;

2iчерн. = 1/pчерн. = 4;

iчерн. = 2 бит.

Ответ: сообщение о том, что достали черный шар, несет 2 бит информации.

В примерах 1-5 количество возможных вариантов информации являлось целой степенью числа 2. Если же количество возможных вариантов информации не является целой степенью числа 2, то необходимо воспользоваться калькулятором или следующей таблицей, в которой N – общее количество равновероятных событий; i – количество информации, бит.

Таблица 1.1