- •В.П. Авдеев, а.Д. Кононов, а.А. Кононов
- •Учебное пособие для подготовки к Интернет – экзамену (часть I)
- •Рецензенты:
- •Введение
- •Основные понятия и методы теории информатики и кодирования
- •Сообщения, данные, сигнал, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации
- •Вопросы для самопроверки
- •Меры и единицы количества и объема информации
- •Вопросы для самопроверки.
- •Позиционные системы счисления
- •Вопросы для самопроверки.
- •Логические основы эвм
- •Вопросы для самопроверки
- •2. Технические средства реализации информационных процессов
- •2.1. История развития эвм. Понятие и основные виды архитектуры эвм
- •Вопросы для самопроверки
- •2.2. Состав и назначение основных элементов персонального компьютера, их характеристики
- •Вопросы для самопроверки
- •2.3. Запоминающие устройства: классификация, принцип работы, основные характеристики
- •Вопросы для самопроверки
- •2.4. Устройства ввода – вывода данных, их разновидности и основные характеристики
- •Вопросы для самопроверки
- •Локальные и глобальные сети
- •Сетевые технологии обработки данных
- •Вопросы для самопроверки
- •3.2.Основы компьютерной коммуникации
- •Вопросы для самопроверки
- •Сетевой сервис и сетевые стандарты. Программы для работы в сети Интернет
- •Вопросы для самопроверки
- •Методы защиты информации
- •4.1.Защита от вирусов
- •Вопросы для самопроверки
- •4.2.Защита информации в компьютерных сетях
- •Вопросы для самопроверки
- •Заключение
- •Библиографический список
- •394006, Воронеж, ул.20-летия Октября, 84
Вопросы для самопроверки
Как Вы представляете себе информационное общество?
В чем заключается основной метод, используемый в информатике?
Что определяет вербальный характер информации?
Какие задачи рассматривает системный анализ?
В чем различие информации и данных?
Какие существуют показатели качества информации?
Какая форма представления информации – непрерывная или дискретная – приемлемы для компьютеров и почему?
Сформулируйте теорему Котельникова и поясните ее смысл.
В чем состоит процедура дискретизации непрерывной информации?
Перечислите свойства информации.
Какое свойство информации характеризует возможность ее получения?
Какое свойство информации характеризует степень её соответствия реальности?
Что такое семантическая емкость информации?
В каком виде данные входят в состав команд компьютера?
Что может выступать в качестве носителя информации?
Что представляет собой канал связи в вычислительной сети?
Как связана скорость передачи информации с уровнем помех в системе?
Меры и единицы количества и объема информации
Итак, информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.
Для измерения информации вводят два параметра: количество информации I и объем данных Vq.
Количество информации I невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы), так как получение информации о какой-либо системе всегда связано с изменением неосведомленности получателя о состоянии этой системы.
Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения α. Мерой его неосведомленности о системе является функция H(α). После получения некоторого сообщения β получатель приобрел дополнительную информацию Iβ (α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала Hβ (α).
Тогда количество информации Iβ (α) о системе, полученной в сообщении β, определяется как
Iβ (α) = H(α) - Hβ (α),
т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.
Если конечная неопределенность Hβ (α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Iβ (α) = H(α), т.е. энтропия системы H(α) может рассматриваться как мера недостающей информации.
Энтропия системы H(α), имеющей N возможных состояний, согласно формуле Шеннона равна
,
где Pi - вероятность того, что система находится в i – м состоянии.
Для случая когда все состояния системы равновероятны, т.е. их вероятности равны Pi = , её энтропия определяется соотношением
.
Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения
N = mn,
где N - число всевозможных отображаемых состояний;
m - основание системы счисления (разнообразие символов, применяемых в алфавите);
n – число разрядов (символов) в комбинации.
При равновероятном появлении любой из кодовых комбинаций количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log m (формула Хартли). Количество информации, содержащееся в сообщениях, является логарифмической мерой числа различных состояний, и в принципе, безразлично, при каком основании вычислять этот логарифм. Обычно основание логарифма выбирают равным двум (из соображений простоты технической реализации устройств ЭВМ), и количество информации получают в двоичных единицах или битах:
I =log2 N и при N = 2 I =1.
Энтропия также является логарифмической мерой:
и если основание логарифма равно двум, то
H2 = log2 m
и энтропия измеряется в двоичных единицах на элемент сообщения.
Объем данных Vq в сообщении измеряется количеством символов (разрядов) в этом сообщении. В ЭВМ наряду с минимальной единицей измерения данных «бит» широко используется укрупненная единица измерения «байт», равная 8 бит. Для удобства использования введены и более крупные единицы. Так, 1024 байта образуют килобайт (Кбайт), 1024 килобайта – мегабайт (Мбайт), 1024 мегабайта – гигабайт (Гбайт) и т.д.