Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебник 374.docx
Скачиваний:
14
Добавлен:
30.04.2022
Размер:
2.1 Mб
Скачать

ФГБОУ ВПО «Воронежский государственный

технический университет»

Е.Ф. Иванкин М.П. Иванкин

ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ И ИХ ПРИМЕНЕНИЕ В РИСК-АНАЛИЗЕ ИНФОРМАЦИОННЫХ СИСТЕМ

Утверждено Редакционно-издательским советом

университета в качестве учебного пособия

Воронеж 2012

УДК 681.365

Иванкин Е.Ф. Основы теории информации и их применение в риск-анализе информационных систем: учеб. пособие / Е.Ф. Иванкин, М.П. Иванкин. Воронеж: ФГБОУ ВПО «Воронежский государственный технический университет», 2012. 155 с.

Учебное пособие содержит полный комплект учебно-методических материалов.

Издание соответствует требованиям Федерального государственного образовательного стандарта высшего профессионального образования по специальностям 090301 «Компьютерная безопасность», 090302 «Информационная безопасность телекоммуникационных систем», 090303 «Информационная безопасность автоматизированных систем», дисциплине «Теория информации».

Учебное пособие подготовлено в электронном виде в текстовом редакторе MW-2007 и содержится в файле «Иванкин.docх».

Табл. 4. Ил. 22. Библиогр.: 6 назв.

Рецензенты: ОАО «Концерн «Созвездие»

(канд. техн. наук, ст. науч. сотрудник О.В. Поздышева);

канд. техн. наук, доц. М.И. Бочаров

© Иванкин Е.Ф., Иванкин М.П., 2012

©   Оформление.   ФГБОУ    ВПО «Воронежский   государственный технический   университет»,  2012

Введение

Понятие «информация» чаще всего толкуется как «сообщение, осведомляющее о положении дел, о состоянии чего-нибудь». Кстати говоря, и в нормативных правовых актах чаще всего данное понятие употребляется именно в этом смысле.

Однако, затрагивая такой большой пласт общественных отношений как обеспечение безопасности информации, нельзя обойти стороной и иные определения и концепции, сложившиеся в науке к настоящему времени.

В последнее время выяснилось, что информация играет в науке фундаментальную роль. Возникла потребность понять, что же это такое? Попытки связать информацию с привычными понятиями материи или энергии успехом не увенчались. Стало ясно, что «информация есть информация, а не материя и не энергия» (Н. Винер). Отрицание не может претендовать на роль определения, вместе с тем в данном случае оно существенно, ибо указывает на отсутствие вещественного (и/или полевого) происхождения информации. Попытки связать информацию с энтропией тоже оказались безуспешными, хотя они продолжаются до сих пор. Поэтому вопрос об определении понятия «информация» остается открытым.

Приведем несколько определений рассматриваемого нами понятия.

Информация - обозначение содержания, черпаемого нами из внешнего мира в процессе приспособления к нему и приведения в соответствие с ним нашего мышления (Винер).

Мы видим, что информация определяется в нем через категорию «содержание внешнего мира» и напрямую увязано с человеком, его мышлением и процессом приспособления человека к явлениям и событиям внешнего мира. Иными словами, Винер утверждает, что информация есть содержание окружающей человека действительности (предметы материального мира, погодные условия, среда в которой человек находится) и вне человеческого сознания не существует.

Информация – универсальная субстанция, пронизывающая все сферы человеческой деятельности, служащая проводником знания и мнений, инструментом общения, взаимопонимания и сотрудничества, утверждения стереотипов мышления и поведения (ЮНЕСКО).

Теоретическая модель информации может быть представлена системой, отражающей свойства (состояние) любого объекта (процесса, свойства, параметра и.т.д) с определенной точностью:

где lколичество элементов , каждый из которых может принимать одно из k различных фиксированных состояний.

Тогда общее количество потенциально возможных состояний объекта при равенстве количества возможных состояний k для каждого из элементов определяется согласно выражению:

(В.1)

Полный набор кортежей образует множество отражающее различные состояния объекта.

Используя известный математический аппарат теории множеств, можно представить содержание информации:

- каждому состоянию рассматриваемого объекта (объект 1), описываемому кортежем ставиться во взаимно однозначное соответствие его отображение (в виде определенного состояния другого взаимодействующего объекта – объекта 2), описываемое кортежем , состоящим из n элементов , каждый из которых может находиться в одном из m различных состояний;

- формируется множество определяющее закон, в соответствии с которым осуществляется соответствие, т.е. перечисляются пары участвующие в сопоставлении. Тогда соответствие q представляет собой тройку множеств , в которой Здесь A – область отправления соответствия, B – область прибытия соответствия, Q – график соответствия (отображение А и В). Кроме рассмотренных множеств с каждым соответствием q связаны: множество Пр1Q, называемое областью определения соответствия, в которое входят элементы множества А, участвующие в сопоставлении; множество Пр2Q, называемое областью значений соответствия, в которое входят элементы множества В, участвующие в сопоставлении. Если то элемент b соответствует элементу a.

Всюду определенное соответствие, при котором для каждого существует , то что , называется отображением А в В, которое записывается как и геометрически может быть представлено на рис.1.

Исходя из рассмотренных положений, можно дать следующие определения.

Информация – это кортеж , характеризующий конкретное, из числа всевозможных, состояние исследуемого объекта.

Мера количества информации, сообщаемой при выборе некоторого определенного элемента определяется изменением разнообразия, возника-ющего при выборе конкретного элемента x исходного множества Х.

Геометрическое представление изображения

Для конечного множества Х мощностью N и выбираемого некоторого определенного элемента соответствующие энтропии будут равны:

(В.2)

Так как то количество информации равно энтропии конечного множества:

(В.3)

Здесь логарифмическая мера монотонно возрастает, что удовлетворяет условия аддитивности.

Определение количества информации по Шеннону требует привлечения теоретико-вероятностного подхода. Это обусловлено историческими потребностями теории связи, оперирующей статическими параметрами передаваемых сообщений и каналов связи. На основе этой теории и возникла шенноновская теория информации. Исходное определение количества информации в ней формулируется следующим образом.

Для некоторого конечного множества событий , наступающих c соответствующими вероятностями , заданы условия определения меры информации, предполагающие, что множество вероятностей удовлетворяет естественному условию нормировки:

(В.4)

Тогда количество информации, сообщаемое при наступлении определенного события , определяется изменением степени неопределенности и равно:

(В.4’)

Это выражение связано с мерой, предложенной Хартли, с учетом условия В этом случае энтропия исходного множества по Хартли Н(Х) представляется выражением:

(В.5)

Существует также целый ряд кратких определений, которые невозможно использовать применительно к потребностям юридической науки, однако они в определенной мере характеризуют информацию как общенаучную категорию, как «универсальную субстанцию»:

- информация – это передача разнообразия (Эшби);

- информация – это оригинальность новизны (Моль);

- информация – это вероятность выбора (Яглом);

- информация – это отраженное разнообразие (Урсул).

Из данной серии представляет интерес ещё одно определение, данное Молем: информация – это мера сложности структур. Действительно, чем сложнее объект или процесс, тем больше информации в нём содержится и тем больше информации необходимо для его описания.

Можно сделать несколько важных выводов:

- во-первых, собственно об информации можно говорить лишь тогда, когда хотя бы одним объектом в материальном взаимодействии является живой организм. Исходя из этого, информация есть воспринимаемая живым организмом через органы чувств окружающая действительность в виде распределения материи и энергии во времени и в пространстве и процессов их перераспределения;

- во-вторых, информация не материальна, хотя её носителем является материя;

- в-третьих, чем сложнее объект материального мира или процесс, тем больше информации он в себе несет;

- в четвертых, чем сложнее организм, тем больше вариантов его поведения может соответствовать одной и той же полученной информации.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]