Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебник 374.docx
Скачиваний:
14
Добавлен:
30.04.2022
Размер:
2.1 Mб
Скачать

Заключение

Теорию информации породила теория связи, где были введены первые меры информации. Так, в 1924 г. Г. Найквист показал, что скорость передачи сигналов v по каналу связана с nчислом различных кодовых символов зависимостью равна

где k – константа, определяемая скоростью передачи последовательных символов. Он первым предложил логарифмическую меру информации. Далее Р. Хартли в 1928 г. определил информацию сообщения как

где m – количество символов в сообщении, а n- количество доступных для использования различных символов. Эта мера применима только тогда, когда символы выбираются независимо один от другого, и выбор любого из символов равновероятен.

Развитие теории информации применительно к проблемам ее передачи было осуществлено в 40-е гг. ХХ в. К. Шенноном, который предложил следующую меру количества информации

где pi – вероятность того, что будет выбран i-й символ из полного набора в n символов, которые вырабатывает источник сообщений, I измеряется в битах (от англ binarydigit – двоичная система).

Идея К. Шеннона нашла широкое применение на практике – при оптимизации каналов связи, в системах обработки данных, при разработке электронно-вычислительной техники и т.п. А.Н. Колмогоровым и Н. Винером решена задача фильтрации (выделения полезного сигнала из комбинации «сигнал-шум» при заданных статистических характеристиках сигнала) и предсказания значения полезного сигнала, которая находит широкое использование при проектировании непрерывных динамических систем, в системах управления технологическими процессами.

Далее информацию стали связывать не только с источником и приемником сигналов, но и с ее значением для потребителя, наблюдателя. Были попытки применения рассмотренных выше мер и для оценки ценности информации. Способы количественного определения ценности основаны на представлении о цели, достижению которой способствует полученная информация, т.е. чем в большей мере информация помогает достижению цели, тем более ценной она считается.

Когда цель наверняка достижима и притом несколькими путями, то возможно определение ценности (V) по уменьшению материальных или временных затрат, благодаря использованию информации.

Когда же достижение цели носит вероятный характер, возможно использование меры ценности, предложенной М.М. Бонгардом и А.А. Харкевичем:

где P1 – вероятность достижения цели до получения информации, а P2– после. Причем, априорная вероятность P1 зависит от полного количества информации I: если до получения информации все варианты равновероятны, то P1=1/n, где n – число вариантов, а I=log2n.

Апостериорная вероятность P2 может быть как больше, так и меньше P1. Когда ценность отрицательна, такая информация называется дезинформацией.

Другой мерой ценности, предложенной В.И. Корогодиным, является величина

которая изменяется от 0 до 1.

Ценность информации зависит от величины P1 – вероятности достижения цели до получения информации, т.е. от того, какой предварительной (априорной) информацией уже располагает рецептор. Предварительная осведомленность называется тезаурусом. Если таковая отсутствует, то априорная вероятность во всех вариантах одинакова и равна P1 =1/n(где n – число вариантов) В этом случае величина P1 играет роль нормировочного множителя. Если при этом после получения информации цель достигается наверняка (P2=1), то ценность этой информации максимальна и равна V=Vmax= log2n, т.е. совпадает с максимальным количеством информации в данном множестве (в данной таре).

Попытки создать семантическую теорию информации опирались на концепцию Р. Карнапа и И. Бар-Хиллела, согласно которой наивысшей ценностью обладают гипотезы, подтвержденные достоверным знанием, экспериментов. В этом случае логическая информация приравнивается единице, а семантическая нулю. С уменьшением степени подтверждения гипотезы количество содержащейся в ней семантической информации увеличивается. В развитие Л.Бриллюэн предложил разновидность статистической меры для измерения семантической информации, основанную на измерении и уменьшении неопределенности

L2=K ln(P1/P2) = K ln P1 - K lnP2,

где P1 – число возможных равновероятных исходов (при исходной, априорной информации о задаче I0=0); P2– число равновероятных исходов, уменьшенное после получения информации; I2 – апостериорная информация, получаемая после уменьшения неопределенности; К – постоянная, зависящая от выбора системы единиц, для перевода в биты K=1/ln2.

Далее А.А. Харкевич связал ценность информации с целью деятельности, предложив рассматривать энтропийную меру Шеннона как меру вероятности непопадания в поражаемую цель, т.е. вероятности недостижения цели. В свою очередь Ю.А. Шрейдер предложил построить теорию семантической информации на основе концепции разнообразия, а не концепции снятия неопределенности, и в частности, на основе учета такого свойства информации как зависимость получаемой информации от априорной информации. Опираясь на идею Н. Винера о том, что для понимания и использования информации получатель должен обладать определенным запасом знаний, т.е. в терминах математической лингвистики и теории языков – тезаурусом, Ю.А. Шрейдер определяет количество семантической информации I(T,), содержащейся в тексте Т, как степень изменения тезауруса .

По Шрейдеру, чем более сложную структуру имеет тезаурус, тем больше существует возможностей для изменений под воздействием одного и того же сообщения. Это хорошо согласуется с законом «необходимого разнообразия» У.Р. Эшби, согласно которому управляющая (осмысливающая, понимающая, принимающая решения) система должна обладать большим необходимым разнообразием (сложностью) по сравнению с разнообразием поступающей в нее информации от управляемой (понимаемой) системы.

По мере роста наших знаний об изучаемом объекте растет и количество извлекаемой информации об этом объекте.

Для количественной оценки ценности семантической информации М. Волькенштейн предлагает определять ценность следующим образом:

где I – количество поступающей информации; - тезаурус; А, В, С - константы.

При очень большом и очень малом (или I) V неограниченно убывает , При очень большом IVA. Максимальное значение информации соответствует условию = I/С, т.е. когда пропорционален количеству получаемой информации.

Процесс научного познания представляется как уточнение старых и формирование новых научных понятий, в выявлении и корректировке связей между понятиями, т.е. тезаурус трактуется как определенная структура, которая изменяется под воздействием новой информации в процессе познания и предлагается гипотетический подход, в соответствии с которым информация не одинаково зависит от сложности структуры:

где I – количество информации в сообщении; х- изменение сложности структуры общечеловеческого тезауруса науки; а и b – коэффициенты. Если под воздействием сообщения внутренняя структура общечеловеческого тезауруса становится менее сложной, чем до этого сообщения, то в таком сообщении содержится больше информации, чем в сообщении, вызывающем усложнение структуры , т.е. количества (ценности) информации I больше при х<0. Крупные научные открытия в целом упрощают структуру знания – благодаря введению новых, более общих понятий, что и является следствием и проявлением свойства кумулятивности информации.

Е.К. Войшвилло предложил различать информацию восприятия (знак) и информацию-значение, смысловое содержание для потребителя информации (означаемое знака). С точки зрения наблюдателя информацию рассматривали в нескольких аспектах: прагматический- для достижения целей наблюдателя; семантический – с точки зрения смыслового содержания и правильности толкования; синтаксический (или материально-энергетический, технологический, алгоритмический) – с точки зрения техники, правил преобразования и передачи информации.

Понятие информации и как философской категории развил А.Д. Урсул, который стал рассматривать информацию как форму существования материи, подобно массе и энергии.

В теории информационного поля А.А. Денисова информация рассматривается как структура материи, как категория, парная по отношению к материи. Он показал, что информацией для потребителя является пересечение информации восприятия или чувственной информации и ее потенциала или логической информации, в результате чего формируется единое понятие – информационный смысл, информационная сложность.

Кроме того, в концепции А.А. Денисова учитывается, что далеко не всегда может быть строго определено вероятностное пространство. В этом случае можно использовать понятие размытой вероятности Заде. Поэтому предложена информационная мера, учитывающая степень влияния ресурсов (в том числе информации как ресурса) на реализацию целей. Эта мера позволяет учесть не только вероятность достижения цели, но и вероятность того, что данная информация будет использована лицом, принимающим решение, при реализации цели:

где мера Шеннона получается при qi = pi как частный случай.

В контексте обеспечения информационной безопасности систем Г.А. Остапенко были предложены соответствующие информационные измерения результатов кибератак.

Объектами применения информационного оружия здесь являются уязвимости (по отношению к оператору атаки Т) данных: ХТ – входных и ZТ – внутренних, и - демилитаризованные (в отношении Т) подмножества данных. Выходные данные системы SY определяет ее оператор F из указанных множеств данных и

как продукт атаки данных Т(Х)= , Т(Z)= . Теоретически возможна и атака оператора (системного и прикладного программного обеспечения), когда T(F)=

.

Она сложнее в реализации, но и опаснее для SY. Довольно часто приходится иметь дело с комплексной атакой, когда

Далее, рассматривая

и ,

обратимся к анализу многообразия информационных атак.

К примеру, атака уничтожения или Dl- атака предусматривает стирание Dl множества ХТ.

.

Одной из относительных характеристик ущерба в данном случае может стать коэффициент полноты

,

где I – оператор определения объема информации в множествах данных. Если наряду со стиранием Dl осуществляется также запись Wz некой сторонней информации XT, то имеет место модификация или Dl / Wz – атака следующего содержания

,

где ущерб относительно можно оценить через коэффициент избыточности

.

При ∅ имеет место прямая подмена данных.

Атака несанкционированного доступа или Rd– атака состоит в чтении Rdмножества уязвимых данных. Злоумышленники чаще стараются реализовать это в отношении внутренних данных Z, тогда относительный ущерб характеризует коэффициент конфиденциальности

,

где V – функция оценки ценности данных. Отсюда кражу информации описывает модель

.

Атаку на актуальность информации можно пояснить через параметр задержки τ входных данных

и .

В данном случае ущерб попытаемся оценить относительно коэффициентом

,

учитывающим τА время актуальности задержанной информации (τ < τА).

При экспоненциальных зависимостях ценности информации от времени возможна формула ущерба

.

Эти и подобные измерения могут быть полезны для проведения информационного риск-анализа.

Оценка шансов полезности и рисков ущербности

Рассмотренные выше вопросы информационного измерения событий являются важнейшим аспектом оценки успешности и ущербности деятельности.

Как шансы, так и риски обусловлены двумя составляющими: мерой события и возможностью его наступления. Для шансов это измерение носит позитивный характер, а для рисков – негативный. Иными словами, в первом случае мы оцениваем ожидаемую пользу, а во втором – ожидаемый ущерб. Очевидно, что инновационная деятельность и ее эффективность складывается из этих величин, носящих в общем случае случайный характер. Нечеткие множества и теория вероятностей позволяют оценить возможность наступления таких событий, когда их информационные измерения приобретают различные значения. Осуществим по этому поводу некоторые аналитические выкладки.

Традиционно в теории информации исходным понятием выступает «вероятностная схема», т.е. пара

,

где - полная группа парно несовместимых событий, а - вероятность наступления этих событий.

В случае, когда (на основе методологии, изложенной в предыдущем разделе) возможно и реализовано информационное измерение последствий данных событий δ(ai), вероятностная схема пример вид

,

откуда вытекает возможность шансов рисковых оценок

.

Причем, в инновационной деятельности, по принципу «нет худа без добра», всякое даже прогрессивное событие несет как позитив (пользу), так и негатив (ущерб) информационному полю

δ+(ai)=viи δ-(ai)=ui.

К тому же, в инновационном процессе подобные шансы и риски особенно велики в плане ожидания как прироста, так и спада в острый период реализации инновации. Графически эту ситуацию иллюстрирует рисунок З.1, на котором представлены «частоколы» шансов Chs и рисков Risk. Определенные упрощения картины дают меры усреднения

и вычисления среднеквадратичного отклонения (СКО)

где отрезок i=[min,max] обусловлен минимально возможными и максимально допустимыми значениями ущерба и/или пользы. Такое усечение, очевидно, приводит к неравенству . В практическом плане P(ai) имеет более широкое толкование, чем вероятность. Это, скорее, функция возможности, вытекающая из статистической частоты событий ai или из близких к ней нечетких чисел, полученных экспертным путем.

Эффективность анализируемой системы или процесса представляется возможным оценить, исходя из рисунка З.2. Из него эффективность для события ai будет равна

.

Соответственно интегральная оценка будет выглядеть следующим образом

.

Рис. З.1. Зависимости шанса и риска

пространство упущенных возможностей

пространство ожидаемого эффекта

δ

Рис. З.2. Оценка эффективности

Вышеприведенные выражения могут оказаться полезными для оценки параметров инновационных проектов, в том числе в динамике их реализации

где: Эср[n+1] – прогноз эффективности по среднему проекта на ожидаемом интервале [n+1];

vср[n] – польза, полученная в среднем интервале наблюдения [n];

uср[n] – средний ущерб в интервале [n];

z [n] – текущие затраты в интервале [n].

Последнее выражение, очевидно, может быть развито с учетом СКО. В этом случае получается так называемая диапазонная оценка эффективности базирующаяся на информационных измерениях типа (δсрδско). При этом предельная оценка, очевидно, имеет смысл, если в проекте (vcp-ucp)>z. В противном случае инновационная «игра не будет стоить свеч». Разумеется, возможно учесть и стартовые, капитальные затраты проекта zск. В этому случае z будет иметь более широкое толкование

Задача состоит в том, чтобы обеспечить существенно большую разность между v и u в сравнении с z. Однако прогнозирование эффективности остается многофакторной и архисложной задачей. Именно поэтому эвентологическое развитие теории информации считается одним из самых актуальных разделов информатики.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]