Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вопросы по информатике.docx
Скачиваний:
8
Добавлен:
22.04.2019
Размер:
583.23 Кб
Скачать
  1. Понятие об информационных процессах.

Информация — объект изучения и исследования целого раздела кибернетики, который называется теорией информации и занимается математическим описанием и оценкой методов передачи, хранения, поиска и классификации информации, а также изучает и исследует общие стороны информационных процессов различной природы — технической (сигналы в электронных схемах ), биологической (биотоки в организмах), экономической, социальной и т.д.

Теория информации изучает лишь количественную сторону информации без семантического содержания и ценности для получателя. Анализом информационных потоков занимается информатика — наука, изучающая и исследующая информационные процессы и системы в социальной сфере, — их роль, методы построения, механизм взаимодействия на практическую деятельность человека и усиления этого взаимодействия с помощью средств вычислительной техники.

Информатика тесно связана с понятием информационных технологий. По определению академика В. М. Глушкова, процессы, где основной продукцией, которая перерабатывается есть информация, называются информационными технологиями. Причем информация рассматривается поданной в знаковой форме: в виде текстов сообщений, сведений, исходных данных, таблиц, графиков, задач и т.п.

Слово информация происходит от латинского informatio — изложение, разъяснение, толкование, представления, понятия, осведомленность, просвещение. Понятие информации неоднократно менялось, его границы то расширялись, то сужались. Сначала под этим словом понимали представления, понятия, затем — сведения, передачу сообщений.

Современная наука трактует понятие информации как отдельной самостоятельной субстанции, которая может передаваться и порождать новое информационное пространство. Замечено, что в природе трудно провести четкую границу между энергетическими и информационными явлениями, как и сказать что первично действие или информация, поступившая. Например удар молнии в дерево, или толчок пассажира при выходе из транспорта можно рассматривать не только как передачу энергии, но и передачу информации от одного объекта к другому. Вместе с тем любое информационное сообщение, например просьба пропустить пассажира при выходе, тоже будет сопровождаться энергетическими затратами. Как видим существует взаимно-однозначная зависимость между передачей энергии и информации, они не могут существовать друг без друга.

Передача информации осуществляется по системе, включающей в идеале компоненты. Отправитель информационного сообщения является источником информации и передает данные по информационному каналу, в котором могут присутствовать шумовые эффекты, адресату. Прием сообщения являются основным звеном информационного процесса и представляет собой отношение: предмет (имя, носитель информации) — приемник информации-отражения предмета информации — контекст — интерпретация сообщения. Если согласиться с данной схемой информационного процесса, то информацию можно рассматривать как величину или меру, характеризующий различные формы отражения, структурного ризнобиччя взаимодействующего с адресатом источника сообщения. Составной частью информационного сообщения будем считать знак, определим как материальный объект, условно представляет некоторый предмет, явление, связь или отношения предметов, явлений, связей, а также: чувственный состояние источника сообщения.

Самой примитивной формой знака может быть сигнал, возникающий в результате чувственной взаимодействия на нервную систему адресата. Именно сигнал является основным звеном информационного процесса в растительном и животном мире, использующих заложенные врожденным инстинктом программы поведения.

Самой сложной формой знака является символ, который служит основным звеном информационного процесса во всех сферах деятельности человека, включая умственную, социальную, творческую, техническую, экономическую, финансовую, лингвистическую и т.д. Символ как носитель информации включает четыре аспекта:

  • имя или предмет (материальный носитель информации);

  • отражения предмета (предмета, явления, что обозначено данным именем);

  • сущность (понятие и знания о предмете или явлении);

  • чувственное восприятие (интонация, звуковые или визуальные эффекты).

В ходе исторического процесса становления и развития информационных систем человечество создало искусственный знак, с целью представления информации и автоматизированной обработки ее средствами вычислительной техники. Искусственный знак включает два аспекта:

  • имя или предмет (материальный носитель информации);

  • сущность (понятие и знания о предмете или явлении.

В зависимости от аспектов отображения и компонентов знака, к которым относится информационная величина, различают следующие виды информации:

Прагматическая — характеризует ценность сообщения с точки зрения, ориентированной на получателя (приемника) информации, его возможностях;

Семантическая — оценивает сообщение с точки зрения его сущности и вариантов знаний о заданном предмет;

Синтаксическая — характеризует оценку сообщения получателем в пределах тех ограничений, которые накладываются на комбинации и возможности применения знаков;

Сигматическом — характеризует сообщение с точки зрения отношения обозначенного именем предмета, явления действительности и т.д. со знаниями о нем;

Аффективная — характеризует сообщение с точки зрения эстетического, эмоционального, чувственного восприятия информации на уровне нервной деятельности человека.

В 1948 году американский математик К. Э. Шеннон предложил вероятностно теорию информации, которая получила название теории информации Шеннона и служит сегодня основной методологической базой для исследования информационных процессов в автоматизированных системах обработки данных.

Очевидно что имеются сообщения информация в которых может существенно зависеть от времени или срока получения приемником, ведь задержка сообщения изменяет его характер. Примерами могут быть погоде или штормовое предупреждение. Нормальным является случай, когда вся информация в сообщении поступает вовремя, например бой часов.

Очевидно, что есть сообщения, информация которых не зависит от времени и учитывая тот факт что семантика нас не интересует в данном случае, будем их считать знаками. Эти знаки могут быть избранными с определенными не зависящими от времени вероятностями с некоторой конечной или бесконечного множества знаков, фактически составляет словарь. Например, следует особо отметить пример с бросанием игрального кубика, когда вероятность встретить нужный знак Z в любое время t совпадает с относительной частотой появления знака Z среди последовательности всех знаков. Последовательности знаков с такими особенностями называются шенноновськимы сообщениями, а отправитель — шенноновськнм источником.

Как видим, информационную ценность составляют сообщения, которые осуществляются не по правилам, расписанием и т.п., они и будут шенноновськимы. Уместно в этой связи вспомнить слова Нильса Йонсона: «Тот факт, что зло все еще имеет более высокую информационную ценность, чем добро, — неплохой признак. Он доказывает, что добро является правилом, а зло, наоборот, исключением из правила».

Шенноновська теория информации или количеству информации, исходит из элементарного альтернативного выбора между двумя знаками X и Y, который соответствует приему сообщения, состоящего из одного двоично знака и принимается за единицу количества информации и называется битом. Следует отметить, что восемь битов создают — байт.

Проблема информации является одной из наиболее актуальных и фундаментальных в условиях современного развития науки и техники. Однако единого общего определения понятия информации не существует. Это свидетельство бурного и противоречивого развития понятия информации в науке, который породил множество точек зрения на этот вопрос.

Довольно часто сущность информации рассматривается через понятие энтропии.

Энтропия — одно из фундаментальных понятий, выдвинутых наукой за последнее столетие и трактуется как мера энергии, необходимой для возвращения определенной системы в определенный исходное состояние; как мера беспорядка, что имеет место в системе, степень неопределенности знаний о внутренней структуре системы.

Н. Винер подчеркивает, что энтропия и информация связанные потому, что характеризуют реальную действительность с точки зрения хаоса и упорядоченности. Если энтропия — мера хаоса, то информация — мера упорядоченности. Л. Бриллюэн охарактеризовал информацию как негативную энтропию, или негэнтропию. Низкая энтропия означает неустойчивое состояние, которое рано или поздно перейдет путем естественной эволюции в устойчивое состояние с высокой энтропией.