Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

логика и методология

.pdf
Скачиваний:
43
Добавлен:
14.04.2015
Размер:
1.65 Mб
Скачать

Кумулятивная концепция опирается на следующие методологические принципы: существуют неизменные, раз навсегда установленные, окончательные истины, которые накапливаются; заблуждения не являются элементом научного знания, не представляют интереса для его истории и методологии; наука жестко отделена от ненаучных форм знания, в том числе от философии; весь накопленный историей науки запас знаний остается без изменений. Ничто не отбрасывается, прообраз и истоки нового всегда можно найти в старом знании, что отражено в известном высказывании: «новое - это хорошо забытое старое».

Существуют ли основания для такой концепции? Безусловно, да. Но реальная история науки - это не только накопление, но и постоянное отбрасывание, критическое преодоление разрабатываемых идей, гипотез, теорий и методов. Тому множество примеров.

Классическим примером кризиса кумулятивистской модели науки служит так называемый кризис в основаниях математики в начале ХХ века. Математики были убежденными сторонниками классической кумулятивистской эпистемологии, представляя свою науку как идеал строго доказанного и неопровержимого знания. Однако программа Д. Гильберта по построению завершенного здания математики оказалась невыполнимой, а австрийский математик и логик К.Гѐдель в начале 30-х годов показал несостоятельность идеи полного и окончательного обоснования математики, вообще полной формализации научного знания.

Некумулятивистские концепции часто впадают в другую крайность и отрицают преемственность в развитии науки. Примером такого подхода может служить тезис о «несоизмеримости теорий», сформулированный Т.Куном и П.Фейерабендом. В своих рассуждениях они исходили из того, что каждая новая фундаментальная теория, объясняя тот же эмпирический материал из различных онтологических оснований, имеет принципиально иной понятийный аппарат. Даже в том случае, когда используются одни и те же термины, они получают иное содержание.

Сегодня понятно, что выяснение степени преемственности теорий является методологической трудностью.

Как сочетаются эволюция и революция в истории науки?

Среди зарубежных исследователей проблемы революции в науке наиболее значителен Т.Кун – американский физик-теоретик, обратившийся к философии и истории науки с целью преодоления позитивистских концепций и создания самостоятельной целостной концепции науки, ее роста и изменения.

Основные позиции концепции Куна состоят в следующем. Субъектом на- учно-познавательной деятельности является научное сообщество, организующееся как некоторая школа, направление. Каждый отдельный ученый с необходимостью входит в такое сообщество, усваивая все его идеалы, образцы, ценностные ориентации, которые образуют некоторую парадигму, т.е. образец, пример осуществления научного поиска, решения научных проблем. Сам Кун под парадигмой подразумевает признанные всеми научные достижения, которые в течение определенного времени служат моделью постановки проблем и их решений данному научному сообществу.

121

Пока господствует данная парадигма наука, называемая в этом случае «нормальной», предстает как почти алгоритмическая деятельность по выбору проблем, задач, «головоломок» и способов их решения. Однако следование образцам решения проблем возможно лишь до поры до времени, поскольку постепенно накапливаются аномалии, т.е. отклонения и противоречия, в частности, новых фактов и старых теорий. Это приводит к «сбрасыванию» старой парадигмы, разрушению способа видения, возникновению новых стандартов исследования, преодолевающих накопившиеся аномалии. Вот этот момент смены парадигм, превращения науки из нормальной в «экстраординарную» и трактуется Куном как революционный переворот.

Примеры:

˗научный переворот Коперника;

˗смена парадигмы флогистона на парадигму сохранения энергии;

˗смена теории Ньютона на теорию Эйнштейна.

Вто же время существуют аргументы и для эволюционной теории развития науки, которую развивал Поппер:

Эволюция знания осуществляется через построение все лучших теорий, с лучшей информацией, которую люди активно извлекают из окружающей действительности. Наука действует путем «проб и ошибок» и как природа устраняет «неприспособленных к адаптации». Большая часть знаний как у людей, так и

уживотных, являются гипотетическими, хотя и соответствуют в определенной мере объективным фактам.

Иначе говоря, теория изменения знания строится по аналогии с биологической эволюцией как теория эволюции «концептуальных популяций».

На сегодня принято диалектическое единство обоих подходов.

§ 20. СИНЕРГЕТИКА - НОВАЯ МЕТОДОЛОГИЯ НАУКИ

Основная модель и условия ее применимости

Переход к постнекласической науке связан с появлением новых методологий , главными из которых считаются три: системный подход, информатизация, синергетика. Системный подход подробно рассматривался в курсе ТССА. Методологии информатики и информатизации посвящен следующий параграф. Сейчас кратко охарактеризуем методологическое значение синергетики.

Синергетика изучает когерентное (согласованное) состояние процессов самоорганизации в сложных системах различной природы.

Для того, чтобы было возможно применение синергетики, изучаемая система должна быть диссипативной (рассеивающей энергнию), т.е. отвечать следующим требованиям:

˗быть открытой;

˗быть нелинейной. Пример человека как нелинейной системы: изменение температуры воздуха в аудитории от 18 С до 23 С скажется на самочувствии не столь значительно, изменение от 30 С до 35 С);

˗состоять из множества элементов и подсистем (электронов, атомов, молекул, клеток, нейронов, органов, сложных организмов, социальных групп и т.д.),

122

взаимодействие между которыми может быть подвержено незначительным случайным изменениям (малым флуктуациям);

˗ находиться в состоянии нестабильности, т.е. в неравновесном состоянии. Что происходит с системой при этих условиях?

Возможны случаи, когда флуктуации будут столь сильны, что овладеют системой полностью, придав ей свои колебания, и по сути изменят режим ее существования. Они выведут систему из свойственного ей "типа порядка» либо к хаосу, либо и к упорядоченности иного уровня.

Точка состояния системы, в которой происходит «срыв» прежнего порядка, называется точкой бифуркации. Автор концепции синергетики И. Пригожин показал, что точки бифуркации являются точками раздвоения, «вилки» продолжения развития, причем предсказать направление движения системы в этой точке нельзя.

С другой стороны, в пространстве состояний системы есть «зоны скопления», или аттракторы - притягивающие множества, образующие собой центры, к которым тяготеют элементы.

Пример: когда скапливается большая толпа народа, то отдельный человек, двигающийся в собственном направлении, не в состоянии пройти мимо, не отреагировав на нее. Изгиб его траекторий осуществится в сторону образовавшейся массы. В обыденной жизни это часто называют любопытством.

В теории самоорганизации подобный процесс получил название "сползание в точку скопления". Аттракторы стягивают и концентрируют вокруг себя стохастические элементы, тем самым структурируя среду и выступая участниками созидания порядка.

Таким образом, развитие диссипативной системы видится синергетикой как непредсказуемые «прыжки» между аттракторами, при чем между прыжками система ведет себя традиционно – регулярно или стохастистически.

Границы применимости синергетических концепций

Синергетика использует математические модели для описания нелинейных процессов самоорганизации. Синергетика устанавливает, какие процессы самоорганизации происходят в природе и обществе, какого типа нелинейные законы управляют этими процессами и при каких условиях, выясняет, на каких стадиях эволюции хаос может играть позитивную роль, а когда он нежелателен и деструктивен.

Однако применение инструментария и методологии синергетики в исследовании социальных процессов ограничено в некоторых отношениях:

1.Удовлетворительно поняты, с точки зрения синергетики, могут быть только массовые процессы. Поведение личности, мотивы ее деятельности, предпочтения едва ли могут быть объяснены с ее помощью, так как она имеет дело с макросоциальными процессами и общими тенденциями развития общества. Она дает картину макроскопических, социоэкономических событий, где суммированы личностные решения и акты выбора индивидов. Индивид же, как таковой, синергетикой не изучается.

2.Синергетика не учитывает роль сознательного фактора духовной сферы, так как не рассматривает возможность человека прямо и сознательно противо-

123

действовать макротенденциям самоорганизации, которые присущи социальным сообществам.

3.При переходе на более высокие уровни организации возрастает количество факторов, которые участвуют в детерминации изучаемого социального события, в то время как синергетика применима к исследованию таких процессов, которые детерминированы небольшим количеством фактов.

Вопрос: где с точки зрения этой концепции находятся такие феномены информационного общества, как сеть Интернет и ее пользователи?

§21. НЕКОТОРЫЕ АСПЕКТЫ МЕТОДОЛОГИИ ИНФОРМАТИКИ

21.1.Предпосылки и история возникновения информатики

Термин «информатика» происходит от французских слов «информация» и «автоматика». Формально так называется наука об автоматической обработке информации. Он используется в России и Восточной Европе. В Западной Европе и США вместо него используют термин «компьютерная наука» (Computer science).

Содержательные определения информатики многочисленные и многообразные. Его можно определить как междисциплинарное направление современной науки и техники, включающее в себя целое семейство дисциплин.

Предпосылками появления информатики как самостоятельной научной дисциплины, а затем и как методологии, послужили три теории, каждая из которых со своей стороны подходит к трактовке понятия «информация»:

˗Теория информации (К. Шеннон и др.) – информация как характеристика канала связи.

˗Кибернетика (Н. Винер, Мак-Каллок - нейрокибернетика, А. Тьюринг, М. Мински - ИИ) - информация как средство управления системами живой и неживой природы.

˗Общая теория систем (Л. фон Берталанфи, А. Рапопорт) – информация как

множество системообразующих элементов.

Технологическую реализацию идеям кибернетики обеспечило появление эффективной архитектуры компьютеров (Дж. фон Нейман)

Напомним кратко основные концепции этих теорий.

Теории информации. Здесь были выделены три основных, относительно независимых аспекта информации: синтаксис, семантика и прагматика.

Энтропийная теория (К. Шеннон, 1948). К. Шеннон в работе «Математическая теория связи» использовал теоретико-вероятностный подход. Понятие информации он определял формально через энтропию, содержащуюся в передаваемых сообщениях. За единицу информации Шеннон принял то, что впоследствии назвали «битом». Учет вероятностей символов позволил ему получить более точную формулу для количества информации в реальных сообщениях, примерно вдвое сокращавшую время их передачи.

Шенноном была предложена общая схема системы связи, состоящая из пяти элементов (источника информации, передатчика, канала передачи сигнала,

124

приемника и адресата), сформулированы теоремы о пропускной способности, помехоустойчивости, кодировании и др. Его идеи быстро распространяли свое влияние на самые различные области знаний.

Однако теория информации К. Шеннона не являлась универсальной. Осознание ограниченности теории информации Шеннона привело к возникновению других подходов в еѐ исследовании. Наряду с энтропийным, наиболее употребительными среди них являются: алгоритмический, комбинаторный, структурный, семантический и прагматический. Последние два определяют качественные характеристики информации.

Семантическая концепция информации возникла как попытка измерения смысла сообщений в форме логических высказываний (суждений), являющихся носителями знания и понимаемых человеком. Конкретные варианты:

в концепции И. Бар-Хиллела (США) и Р. Карнапа (Австрия) сообщение понимается как пропозициональная формула (высказывание), а семантическая информация измеряется числом состоянии универсума, при которых эта формула ложна. Это реализация идеи Г. В. Лейбница о том, что логически истинные предложения, верные во всех возможных мирах, не могут нести фактической информации.

А.А. Харкевич предложил измерять ценность информации через изменение вероятности достижения определѐнной цели, возникающее под воздействием данного сообщения. Семантическая информация сообщения любой природы можно оценивать как степень изменения системы знаний (тезауруса) адресата в результате восприятия данного сообщения.

Прагматическая концепция информации состоит в том, чтобы, опираясь на результаты синтаксической и семантической теорий информации, выявить еѐ ценность (полезность). Она обладает полезностью и ценностью для получателя потому, что может быть использована. В этом случае ее измерение основывается на таких понятиях, как цель, ценность, полезность, эффективность, экономичность и т.д. информации, т.е. те ее качества, которые определяющим образом влияют на поведение самоорганизующихся, самоуправляющихся, целенаправленных кибернетических систем.

Конкретный вариант - бихевиористская модель Акоффа–Майлса. Индивидуум (получатель) находится в "целеустремленном состоянии", ес-

ли он стремится к чему-нибудь и имеет альтернативные пути неодинаковой эффективности для достижения цели. Сообщение, переданное получателю, информативно, если оно переводит его в другое «целеустремленное состояние», с другой эффективностью. Прагматическая ценность информации определяется как функция разности этих количеств .

Кибернетика толкует информацию как средство управления системами живой и неживой природы. Поскольку оперативные свойства информации выражаются в процессуальных формах, здесь речь идет о процессах приема, хранения, обработки и передачи информации. С другой стороны, саму кибернетику можно рассматривать как прикладную информатику в смысле информационной технологии создания и использования автоматических или автоматизирован-

125

ных систем управления разной степени сложности. Конечная цель, еѐ идеал в таком случае представляется в форме «искусственного интеллекта».

Кибернетика междисциплинарна, поскольку ее основы заложены целым рядом самых различных наук.

Зарождение кибернетики ознаменовано выходом в свет в 1948 г. книги Н. Винера «Кибернетика, или управление и связь в животном и машине». Основополагающая идея кибернетики Винера – подобие процессов управления и связи в машинах, живых организмах и обществах. Эти процессы заключаются в приеме, хранении, переработке и передачи информации. Система, принимая информацию, использует ее для выбора оптимального способа поведения, которое может регулироваться лишь с помощью обратной связи. При этом, почти одновременно с Шенноном, Винер разрабатывал статистическую теорию количества информации. Отождествляя информацию с отрицательной энтропией, он характеризовал ее наряду с веществом и энергией как фундаментальное явление природы.

Кибернетика Винера быстро разнообразилась по формам. Общие принципы построения и функционирования управляющих систем, положение о решающей роли информации в таких системах нашли поддержку ученых из разных областей. Ключевой фигурой в расширении сферы исследования кибернетики был американский ученый Уоррен Мак-Каллок. Психиатр по образованию, он сочетал свои знания с нейрофизиологией, математикой и философией. В 1943 г. Мак-Каллок совместно с Уорреном Питсом разработал теорию деятельности головного мозга, ввел понятие формального нейрона. Ее результаты стали началом новой ветви науки – нейрокибернетики.

Ярким лидером кибернетического движения середины ХХ века был английский математик, логик и криптограф Алан Матисон Тьюринг. Еще в 1936 г., преодолевая трудности проблемы неразрешимости в математике, он создал свою формальную модель универсального алгоритма - так называемую «машину Тьюринга». Его работы стимулировали исследования в области ИИ.

Марвин Мински (1927 - ) в настоящее время является профессором информационных искусств и наук, профессором электроники и электротехники и профессором вычислительных наук. Нписал книгу «Персептроны» (с Сеймуром Папертом), ставшую фундаментальной работой для последующих разработок в области искусственных нейронных сетей.

Уильям Росс Эшби (1903—1972) — английский психиатр, специалист по кибернетике. Известна его книга «Введение в кибернетику». Ему принадлежит изобретение гомеостата (1948), введение понятия самоорганизации. Он сформулировал закон необходимого разнообразия, названный его именем.

Гре́гори Бе́йтсон (1904 —1980) — британо-американский антрополог, учѐный, исследователь вопросов социализации, лингвистики, кибернетики, работы которого затрагивают широкий спектр дисциплин. Считается одним из самых оригинальных мыслителей нашего времени. Бейтсон не отличался любовью к современным академическим стандартам научного стиля, и его работы зачастую были оформлены в виде эссе, а не научных работ (вспомним нарратив, характерный для постмодернизма); в своих трудах он применяет множество ме-

126

тафор, а выбор источников, как правило, можно считать нестандартным — с точки зрения консервативной науки (например, он мог цитировать поэтов прошлого и игнорировать свежие научные исследования). Бейтсон ввел понятие «абдукция» и предложил критерии разума. В области кибернетики сосредоточился на соотношении кибернетики и теории систем с эпистемологией.

Энтони Стаффорд Бир (1926—2002) — британский кибернетик. Первым попытался применить идеи кибернетики к управлению в социальных системах.

В1971 году он был приглашѐн социалистическим правительством Чили для создания единой компьютеризированной системы управления экономикой в реальном времени Киберсин с помощью сети Кибернет (Cybernet). Также была начата разработка так называемого «Всенародного проекта», направленного на получение обратной связи от граждан на действия правительства с учетом закона о требуемом разнообразии. Правительство с помощью технологических достижений (например телевидение) «может сегодня обращаться ко всей массе народа, как если бы оно говорило с каждым гражданином отдельно», а средства общения народа с правительством ограничены. Для устранения этого противоречия предлагались новые средства коммуникации с правительством, а именно специальный прибор, любой обладатель которого мог устанавливать его показание перемещением стрелки по непрерывной шкале между полным удовлетворением и полной неудовлетворенностью

Ее развитие в нашей стране связывают с именами А. И. Берга, П. К. Анохина, С. А. Лебедева, А. А. Ляпунова, В. М. Глушкова, других ученых.

А́ксель Ива́нович Берг (1893—1979) — советский учѐный-радиотехник, адмирал, заместитель министра обороны СССР. В 1959 возглавил Совет по научной проблеме «Кибернетика» при АН СССР, т.е. практически добился реабилитации кибернетики в СССР.

Алексе́й Андре́евич Ляпуно́в (1911—1973) — выдающийся советский мате-

матик, член-корреспондент АН СССР. Основные труды – по теории множеств, общим вопросам кибернетики, программированию и его теории, машинному переводу и математической лингвистике, кибернетическим вопросам биологии.

В1996 году Алексею Андреевичу была присуждена медаль «Пионер компьютерной техники» («Computer Pioneer») - самая престижная награда Всемирного компьютерного сообщества. На обратной стороне медали надпись: «Компьютерное общество признало Алексея Андреевича Ляпунова основателем советской кибернетики и программирования».

Ви́ктор Миха́йлович Глушко́в (19231982) — выдающийся советский мате-

матик и кибернетик. Решил обобщѐнную пятую проблему Гильберта. Под его руководством в 1966 году была разработана первая персональная ЭВМ «МИР- 1» (машина для инженерных расчѐтов). Также награжден медалью «Computer Pioneer» за разработку числовых автоматов в компьютерной архитектуре.

Программу создания общей теории систем – выдвинул в конце 1940-х годов австрийский биолог Карл Людвиг фон Берталанфи. Основную проблему он усмотрел в парадоксе Аристотеля «целое – больше суммы его частей». Наиболее важным в трудах Берталанфи представляется следующее:

127

˗определение системы «как совокупности элементов, находящихся в определенных отношениях друг к другу и со средой», выделение уровней ее организации и системных свойств (целостность, устойчивость, механизация, рост, конкуренция, финальность и эквифинальность в поведении и др.);

˗подразделение всех систем на закрытые и открытые (постоянно обменивающиеся веществом, энергией и информацией со средой). Причем последние им толковались как их общий случай;

˗возможность двойственного описания системы: внутреннего и внешнего, представляющих, соответственно, структурный и функциональный аспекты;

˗особое внимание к математической формализации общей теории систем. Важно отметить, что общая теория систем воплощает собой интегративные

тенденции всей современной науки. Поэтому ее вклад в информатику существенен. В отличие от кибернетики, которая имеет дело только с системами управления, в ее ведение попадают системы любой природы. Таким образом, она значительно расширяет и предмет информатики.

Вполе зрения кибернетики, как было сказано, находятся информационные процессы. Информация в ней играет роль посредника (средства) между управляющей и управляемой системами. В общей теории систем (и системном подходе) она представляется не только в роли посредника (средства), но и в роли объекта. Информация здесь толкуется в смысле множества системообразующих элементов. Как следствие, здесь выделяется особая область реальности – класс информационных систем.

Большой шаг вперед в развитии информатики был сделан с появлением электронных компьютеров и изобретением их эффективной архитектуры Джоном фон Нейманом. Логическая структура ЭВМ нового типа включала в себя пять основных блоков: входное устройство для ввода в машину всей необходимой информации используемой в решении задач; запоминающее устройство; устройство управления, организующее взаимодействие запоминающего устройства с арифметическим; арифметическое устройство, выполняющее все необходимые операции; выходное устройство, сообщающее полученные результаты пользователю. После работ над проектами компьютерных архитектур Нейман приступил к созданию общей логической теории автоматов (искусственных и естественных). В отличие от кибернетики Винера, в ней основное внимание уделяется цифровым вычислительным машинам и дискретной математике.

Таким образом, теоретические предпосылки информатики были разработаны в теории информации, кибернетике, общей теории систем.

Вполе зрения кибернетики находятся информационные процессы. Информация в ней играет роль посредника (средства) между управляющей и управляемой системами.

Вобщей теории систем (и системном подходе) она представляется не только в роли посредника (средства), но и в роли объекта. Информация здесь толкуется в смысле множества системообразующих элементов. Как следствие, здесь выделяется особая область реальности – класс информационных систем.

128

21.2. Основные концепции и подходы в информатике

Концепция гипертекста В. Буша

Простейшей искусственной формой информационной системы является гипертекст. «Гипертекст» буквально означает «нечто большее чем текст».

В 1945 году американский инженер В. Буш в статье «Как мы могли бы думать» указал на несоответствие способов хранения и обработки информации «внутри» и «вовне» человеческой головы: человеческая память ассоциативна, а каталоги библиотек упорядочены по формальным критериям. Для устранения этого несоответствия он предложил проект электромеханического устройства (названного им «Memex»), в котором информация хранилась бы так же, как в человеческой голове. В 1965 году программист, математик и философ Теодор Нельсон, реализовав идею Буша на ЭВМ, разрешил данное противоречие. Он же ввел в употребление и само слово «гипертекст». Гипертекст в современном его понимании является естественной средой бытия Интернета.

Как информационная система гипертекст отличается от обычного текста и синтаксисом, и семантикой и прагматикой. В синтаксическом аспекте он представляет собой множество относительно небольших фрагментов (кусков) текста, содержащих указания на их связи с другими его фрагментами. В семантическом аспекте – это смысловая сеть «гнезд», обозначающихся как термины и темы. Смысловые связи семантических объектов в таком тезаурусе создают возможность нелинейного перехода от одного фрагмента информации к другому. В прагматическом аспекте гипертекст представляет собой аппарат (средство) свободной обработки информации пользователем. На экране дисплея он сам формирует необходимый ему текст. Таким образом, возникает совершенно новый класс систем самоуправления, где пользователь волен оперировать информацией различными доступными ему методами.

Конструктивная кибернетическая эпистемология Х. фон Фѐрстера и В. Турчина

Основоположником этого направления информатики был Х. фон Фѐрстер - австрийский физик, математик и кибернетик (1973 год). В проблеме познания он выделил два основных аспекта: кибернетический и эпистемологический.

Кибернетической основой конструктивной эпистемологии Фѐрстера является организационная замкнутость нервной системы, а ее принципом - кругообразность, «круговая причинность» знания, а именно:

˗если причина находится вне системы, мы имеем дело с бихивиористской схемой «стимул – реакция – стимул». Она характерна для кибернетики первого порядка.

˗если причина находится внутри системы, схема ее действия обретает вид: «организм – модель поведения – организм». Она характеризует кибернетику второго порядка. В этом случае речь идет о воздействии системы на саму себя, о ее самозамыкании.

Эпистемологическим ядром такой кибернетической системы является самореферентность познания и ее парадоксы. Иначе говоря, любая эпистемология, любая теория сознания или модель человеческого мозга неизбежно приоб-

129

ретают черты кругообразности в том смысле, что является теорией или моделью о себе самой. Как же тогда конструируются знания? Единственный способ разрешить возникающие противоречия – это представить логическую ситуацию в динамической форме, когда два исключающих друг друга решения постоянно сменяют друг друга по замкнутому циклу.

Фѐрстер предлагает конкретную кибернетическую модель того, каким образом живой организм из качественно недифференцированных сигналов внешней среды конструирует мир «внутреннего» знания во всем его разнообразии.

Это модель «двойной замкнутости» системы, которая рекурсивно оперирует не только тем, что она «видит», но и самими операторами. При этом, по Фѐрстеру, смысл имеет только то, что я сам в состоянии постигнуть, – утверждает он.

Своеобразный вариант конструктивной кибернетической эпистемологии предложил наш бывший соотечественник В.Ф. Турчин (в 1977 году он вынужденно эмигрировал в США). Валентин Федорович Турчин известен как физик и кибернетик, создатель языка Рефал, ряда новых направлений в программировании и информатике, как яркий представитель редкого типа философствующего ученого-естествоиспытателя. Он представил предельно абстрактную модель иерархии познающих систем. С кибернетической точки зрения он описал эволюцию (развитие) жизни на Земле, начиная с химических молекул и заканчивая гипотетическими «человеческими сверхсуществами». Существенной особенностью картины мира Турчина является «человекоразмерность». Человек в ней представлен не только как биологическое существо, но и как личность.

Главная в концепции Турчина - идея метасистемного перехода. Она выражает скачок, возникновение нового системного качества управления при накоплении множества его однородных элементов. Как квант эволюции метасистемный переход является конструктивным и творческим актом.

Очевидно, такого рода идеи относятся уже к теории сложных саморазвивающихся систем.

Синергетический подход в информатике

Понятие «самоорганизация» в синергетике толкуется принципиально иначе, чем в кибернетике второго порядка (как у Ферстера). Если, например, для Фѐрстера оно означает «организацию организации», то для Хакена – внутреннюю спонтанную организацию системы.

Хакен впервые показал плодотворность использования синергетического подхода в информатике. Шенноновская информация, по его мнению, никак не связана со смыслом передаваемого сигнала, поскольку она относится к замкнутой системе. Такие системы не могут ни порождать, ни хранить информацию.

Синергетику, имеющую дело с открытыми самоорганизующимися системами, можно рассматривать как теорию возникновения новых качеств на макроскопическом уровне, а это возникновение интерпретировать как возникновение смысла (как саморождение смысла).

Хакен считает, что перевод может быть осуществлен не только на качественном (эвристическом), но и на количественном уровне, т.е. на уровне компьютерных алгоритмов. В этой связи высвечивается перспектива совершенно

130