- •Введение
- •1. Возникновение и развитие системных представлений
- •1.1. Предварительные замечания
- •1.2. Роль системных представлений в практической деятельности
- •Системность и алгоритмичность
- •1.3. Внутренняя системность познавательных процессов
- •Анализ и синтез в познании
- •Эволюция взглядов на системность мышления
- •1.4. Системность как всеобщее свойство материи
- •Вся природа системна
- •Системы как абстракция
- •Свойства любых систем
- •1.5. Краткий очерк истории развития системных представлений
- •Системность как объект исследования
- •Первые шаги кибернетики
- •Тектология богданова
- •Кибернетика винера
- •Попытки построения общей теории систем
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •2. Модели и моделирование
- •2.1. Широкое толкование понятия модели
- •Развитие понятия модели
- •Модель как философская категория
- •2.2. Моделирование - неотъемлемый этап всякой целенаправленной деятельности
- •Цель как модель
- •Познавательные и прагматические модели
- •Статические и динамические модели
- •2.3. Способы воплощения моделей
- •Абстрактные модели и роль языков
- •Материальные модели и виды подобия
- •Знаковые модели и сигналы
- •2.4. Условия реализации свойств моделей
- •2.5. Соответствие между моделью и действительностью: различия
- •Конечность моделей
- •Упрощенность моделей
- •Приближенность моделей
- •Адекватность моделей
- •2.6. Соответствие между моделью и действительностью: сходство
- •Истинность моделей
- •Сочетание истинного и ложного в модели
- •2.7. О динамике моделей
- •Сложности алгоритмизации моделирования
- •Естественная эволюция моделей
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •3. Системы модели систем
- •3.1. Множественность моделей систем
- •3.2. Первое определение системы
- •Проблемы и системы
- •Сложности выявления целей
- •3.3. Модель "черного ящика"
- •Компоненты "черного ящика"
- •Сложности построения модели "черного ящика"
- •Множественность входов и выходов
- •3.4. Модель состава системы
- •Компоненты модели состава
- •Сложности построения модели состава
- •3.5. Модель структуры системы
- •Отношения и структуры
- •Свойство и отношение
- •3.6. Второе определение системы. Структурная схема системы
- •Структурная схема как соединение моделей
- •3.7. Динамические модели систем
- •Отображение динамики системы
- •Функционирование и развитие
- •Типы динамических моделей
- •Общая математическая модель динамики
- •Заключение
- •Упражнения
- •Вопросы для самопроверки
- •4. Искусственные и естественные системы
- •4.1. Искусственные системы и естественные объекты
- •4.2. Обобщение понятия системы. Искусственные и естественные системы
- •Структурированность естественных объектов
- •Субъективные и объективные цели
- •4.3. Различные классификации систем
- •Классификация систем по их происхождению
- •Типы переменных системы
- •Типы операторов системы
- •Типы способов управления
- •4.4. О больших и сложных системах
- •Ресурсы управления и качество системы
- •Различение больших и сложных систем
- •Другие подходы к понятию сложности
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •5. Информационные аспекты изучения систем
- •5.1. Информация как свойство материи
- •5.2. Сигналы в системах
- •Понятие сигнала
- •Типы сигналов
- •5.3. Случайный процесс - математическая модель сигналов
- •Непредсказуемость - основное свойство сигналов
- •Классы случайных процессов
- •5.4. Математические модели реализации случайных процессов
- •Моделирование конкретных реализации
- •Некоторые модели ансамбля реализации
- •5.5. О некоторых свойствах непрерывных сигналов
- •Частотно-временное представление сигналов
- •Дискретное представление сигналов
- •5.6. Энтропия
- •Понятие неопределенности
- •Энтропия и ее свойства
- •Дифференциальная энтропия
- •Фундаментальное свойство энтропии случайного процесса
- •5.7. Количество информации
- •Количество информации как мера снятой неопределенности
- •Количество информации как мера соответствия случайных объектов
- •Свойства количества информации
- •Единицы измерения энтропии и количества информации
- •Количество информации в индивидуальных событиях
- •5.8. Об основных результатах теории информации
- •Избыточность
- •Скорость передачи и пропускная способность
- •Кодирование в отсутствие шумов
- •Кодирование при наличии шумов
- •Пропускная способность гауссова канала связи
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •6. Роль измерений в создании моделей систем
- •6.1. Эксперимент и модель
- •Классическое представление об эксперименте
- •Современное понятие эксперимента
- •6.2. Измерительные шкалы
- •Шкалы наименований
- •Порядковые шкалы
- •Модифицированные порядковые шкалы
- •Шкалы интервалов
- •Шкалы отношений
- •Шкалы разностей
- •Абсолютная шкала
- •Согласование шкалы с природой наблюдений
- •О других шкалах
- •6.3. Расплывчатое описание ситуаций
- •Понятие расплывчатости
- •Основные понятия теории расплывчатых множеств
- •6.4. Вероятностное описание ситуации. Статистические измерения
- •Понятие случайной неопределенности
- •О природе случайности
- •Статистические измерения
- •6.5. Регистрация экспериментальных данных и ее связь с последующей их обработкой
- •Классификационные модели
- •Числовые модели
- •Особенности протоколов наблюдений
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •7. Выбор (принятие решений)
- •7.1. Многообразие задач выбора
- •Выбор как реализация цели
- •Множественность задач выбора
- •7.2. Критериальный язык описания выбора
- •Выбор как максимизация критерия
- •Сведение многокритериальной задачи к однокритериальной
- •Условная максимизация
- •Варианты оптимизации при разноважных критериях
- •Выбор между упорядочениями
- •Поиск альтернативы с заданными свойствами
- •Нахождение паретовского множества
- •7.3. Описание выбора на языке бинарных отношений
- •Способы задания бинарных отношений
- •Отношения эквивалентности, порядка и доминирования
- •Об оцифровке порядковых шкал
- •7.4. Язык функций выбора
- •Функции выбора как математический объект
- •Ограничения на функции выбора
- •7.5. Групповой выбор
- •Описание группового выбора
- •Различные правила голосования
- •Парадоксы голосования
- •7.6. Выбор в условиях неопределенности
- •Задание неопределенности с помощью матрицы
- •Критерии сравнивания альтернатив при неопределенности исходов
- •Общее представление о теории игр
- •7.7. О выборе в условиях статистической неопределенности
- •Статистические решения как выбор
- •Общая схема принятия статистических решений
- •Понятие об основных направлениях математической статистики
- •Правила "статистической техники безопасности"
- •7.8. Выбор при расплывчатой неопределенности
- •Многокритериальный выбор в расплывчатой ситуации
- •Некритериальные задачи расплывчатого выбора
- •7.9. Достоинства и недостатки идеи оптимальности
- •Достоинства оптимизационного подхода
- •Ограниченность оптимизационного подхода
- •7.10. Экспертные методы выбора
- •Факторы, влияющие на работу эксперта
- •Методы обработки мнений экспертов
- •Метод "делфи"
- •7.11. Человеко-машинные системы и выбор
- •Пакеты прикладных программ для выбора
- •Базы знаний, экспертные системы
- •Системы поддержки решений
- •7.12. Выбор и отбор
- •Повторный выбор
- •Основные идеи теории элитных групп
- •Процедура "претендент- рекомендатель"
- •Процедуры "прополка" и "снятие урожая"
- •Процедура "делегирование"
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •8. Декомпозиция и агрегирование как процедуры системного анализа
- •8.1. Анализ и синтез в системных исследованиях
- •Сочетание анализа и синтеза в системном исследовании
- •Особенности синтетических методов
- •8.2. Модели систем как основания декомпозиции
- •Содержательная модель как основание декомпозиции
- •Связь между формальной и содержательной моделями
- •Проблема полноты моделей
- •8.3. Алгоритмизация процесса декомпозиции
- •Компромиссы между полнотой и простотой
- •Типы сложности
- •Алгоритм декомпозиции
- •8.4. Агрегирование, эмерджентность, внутренняя целостность систем
- •Эмерджентность как результат агрегирования
- •8.5. Виды агрегирования
- •Конфигуратор
- •Агрегаты-операторы
- •Классификация как агрегирование
- •Функция нескольких переменных как агрегат
- •Статистики как агрегаты
- •Агрегаты-структуры
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •9. О неформализуемых этапах системного анализа
- •9.1. Что такое системный анализ
- •Разнородные знания и системный анализ
- •Системный анализ как прикладная диалектика
- •9.2. Формулирование проблемы
- •Превращение проблемы в проблематику
- •Методы построения проблематики
- •9.3. Выявление целей
- •Опасность подмены целей средствами
- •Влияние ценностей на цели
- •Множественность целей
- •Опасность смешения целей
- •Изменение целей со временем
- •9.4. Формирование критериев
- •Критерии как модель целей
- •Причины многокритериальности реальных задач
- •Критерии и ограничения
- •9.5. Генерирование альтернатив
- •Способы увеличения числа альтернатив
- •Создание благоприятных условий
- •Способы сокращения числа альтернатив
- •Мозговой штурм
- •Синектика
- •Разработка сценариев
- •Морфологический анализ
- •Деловые игры
- •9.6. Алгоритмы проведения системного анализа
- •Трудности алгоритмизации системного анализа
- •Компоненты системных исследований
- •9.7. Претворение в жизнь результатов системных исследований
- •Внедрение результатов системного анализа в практику
- •Необходимость методологии внедрения
- •Рост и развитие
- •Условие добровольности участия в анализе
- •Роль отношений между участниками анализа
- •Проблемы и способы их решения
- •Роль этики в системном анализе
- •9.8. О специфике социальных систем
- •Несводимость социальных законов к биологическим и физическим
- •Существуют ли исторические закономерности?
- •"Мягкая" методология в системном анализе
- •Согласие при разногласиях
- •Учитывать будущее
- •Неожиданность как следствие сложности
- •Заключение
- •Литература
- •Вопросы для самопроверки
- •Краткий словарь специальных терминов
-
5.8. Об основных результатах теории информации
Теория информации приводит к ряду новых понятий, описывающих информационные процессы, происходящие в любых системах, к введению новых количественных параметров, позволяющих проводить измерения и расчеты. Часть этих понятий и величин мы рассмотрели в предыдущих параграфах, некоторые другие опишем ниже. Однако главная ценность теории информации заключается в полученных ею новых результатах, в открытии ранее неизвестных свойств систем.
Чтобы познакомиться с основными из этих результатов, введем еще несколько понятий и параметров информационных процессов и систем.
-
Избыточность
Одной из важнейших характеристик сигнала является содержащееся в нем количество информации. Однако по ряду причин количество информации, которое несет сигнал, обычно меньше, чем то, которое он мог бы нести по своей физической природе; информационная нагрузка на каждый элемент сигнала меньше той, которую элемент способен нести. Для описания этого свойства, сигналов введено понятие избыточности и определена ее количественная мера.
Пусть сигнал длиной в п символов содержит количество информации I. Если это представление информации обладает избыточностью, то такое же количество информации I может быть представлено с помощью меньшего числа символов. Обозначим через n0 наименьшее число символов, необходимое для представления I без потерь. На каждый символ в первом случае приходится I1=I/n; бит информации, во втором I1max=I/n0 бит. Очевидно, пI1=n0I1max=I. В качестве меры избыточности R принимается относительное удлинение сигнала, соответствующее данной избыточности: R=(n- n0)n-1=1- I1I1max-1
В дискретном случае имеются две причины избыточности: неравновероятность символов и наличие статистической связи между символами. В непрерывном случае - это неэкстремальность распределений (т.е. отклонение от распределений, обладающих максимальной энтропией), что в широком смысле сводится к отклонениям от экстремальности распределения первого порядка и от минимальности связи во времени (от равномерности спектра при его ограниченности).
Не следует думать, что избыточность - явление всегда отрицательное. При искажениях, выпадениях и вставках символов именно избыточность позволяет обнаружить и исправить ошибки.
-
Скорость передачи и пропускная способность
Следующим важнейшим понятием является скорость передачи информации. Так называется количество информации, передаваемое в единицу времени. Эта величина определяется по формуле R=Н(Х)-Н(Х|Y), где указанные энтропии исчисляются на единицу времени. В дискретном случае единицей времени удобно считать время передачи одного символа, тогда в формуле (2) фигурируют априорная и апостериорная энтропии на один символ. Для непрерывных каналов единицей времени может служить либо обычная единица (например, секунда), либо интервал между отсчетами; тогда в формулу (2) входят соответствующие дифференциальные энтропии. Для более наглядного представления о величине R укажем, что темп обычной речи соответствует скорости порядка 20 бит/с, муравьи обмениваются информацией путем касания усиками со скоростью около 1/10 бит/с.
Скорость передачи информации по каналу связи зависит от многих факторов-от энергии сигнала, числа символов в алфавите избыточности, полосы частот, способа кодирования и декодирования. Если имеется возможность изменять некоторые из них, то, естественно, следует делать это так, чтобы максимально увеличить скорость. Оказывается, что обычно существует предел, выше которого увеличение скорости невозможно. Этот предел называется пропускной способностью канала: C=sup|{A}RA; где RA - скорость передачи информации при условиях А, {A} - множество вариантов условий, подлежащих перебору. Так как множество {А} можно определить по-разному, то имеет смысл говорить о нескольких типах пропускных способностей. Наиболее важным является случай, когда мощность сигнала (объем алфавита) фиксирована, а варьировать можно только способ кодирования. Именно таким образом пропускную способность определил К. Шеннон [9]. С другой стороны, В.И.Сифоров показал, что целесообразно рассмотреть предел, к которому стремится шенноновская пропускная способность С при стремлении мощности полезного сигнала к бесконечности. Оказалось, что все каналы связи разбиваются на два класса: каналы первого рода (терминология Сифорова), для которых указанный предел бесконечен, и каналы второго рода, имеющие конечную пропускную способность даже при бесконечной мощности передатчика. Этот предел называют собственной пропускной способностью. При других требованиях, предъявляемых к множеству {А}, мы придем к тем или иным условным пропускным способностям.
Для представления о порядках величин C приведем примеры. Прямыми измерениями установлено, что пропускные способности зрительного, слухового и тактильного каналов связи человека имеют порядок 50 бит/с (вопреки распространенному мнению о сильном отличии зрительного канала). Возможно, ограничивающим фактором являются не сами рецепторы, а нервные волокна, передающие возбуждения. Если включить в канал и "исполнительные" органы человека (например, предложить ему нажимать педаль или кнопку в темпе получения сигналов), то пропускная способность близка к 10 бит/с. Интересно отметить, что многие бытовые технические устройства слабо согласованы с органами чувств человека. Например, канал телевидения имеет пропускную способность в десятки миллионов бит/с.