- •Аннотация
- •От автора
- •ПРЕДИСЛОВИЕ
- •ВВЕДЕНИЕ
- •1. СИСТЕМЫ И ПРОЦЕССЫ
- •2. ПОРЯДОК, НЕПОРЯДОК, БЕСПОРЯДОК И ХАОС
- •3. ТЕРМОДИНАМИКА
- •3.1 Начала термодинамики
- •3.2 Равновесная термодинамика
- •4. НЕРАВНОВЕСНАЯ ТЕРМОДИНАМИКА
- •4.1 Диссипативные структуры, системы и среды
- •4.2 Термодинамика необратимых процессов
- •4.3 Линейная неравновесная термодинамика
- •4.4 Нелинейная неравновесная термодинамика
- •4.5 Статистическая термодинамика
- •5. ЭНТРОПИЯ
- •5.1 Определение и свойства энтропии
- •5.2 Энтропия в химической термодинамике
- •5.3 Энтропия в статистической физике
- •5.3.1 Энтропия Больцмана-Планка
- •5.3.2 Энтропия Гиббса
- •5.4 Тсаллис (Цаллис) энтропия (Революция в термодинамике)
- •6. ГЕОМЕТРИЯ ФРАКТАЛОВ
- •6.1 Элементы геометрии фракталов
- •6.2 Размерности фракталов
- •6.3 Примеры фракталов
- •6.4 Фракталы и энтропия
- •7. ИНФОРМАТИКА
- •7.1 Информация, информатика и информационные технологии
- •7.2 Теория информации
- •7.2.1 Информация Хартли
- •7.2.2 Энтропия Шеннона
- •7.3 Отрицательная энтропия, антиэнтропия, экстропия
- •7.4 Алгоритмическая теория информации
- •7.4.1 Энтропия Колмогорова
- •7.4.2 Эпсилон-энтропия
- •7.5 Энтропия Кульбака-Лернера
- •7.6 Энтропия Реньи
- •7.7 Квантовая информатика
- •7.7.1 Некоторые положения квантовой механики
- •7.7.2 Энтропия фон Неймана
- •7.7.3 Линейная энтропия
- •7.7.4 Сравнение энтропий Реньи, Цаллиса и Неймана
- •7.7.5 Энтропия Холево
- •8. СИНЕРГЕТИКА
- •8.1 Синергизм и синергетика
- •8.2 Детерминизм, случайность и неопределённость
- •8.3 Простые и сложные системы
- •8.4 Анализ систем
- •8.5 Параметры порядка (управляющие параметры)
- •8.6 Процессы самоорганизации
- •9. СИСТЕМЫ И ЗАКОНЫ ИХ ЭВОЛЮЦИИ
- •9.1 Статические системы
- •9.2 Динамические системы
- •9.3 Линейные динамические системы
- •9.4 Нелинейные динамические системы
- •9.5 Эволюция динамической системы
- •9.6 Математическое описание эволюции динамической системы
- •10. ОБЫКНОВЕННЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ В ОПИСАНИИ ДИНАМИЧЕСКИХ СИСТЕМ
- •10.1 Обыкновенные дифференциальные уравнения
- •10.2 Фазовое пространство и пространство состояний
- •10.3 Линейные ОДУ на плоскости
- •10.4 Нелинейные дифференциальные уравнения
- •11. ОТОБРАЖЕНИЯ
- •11.1 Системы с дискретным временем в отображениях
- •11.2 Итерации в исследовании динамических систем
- •11.3 Графические методы нахождения неподвижных точек и исследования их свойств
- •11.4 Многопараметрические отображения
- •11.5 Примеры некоторых важные отображений
- •12. ОСОБЫЕ ТОЧКИ ФАЗОВЫХ ПОРТРЕТОВ ДИНАМИЧЕСКИХ СИСТЕМ
- •12.1 Дифференциальные уравнения и особые точки
- •12.2 Классификация точек равновесия
- •12.3 Фазовые портреты и особые точки нелинейных ОДУ
- •12.4 Многомерные системы
- •13. РЕГУЛЯРНЫЕ АТТРАКТОРЫ И РЕПЕЛЛЕРЫ
- •13.1 Типы аттракторов
- •13.2 Фазовый объём
- •13.3 Репеллеры
- •13.4 Осциллятор и осцилляции
- •14. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ
- •14.1 Устойчивые и неустойчивые равновесия
- •14.2 Устойчивость по Ляпунову (метод первого приближения)
- •14.3 Показатель Ляпунова
- •14.4 Устойчивость нелинейной системы
- •14.5 Метод функций Ляпунова
- •14.6 Функция Ляпунова и энтропия
- •14.7 Асимптотическая устойчивость
- •14.8 Устойчивость особых точек
- •14.9 Устойчивость особых точек
- •14.10 Устойчивость решений дискретных уравнений
- •15. БИФУРКАЦИИ
- •15.1 Бифуркации: основные понятия и классификация
- •15.2 Элементы теории бифуркаций
- •15.3 Простейшие бифуркации
- •16. БИФУРКАЦИИ ЦИКЛОВ
- •16.1 Предельные циклы
- •16.2 Устойчивость предельных циклов
- •16.3 Бифуркации устойчивых предельных циклов
- •16.5 Бифуркация рождения пары устойчивых замкнутых траекторий.
- •16.6 Транскритическая (обмена устойчивостью между циклами) бифуркация.
- •16.7 Бифуркация исчезновения (рождения) пары замкнутых траекторий.
- •16.8 Бифуркация удвоения периода цикла
- •16.9 Бифуркация рождения (гибели) двумерного тора.
- •16.10 Гомоклиническая бифуркация рождения/исчезновения цикла
- •17. ДИНАМИЧЕСКИЙ ХАОС
- •17.1 Хаос статистический и динамический
- •17.2 Предсказание статического поведения системы
- •17.3 Сценарии перехода к хаосу
- •17.4 Примеры систем с хаосом
- •18. ХАОС В ЛИНЕЙНЫХ ОДНОМЕРНЫХ СИСТЕМАХ
- •18.1 Бифуркационные диаграммы
- •18.2 Лестница Ламерея
- •18.3 Отображение Бернулли
- •18.4 Треугольное отображение
- •18.5 Отображение «тент»
- •18.6 Канторов репеллер
- •18.7 Детерминированная диффузия
- •19. ХАОС В ЛОГИСТИЧЕСКОМ ОТОБРАЖЕНИИ
- •19.1 Переход к хаосу через удвоение периода
- •19.2 Логистическое уравнение
- •19.3 Дискретное логистическое уравнение
- •19.4 Логистическое отображение
- •19.5 Бифуркационная диаграмма логистического отображения
- •19.6 Цикл периода 3
- •19.7 Фазовые диаграммы логистического отображения
- •19.8 Аттракторы и фракталы в логистическом отображении
- •20. ХАОС В НЕЛИНЕЙНЫХ ОДНОМЕРНЫХ ОТОБРАЖЕНИЯХ
- •20.1 Отображение xn+1=С+xn2.
- •20.2 Отображение xn+1=а-xn2.
- •20.3 Подобие окон периодической динамики
- •20.4 Порядок Шарковского
- •20.5 Универсальность Фейгенбаума
- •20.6 Устойчивость циклов одномерных отображений
- •20.7 Топологическая энтропия
- •20.8 Синус-отображение
- •21. ХАОС В НЕЛИНЕЙНЫХ ДВУМЕРНЫХ ОТОБРАЖЕНИЯХ
- •21.1 Отображение Эно (Henon map)
- •21.2 Отображение подковы и отображение пекаря
- •21.3 Отображение «кот Арнольда» (Arnold’s cat map)
- •22. НЕРЕГУЛЯРНЫЕ АТТРАКТОРЫ
- •22.1 Хаос в консервативных и диссипативных системах
- •22.2 Регулярные и хаотические аттракторы
- •22.3 Квазиаттракторы
- •22.4 Хаотически аттракторы
- •22.5 Негиперболические хаотические аттракторы
- •22.6 Фрактальные аттракторы
- •22.7 Характеристика нерегулярных аттракторов
- •22.8 Странные нехаотические аттракторы
- •22.9 Сингулярные аттракторы
- •22.10 Многомерные нерегулярные аттракторы
- •22.11 Дикие аттракторы
http://profbeckman.narod.ru/
01101100110111100010<1, а именно: ~ 0,9927744. Если монета брошена 20 раз, то случайная последовательность 01101100110111100010 имеет энтропию =20 бит.
В арифметике порядок может порождать порядок
1³ = 1² 1³ + 2³ = (1 + 2)²
1³ + 2³ + 3³ = (1 + 2 + 3)² 1³ + 2³ + 3³ + 4³ = (1 + 2 + 3 + 4)² b) 4/9 = 0,44444...
5/37 = 0,135135135...,
но может порождать хаос
12 21 = 252
123 321 =39483
1234 4321 = 5332114
12345 54321 = 670592745
123456 654321 = 80779853376
1234567 7654321 = 9449772114007
12345678 87654321 = 1082152022374638
123456789 987654321 = 121932631112635269
Хаос может возникать из хаоса: пример 53278 2147 = 114397866 Известны разные подходы для определения порядка распределения цифр в числах.
Один из них основан на понятии антиэнтропии. Символ порядка О (от нем. ordnung). Его пытались связать с энтропией формулой:
O= 1/Se
Здесь О изменяется до бесконечности, что неудобно. Поэтому чаще используют формулу
O 100
Se 1%,
согласно которой порядок варьируется от 0 до 100.
Пример. имеем два числа в виде 40 последовательностей 1 и 0. 1011011010101001110010110011100000011110 и 1111111111111111111111111111111111111111
В первом числе энтропия Se=40 бит, порядок очень низок О=100/41=2,5%, а во втором числе 100% - максимальный.
7.5 Энтропия Кульбака-Лернера
Относительная энтропия (другие названия: кросс-энтропия, расхождение, информационная дивергенция, потеря информации, различающая информация, информационный выигрыш расстояние Кульбака-Лейблера) – несимметричная мера (не метрическая) удалённости друг от друга двух вероятностных распределений.
Строится |
она на основе |
энтропии |
Шеннона |
H X p x log p x , т.е. на |
|
|
|
|
x |
неопределённости (самоинформации) простой случайной переменной. |
||||
Расстояние |
(расхождение) |
Кульбака-Лейблера |
– это неотрицательнозначный |
|
|
|
́ |
́ |
|
функционал, являющийся несимметричной мерой удаленности друг от друга двух вероятностных распределений. Обычно одно из сравниваемых распределений – это «истинное» или постулируемое априори распределение (распределение P), второе – предполагаемое (проверяемое), являющееся приближением первого (распределение Q). Значение дивергенции является безразмерной величиной. Данная мера расстояния интерпретируется как величина потерь информации при замене истинного распределения P на распределение Q. Расстояние Кульбака-Лейблера от Q до P обозначается DKL(P||Q), это, другими словами, количество оставшейся информации, когда Q было использовано для приближения P. Данная мера расстояния Q.
http://profbeckman.narod.ru/
Расстояние Кульбака-Лейблера – информационный выигрыш, достигнутый, если P использовано вместо Q. Это относительная энтропия P относительно Q, обозначается
H(P|Q).
Как уже упоминалось, возможны различные способы вычисления количества информации. Ранее мы рассмотрели меру Хартли, применимую для случая независимых равновероятных событий
m |
1 |
|
1 |
|
|
|
||
Y( ) n pi log pi |
n m |
|
|
log |
|
|
n logm |
(60) |
|
|
|||||||
i 1 |
m |
|
m |
|
||||
Кроме мер Хартли и Шеннона существуют и иные, |
производные от энтропии |
статистические меры измерения количества информации.
Расстояние (энтропия) Кульбака-Лейблера – асимметричная информационная мера:
DKL p || q p x log |
p x |
|
||
q x |
|
(61) |
||
x X |
где p(x), q(x) – вероятности двух наборов случайных величин, а D – информационное расстояние от ансамбля {p} до элементов другого ансамбля {q}, т.е. расстояние между двумя плотностями распределения вероятностей p(x) и q(x).
Эта мера применима, если массивы X и Y дискретны (дискретные вероятностные
распределения). Информация |
p x, y |
|
|
I X :Y p x, y log |
S p x, y || p(x)p(y) . |
||
p(x)p(y) |
|||
x X y Y |
(62) |
||
|
Замечание. Нет общепринятого обозначения энтропии (расстояния) Кульбака-Лейднера: её записывают как S(p||q), H(p,q), D(p||q) или DKL).
DKL – математическое ожидание логарифмической разности между вероятностями p и q, где математическое ожидание берётся, используя вероятности p. Оно определено, только если q(i)=0p(i)=0, для всех i (абсолютно непрерывных).
Относительная энтропия удовлетворяет неравенству Гиббса: DKL(P||Q)0, в котором равенство выполняется, только если распределения P и Q совпадают. Следует понимать, что хотя эта величина называется расстоянием, она не является в общем случае метрикой в пространстве распределений, DKL(P||Q) DKL(Q||P).
Если P и Q – распределения непрерывных случайных величин, то расстояние Кульбака-Лейблера определено как интеграл:
|
|
p x |
|
|
|
|
DKL p || q p x log |
|
dx, |
|
|
||
|
|
|
|
|
||
|
|
q x |
|
(63) |
||
|
|
|
|
|
||
где p и q – плотности P и Q. |
|
|
|
|
|
|
Расстояние Кульбака-Лейблера всегда неотрицательно, оно равно нулю тогда и |
||||||
только тогда, когда q(x)=p(x). |
|
|
||||
|
|
p x |
|
|
|
|
DKL q || p q x log |
|
dx, |
|
|
||
|
|
|
|
|||
|
q x |
|
(64) |
|||
|
|
|
|
|
||
Ещё одна мера – дивергенция Кульбака – рассматривается как симметричная |
||||||
информационная мера: |
|
|
|
|
( ) |
|
где p(x), v ( , ) = ∑ ( |
) − ( ) |
(65) |
||||
ln ( ) |
|
|||||
q(x) – вероятности двух наборов случайных величин, а D – расстояние между |
||||||
ансамблями {p} и {q}. |
|
|
|
|
|
|
Важно, что KL-дивергенция не симметрична: DKL(P||Q) DKL(Q||P). Эта энтропия строго определенна для непрерывных распределений, и инвариантна к замене переменных, аддитивно для независимых распределений аналогично энтропии Шеннона.
http://profbeckman.narod.ru/
Энтропия Кульбака – мера различия двух сравниваемых распределений. Она используется для сравнения двух распределений вероятностей, заданных на том же домене (например, алфавите). Это важный физический параметр открытых неравновесных термодинамических систем, поскольку, чем больше энтропия Кульбака, тем больше эксергия; она же применяется как мера в квантовой теории информации, квантовой механике, компьютерной графике, или экологии, с целью сравнения динамических систем и моделей Маркова, для оценки их сложности (термодинамической глубины).
Обобщением энтропии Кульбака-Лейблера является энтропия Цаллиса, вводимая в
рамках неэкстенсивной термодинамики. Для равномерного распределения относительная энтропия Цаллиса сводится к отрицательной энтропии Цаллиса Sq(р). Обе относительные энтропии, Кульбака-Лейблера и относительная энтропия Цаллиса полезны для нахождения приближенных решений, зависящих от времени уравнений диффузии (и уравнений Фоккера-Планка) с дробными производными. В пределе q→1 относительная энтропия Цаллиса становится энтропией Кульбака-Лейблера.
В случае непрерывных распределений Ф(x) и G(x):
|
|
|
|
|
x |
|
|
D |
|
|
|
x ln |
|
dx |
|
|
|
|
|||||
|
KL |
|
|
G x |
(66) |
||
|
|
|
|
|
|
. |
Относительная энтропия – оценка "информационного расстояния" между распределениями Ф(x) и G(x).
Если Ф(x)=G(x), то расстояние равно 0. Расстояние Кульбака-Лейблера – мера потерь информации об оригинальном распределении Ф(x), если мы его представляем распределением G(x). Выражение расстояния Кульбака-Лейблера корректно с точки зрения размерностей: аргумент логарифма – безразмерная величина. Кроме того, расстояние Кульбака-Лейблера не может быть отрицательной величиной. И, наконец, оно не зависит от масштаба наблюдений.
Пример. Попытаемся заменить распределение Ф(x) на 2Ф(2x), а G(x) на 2G(2x) (это соответствует сжатию распределения плотности вероятности в два раза по оси X, приводящему к снижению дифференциальной энтропии (на ln2)). Тогда
|
|
2 2x |
|
|
y |
|
||
|
2 2x ln |
|
dx |
|
y ln |
|
dy |
|
|
|
|
||||||
|
2G 2x |
G y |
(67) |
|||||
|
|
|
|
|
|
|
, |
где у=2х.
H Y | X Ep( x ) H Y | X x Ep ( x, y) log p(Y | X ) |
(69) |
Здесь важно учитывать, что H(X|Y) H(Y|X).
Согласно цепному правилу H(X,Y)=H(X)+H(Y|X), поэтому H(X,Y)=H(X|Z)+H(Y|XZ). Сокращение неопределённости взаимной информации определяется относительной
энтропией I(X;Y)=H(X)-H(X|Y). Соотношения между взаимной информацией и энтропией
I(X;Y)=H(X)-H(X|Y); I(X;Y)=H(Y)-H(Y|X); I(X;Y)=H(X)+H(Y)-H(X,Y); I(X;Y)=I(Y;X) (симметрия); I(X;X)=H(X) (самоинформация).
Условная энтропия H(X|Y) – энтропия одного случайного переменного условна от знания другой. Здесь – количество информации в одной случайной величины, задаваемая
http://profbeckman.narod.ru/
другой. Перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая распределение вероятностей q, вместо «истинного» распределения p.
Перекрестная энтропия для двух распределений p и q над одним и тем же
вероятностным пространствм: |
|
H(p,q)=Ep[-logq]=H(p)+DKL(p||q), |
(70) |
где H(p) – энтропия р и DKL(p||q) – расстояние Кульбака-Лейблера от q до р (относительная энтропия).
Для дискретного p и q: H p, q p x log q x |
(71а) |
x |
|
Для непрерывного распределения: H ( p,q) p(x)log q(x)dx |
(71б) |
X |
|
Запись H(p,q) применима как для перекрёстной энтропии, так и для совместной |
энтропии p и q. Минимизация перекрёстной энтропии используется в оптимизации и для оценки вероятностей редких событий.
В приложениях, P представляет собой "истинное" распределение данных, наблюдений или точно рассчитанное теоретическое распределение, а Q-теорию, модель, описание, или приближение P. Минимизация Кульбака-Лейблера часто используется для приближения сложного распределения p(x) более простым q(x). Пусть p(x) – синее распределение, а q(x) – красное. Слева показан результат минимизации KL(p||q) по q(x), а справа – результат минимизации KL(q||p) по q(x). Чётко проявляется
асимметричность: KL(p||q) KL(q||p).
Рис. 6. Приближение сложного распределения более простым.
На рис. 7 дан пример аппроксимации одного статистического распределения другим. Продемонстрированы различия между экспериментальным и подгоночным
распределениями.
Рис. 7. Аппроксимация исходного распределения различными приближениями.
http://profbeckman.narod.ru/
Рис. 8. Иллюстрация дивергенции Кульбака-Лейблера (KL) для двух нормальных распределений (гауссианов). Хорошо заметна асимметрия KL-дивергенции.
Рассмотрим задачу аппроксимации распределения p(x) с помощью распределения q(x). Будем искать приближение двумя способами:
1. KL q || p min
q |
(72а) |
|
2. KL p|| q min
q |
(72б) |
|
Рис. 9. Приближение двумодального распределения p(x) с помощью одномодального распределения q(x).
В первом случае аппроксимация ищется в области высоких значений q. Поэтому итоговое распределение, как правило, хорошо приближает распределение p(x) только на подмножестве носителя p(x) (см. рис. 9, слева). Во втором случае аппроксимация ищется сразу для всего носителя распределения p(x) (см. рис. 9, справа).
Для случайной переменной Х={0.1} предполагает два распределения f(x) с f(0)=1-r, f(1)=r и g(0)=1-s, g(1)=s;
D( f || g )= (1- r )log |
1- r |
r log |
r |
|
|||||
1- s |
s |
(73а) |
|||||||
|
1 |
|
|
|
|||||
D( g || f)= (1- s)log |
- s |
s log |
s |
|
|
||||
|
|
r |
(73б) |
||||||
1 |
- r |
|
Если r-s то D(f||g)=D(g||f)=0, и r=1/2 и s= 1/4, то