Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Ливенцев В.В. Кибернетика горных предприятий (основные положения) учеб. пособие

.pdf
Скачиваний:
4
Добавлен:
23.10.2023
Размер:
4.25 Mб
Скачать

ний эксплуатация подобного оборудования была бы весьма неэффективной).

«Степень неожиданности» того или иного состояния систе­ мы определяется его вероятностью: чем меньше вероятность, тем событие неожиданнее. С увеличением неожиданности со­ бытия возрастает ценность связанной с ним информации, иными словами, чем меньшей вероятностью обладает событие, тем большее количество информации несет в себе сообщение о том, что система попала именно в это, маловероятное, со­ стояние.

Назначением информации, заключенной в сообщении, яв­ ляется уменьшение энтропии системы под воздействием этого сообщения. Если, например, до поступления сообщения эн­ тропия системы была равна двум битам, а после него стала равной одному биту, то информация, заключенная в сообще­ нии, равна одному биту.

Следовательно,

информация

является

мерой

определенно­

сти вероятностной

системы.

 

 

 

Таким образом, количество информации о некоторой си­

стеме X можно представить в виде следующего

выражения:

 

І(Х)

=Н{Х)

— Н'(Х),

 

(11.26)

где І(Х) —количество

информации о системе

X:

Н(Х)—начальная

 

энтропия системы (начальное незна­

ние о состоянии системы X) ;

 

 

Н'(Х)—конечная

 

энтропия

системы

(конечное незнание

о состоянии системы

X).

 

 

Если сообщение полностью ликвидирует неопределенность системы, т. е. Н'(Х)=0, то величина информации, содержа­ щейся в этом сообщении, численно равна начальной энтропии системы.

Поскольку в подавляющем большинстве случаев сообще­ ния строятся таким образом, чтобы полностью снять неопре­ деленность системы, то для измерения информации в дискрет­ ных системах вполне применима формула Шеннона; символ энтропии необходимо только заменить символом информации:

k

 

 

I(W)=~%

Pilogp,.

(И-27)

i =

l

 

Информация измеряется в

тех же единицах,

что и эн­

тропия.

 

 

Понятию «информация в битах» можно дать очень на­ глядное истолкование: она равна числу ответов «да» или «нет» на разумно поставленные вопросы о состоянии системы. Разумность постановки вопросов определяется тем, что их

40

Задают в дихотомическом порядке (дихотомия — последова­ тельное разбиение пополам). Поясним это на примере.

Пусть система А может иметь два равновероятных состоя­ ния Ах и А2. Тогда полное выяснение состояния этой системы несет информацию в 1 бит, и, значит, можно ее получить в ре­ зультате ответа на один вопрос. В самом деле, задав одинединственный вопрос: «Находится ли система в состоянии Л]?» и получив на него ответ «да» или «нет», мы полностью выяс­ ним состояние системы.

Возьмем другой пример. Пусть в лаве длиной 160 м рабо­ тает узкозахватный комбайн, передвигающийся по раме скреб­ кового конвейера. На конвейере через каждые 20 м установ­ лены контактные датчики, на которые последовательно нажи­ мает комбайн при своем движении вдоль забоя.

По показаниям датчиков, сигналы от которых передаются, допустим, на пульт горного диспетчера, можно судить, на ка­ ком участке лавы находится комбайн в каждый момент вре­ мени.

Комбайн может быть в одном из восьми состояний: на участках лавы от 0—20 м до 140—160 м. Эти состояния будем считать равновероятными, так как комбайн последовательно проходит все участки лавы, не минуя ни один.

Сообщение, несущее информацию о том, на каком участке лавы находится комбайн в данный момент, полностью ликви­ дирует неопределенность системы. Следовательно, информа­ ция о местонахождении комбайна численно равна энтропии системы, т. е.

8

 

/(К) = - S Л ^ЬРь бит,

(11.28)

« = 1

 

где І(К) —количество информации о местонахождении ком­ байна (К), бит;

1 Рі— априорная вероятность г-того состояния, равна — .

8 Подставляя значение р( = — в формулу, получаем

 

1

1

1{К) = - У

г

1 о § 2 = 3 бита.

.

, о

о

Это означает, что полное выяснение того, на каком участке лавы находится комбайн, можно получить с помощью трех ответов «да» или «нет» на три дихотомически поставленных вопроса. Зададим эти вопросы. Первый: «Находится ли ком-

41

байн на участке лавы 0—80 м?» (мысленно разбиваем всю длину лавы пополам). Допустим, получаем ответ «нет». Сле­ довательно, комбайн находится на участке лавы от 80 до 160 м. Вновь мысленно делим этот участок пополам и задаем второй вопрос: «Находится ли комбайн на участке 80—120 м?». Допустим, получаем ответ «да». Задаем третий вопрос: «На­ ходится ли комбайн на участке 80—100 ж?». При получении отрицательного ответа мы совершенно определенно устанав­ ливаем, что комбайн находится на участке 100—120 м. Таким образом, сообщение о том, что комбайн находится на участке 100—120 м несет информацию в 3 бита.

Рассмотрим еще один пример.

Пример 5. Пусть добычный участок D характеризуется двумя состоя­ ниями: D1—суточный план добычи по участку выполнен; D2 —суточный план добычи по участку не выполнен. Допустим, что вероятности этих со­ стояний равны соответственно рх =0,85 и />2 =0,15.

Сообщение о том, что участок попал в состояние D 3 (план не выпол­ нен), должно нести в себе информации больше, чем сообщение о том, что

участок находится в

состоянии

D x (план выполнен). В самом деле, коли­

чество информации, заключенное в сообщении

о состоянии

D 3 , составит

 

Іфі) = — iog,/>2 = — l o g , 0,15.

 

Пользуясь табл. 1 приложения, находим

 

 

/(£>,) =

— (log2 15 logalOO) = logslOO—log215 =

 

=-6,644—3,907=2,737

бита.

 

Количество информации,

заключенное в

сообщении о

состоянии Dlt

составит

 

 

 

 

/ ( D O - — loga /7t = — log3 0,85. Пользуясь также табл. 1 приложения, находим

/(Di) = (log2 85—logjlOO) = log2100—Iog2cV5 =-6,644—6,409 = 0,235 бита.

Как видим, первое сообщение несет информации почти в 12 раз боль­ ше, чем второе. Это является вполне естественным: при получении сообще­ ния о неблагоприятном маловероятном событии (суточный план добычи по

участку не

выполнен — состояние

D 2 ) реакция руководителя производства

несомненно

сильнее,

чем

при сообщении

о более

вероятном

событии —

состоянии

D j .

 

 

 

 

 

 

 

 

 

 

 

До сих пор мы рассматривали измерение энтропии

и ин­

формации применительно к одной системе.

 

 

 

Рассмотрим две дискретные независимые друг

от

друга

системы

5

и

Т.

Система 5

имеет

п состояний: S\,

S2,

Sn

с вероятностями

ри

р2 , —,рп-

 

Система

Т

имеет m

значений:

Tu Т2,

Тт

с вероятностями

qu

Яъ - ,

Чт-

система

S

будет

Совместная

вероятность

 

 

того,

что

находиться

в

состоянии

 

а

система Т—в состоянии Гу,

определяется по формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

Rij

=

Pfij-

 

 

 

(П -29)

42

Энтропия обеих систем согласно формуле Шеннона будет^

пm

Подставив в эту формулу выражение для Ry,

получим

п m

 

 

 

H(S,

Т)=-

2

2

(/W/)log(jtWy) =

 

 

 

 

 

 

 

 

 

 

 

i=l

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

n

m

 

 

 

 

 

 

 

 

 

= — 2

2

PUjlogPt—

2

S

Pt4)^ogqj

 

=

 

 

 

 

 

 

i

= l

У=1

 

 

 

i--=l y = l

 

 

 

 

 

 

 

 

=

(— />i<7i l o g A - P i ^ l o g / ? ! — .

. .

- A ^ l o g / ? , —

 

 

 

 

 

- ^ i l 0 g /

? 2 - ^ 2 l 0 g / »

2 —

• —AWmlogft —

 

 

 

• •

• - A , 7 m

log/>,,)+( - Pift

log

ft-prfi

log ft —

 

 

 

 

 

- •

• — / W i l o g f t — A f t l o g f t —

 

Asftlogft—

 

 

 

 

 

- •

- P « ^ 2 log ^

-

• • -

P A

log qm)

=

 

 

=

[

+

 

 

• +9m)Pl l O g ^ i -

+

 

-

••+?»)AilogA,] + [— (A

+ ^

2 +

 

• •

+Pn)

ft log ft

-

 

 

 

 

— . . . — ( Л + Л +

 

• • + / ? „ ) ? m l o g ? J .

 

 

 

В

связи

 

с

тем,

что

по

условию

Р 1 + Р 2 +

• • • п

~

1;

+• • • + 9m= 1. можно записать

H(S,T) = -pi\ogpl

- .

.—pn\°gPn

- f t l o g f t -

. . .

- ^ m l o g ^ m .

 

Отсюда получаем

 

 

 

и

Л (5, Л = - 2 Л

l o g / 7 , - 2

ft-log

ft,

("-SI)

« = 1

у=1

 

 

 

Правая часть данной формулы представляет собой алге­ браическую сумму энтропии систем S и Т. Окончательно имеем

H{S, T)=H(S)+H(T).

(11.32)

43

Совместная энтропия двух независимых систем равна сум­

ме энтропии этих

систем. Данное свойство энтропии назы­

вается аддитивностью

 

 

Распространяя принцип аддитивности энтропии

(информа­

ции) на п независимых систем, можно записать

 

Н(Аи

А2

Л „ ) = 2 Я Иі)-

(11.33)

 

 

і = 1

 

Проиллюстрируем принцип аддитивности энтропии систе­ мы, в которой состояния отдельных подсистем являются неза­ висимыми друг от друга.

Пример 6. Рассмотрим две шахты, состояния которых и соответствую­ щие им вероятности заданы табл. 3.

 

 

 

 

 

Т а б л и ц а

3

 

 

 

 

 

Вероятности

состояний

Возможные состояния

шахты

шахта А

шахта

Б

 

 

 

 

 

Суточный

план

добычи

выполнен

0,9

0,8

 

Суточный

план

добычи

не выполнен

0,1

0,2

 

Система,

состоящая из

обеих

шахт, будет

характеризоваться

табл. 4.

 

 

 

 

 

Т а б л и ц а

4

Возможные состояния

системы

Совместная

вероят­

ность состояния

 

 

 

 

 

 

 

План по шахтам А и Б выполнен

 

0,9.0,8= =0,72

 

План по шахте А выполнен, по шахте Б не вы­

0 , 9 - 0 , 2 = і 0 , 1 8

 

полнен

 

 

 

 

 

План по шахте А не выполнен, по шахте Б вы­

0,1-0,8= =0,08

 

полнен

 

 

 

 

 

План по шахтам А и Б не выполнен

0,1-0,2= = 0,02

 

Энтропия системы составит:

Н(А, Б) = —0,72 logj0,72—0,18 log, 0,18—

—0,08 logs 0,08—0,02 log, 0,02.

i Величина, характеризующая весь объект в целом, является аддитив­ ной, если ее можно представить в виде суммы величин, характеризующих

отдельные части этого объекта. Аддитивной называют функцию f(a-\-b),

если f(a + b) = f(a)+f(b).

44

Пользуясь табл. 2 приложения, находим:

Н(А, Б ) = 0 , 3 4 1 + 0 , 4 4 5 + 0,292+0,113 = 1,191 бита.

Энтропии подсистем (шахт) составят:

 

ЩА)=— 0,9

logü 0,9—0,1 logs 0,1=0,137+0,332=0,469

бита;

ЩБ)=-— 0,8

log2 0,8—0,2 log2 0,2 = 0,258+0,464=0,722

бита.

Суммарная энтропия подсистем равна:

 

Н(А)±Н{Б) =0,469+0,722=1,191 бита.

 

Как видим, она в точности равна энтропии системы.

 

Рассмотрим две дискретные зависимые друг от друга си­

стемы

V и W. Система

V имеет п значений: Ѵ\, Ѵ2,

Ѵп

с ве­

роятностями

pu

Р2,

рп.

Система

W

имеет

m

значений:

Wi, W2

Wmc

вероятностями qu

q2,

 

qm-

 

в том, что

Зависимость систем друг от друга выражается

вероятность

нахождения системы W

в

некотором

состоя­

нии Wj зависит от того, в каком

состоянии в данный

момент

находится система V. Таким образом, если вероятность

нахож­

дения

системы

V в состоянии

Vt

определяется

величиной nh

то вероятность

нахождения

зависимой

от нее системы

W в

состоянии Wj определяется условной вероятностью.

 

 

Совместная

вероятность того,

что система

V будет

 

нахо­

диться

в состоянии Vti

а система

W — в состоянии

Wj,

опре­

деляется по формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

Ягі=РЛт-

 

 

 

 

( I L 3 4 )

Энтропия обеих систем согласно формуле Шеннона будет

л m

 

 

H(V/W)=-

2

2

RijlogRij.

(11.35)

 

 

 

 

( = 1 у=1

 

 

 

Подставив

в данную

формулу

 

выражение для /?;,-,

получим

 

 

 

 

л

m

 

 

 

 

 

H{VjW)=-

 

2

2

 

 

Prtjniogpfij^

 

 

 

 

 

i = î j

= i

 

 

 

 

л

о т

 

 

 

л о

т

 

 

= -

S

2 РіЯінЩРі—

 

2

2

/Ѵ7у/* l ° g < 7 у 7 / =

 

i = \j=\

 

 

 

«=1 j = \

 

= -PiÇ'/Jogp1-plqyilogpl-

 

.

.

. —РіЧыЛьЪРі

~РгЯ1\Л°%Рг—

 

РгФі№Рх-

• — Wm/ . logPa -

45

 

•—Pn94n\ogpa—pnq>/n\ogpn—.

 

.

. —

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

 

 

 

 

 

— PnQm/n^gPn—

 

S

2l

P0j/ttogqj!l

=

 

 

 

 

 

 

 

 

 

 

 

i =

l j = l

 

 

 

 

 

=

— (4v,+

<7v,+

. +

4mùP\

l o g / V -

• • -

 

 

 

 

- (Ячп + Я'/п + . .

. + qmm)

Pn log Pn

-

 

 

 

 

 

 

 

 

n

 

m

 

 

 

 

 

 

 

 

 

 

 

 

S

 

S

Pfljtilogqjn.

 

 

 

В

связи

с тем, что

условные

вероятности

 

по

каждо­

му і

дают

сумму

<7ѵ;Н~<7Ѵг + .

. • -f-<7m /,-=l, можно записать

 

 

H{VIW)

=

p1\ogpl-p2\ogp2

. .

.—

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

 

 

 

 

 

-Pn^gPn

 

S

 

S

РіЯѵЛ^Ят-

 

 

 

 

 

 

 

 

 

 

i

=

l y = i

 

 

 

 

 

Отсюда получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

n

m

 

 

 

 

H{V}W)

=

2

Piïogp,—

2

S

РіЯііАоъЯрі-

(11-36)

 

 

 

 

 

i = l

 

 

 

 

t

=1

 

 

 

 

Выражение

— 2

P< log/^представляет собой энтропию си-

 

 

 

 

 

i =

1

Л

 

 

 

 

 

стемы К, выражение—

2

 

 

 

 

^/лпредставляет

энтро-

 

 

 

 

 

 

 

t = i

У=1

 

 

 

 

 

пию системы W при известном состоянии системы V. Поэтому

окончательно имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H(VIW)=H(V)

 

+ HV(W),

 

 

(11.37)

где

Н(Ѵ)

 

— энтропия системы

V;

 

 

 

 

 

Нѵ( W)

— условная энтропия системы W.

 

 

 

Условная энтропия системы W, т. е. ее неопределенность, очевидно, будет меньше той энтропии, которую система W имела бы, если бы была независимой, так как знание состоя­ ния системы V, от которой зависит система W, уже снимает некоторую долю неопределенности у системы W. Это обстоя­ тельство можно выразить следующим неравенством;

HV{W)<H{W),

'

(II38)

46

 

Можно также записать

 

 

 

 

H{W)~HV{W)

=/(V/W),

 

(11.39)

где

I(V/W)—количество

информации о системе W,

которое

 

мы получаем, наблюдая за системой V.

 

Найдем из выражения (11.37) величину

HV{W):

 

 

HV{W)

=H(VjW)

- H(V).

 

(11.40)

лу

Теперь подставим

найденное

выражение

Hv(W)b

форму­

(11.39). Получаем

 

 

 

 

 

Я (VIW) =H(V) +H(W)—I(V/W).

 

(11.41)

Совместная энтропия двух зависимых систем равна сумме энтропии этих систем минус количество информации об одной системе, полученное при наблюдении за другой зависимой системой.

Отсюда следует, что в случае зависимости систем V и W сложное состояние систем VW характеризуется меньшим ко­ личеством информации, чем в случае независимости систем. Естественно, сложные системы, состоящие из зависимых си­ стем, свойством аддитивности энтропии (информации) не об­ ладают.

Рассмотрим пример вычисления энтропии системы, в кото­ рой состояния отдельных подсистем зависят друг от друга.

Пример 7. Пусть на участке имеется два очистных забоя. Поскольку они связаны друг с другом общей схемой транспорта, вентиляции и энерго­ снабжения, можно считать, что работа очистные забоев' взаимозависима и

определяется следующей

таблицей состояний с

соответствующими вероят­

ностями (табл. 5).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Т а б л и ц а

5

 

 

 

 

 

 

Возможные

состояния

 

 

 

 

 

 

забоя

Лъ

 

 

 

 

 

Вероятно­

сменное

сменное

Возможные

состояния

забоя

сти

состоя­ з а д а н и е

по з а д а н и е

по

ний

з а б о я

добыче

вы­

добыче

не

 

 

 

 

 

 

 

 

 

Лі

полнено

выполнено

 

 

 

 

 

 

условные

вероятности

 

 

 

 

 

 

состояний

забоя У72

Сменное

задание

по

добыче

 

0,7

0,75

 

0,25

 

выполнеяо

 

 

 

 

 

 

Сменное

задание

по

добыче

 

0,3

0,12

 

0,88

 

не в ы п о л н е н о

 

 

 

 

 

47

Согласно формуле

(11.36) получаем

 

 

 

2

 

2

2

ЩЛгІЛ,) = —

2

Л 1 о 8 з / > < —

2

2 / w ' / ' I o g ' 7 - ' / < =

 

і =

1

і = 1

/ = 1

= 0,7 logj 0,7 — 0,3

logs 0,3—0,7-0,75

log2 0,75 - 0,7 - 0,25x

X loga 0,25—0,3-0,12 log2 0,12—0,3-0,8S log2 0,88.

Пользуясь табл. 2 приложения, находим:

ЯіЛу/Л,) = 0,360+0,521+0,7-0,311+0,7-0,500+0,3-0,367+

+0,3-0,162= 1.Ю8 бита.

§2. Измерение информации в непрерывных системах

Понятие энтропии применялось до сих пор к дискретным случайным величинам, имеющим конечное множество значе­ ний. На практике гораздо чаще встречаются непрерывные случайные величины с бесконечным множеством значений. Примером может служить величина добычи шахты с какой угодно точностью, содержание метана в вентиляционной струе и т. д.

Непрерывные случайные величины задаются обычно плот­ ностью распределения вероятностей. Плотность вероятности Рг(х) пропорциональна вероятности того, что значение слу­ чайной величины е попадет в малый интервал около точки х:

Р { л : < е < ; с +

&х}

= рг{х)Ах.

(11.42)

При этом имеет место следующее равенство:

 

 

-too

 

 

 

 

\ p,{x)dx

= 1.

(11.43)

—со

 

 

 

 

Разобьем точками Хо, хх,

...,хп

интервал изменения

е на

малые интервалы шириной

ах.

Будем заменять

все значе­

ния е, попавшие в интервал {, лѵн)> значениями л^+t-

Тогда

вместо непрерывной случайной величины е получим дискрет­ ную случайную величину е*, имеющую п значений: хи х2,

хп.

Эта операция превращения непрерывной случайной вели­ чины в дискретную называется квантованием. Ясно, что чем меньше интервал Ах, тем ближе свойства дискретной величи­ ны е* к свойствам непрерывной случайной величины е. Най­ дем энтропию е* по формуле Шеннона:

п

 

Я ( е * ) = - 2 />(*,)log/>(*,),

(И,44)

і = 1

48

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(Xf)

=pt(Xt)àx.

 

 

 

( I I . 45 >

Подставив

выражение

(11.45)

в

формулу

(11.44), получим

 

 

 

п

 

 

 

 

 

 

 

 

и ( О

=

-

S

АС*/)

[log

P»(xj)

+

log

Ал:]

или

 

 

I —

 

 

 

 

 

 

 

 

 

 

п

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Щ**) =

-

S

/>•(•*/) log p,'xt)bx -

log Да:,

так как

 

 

i=»l

 

 

 

 

 

 

 

 

 

«

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

pt(xl)i±x=

 

1.

 

 

 

 

 

 

i =

l

 

 

 

 

 

 

 

Энтропией Я(е) естественно назвать предел

 

 

 

 

#(e)

=

lim//(e') .

 

 

(11.46)

 

 

 

 

 

 

Ajc-*0

 

 

 

 

 

Выражение

(11.46)

переходит

в

следующее

соотношение:

tf(e)=-

 

j

/>,(*)logp,(x)dx—

logO.

(11.47)

 

 

 

— CO

 

H(e)

 

 

 

 

 

Так как l o g 0 =

— со,

то

 

не имеет смысла, и энтро­

пия непрерывной случайной величины равна бесконечности.

Однако первый член выражения (11.47) не обращается в

бесконечность:

 

 

 

 

 

 

 

 

 

 

 

*(•) = -

J p.(x)\ogpe(x)-dx,

 

 

(11.48)

 

 

 

 

-оо

 

 

 

 

 

 

 

и называется дифференциальной

энтропией.

 

 

Дифференциальная

энтропия — эте величина, измеряющая

относительную неопределенность непрерывной случайной си­

стемы.

 

 

 

 

 

 

 

 

 

 

 

Вычислим значения /г(е) для некоторых простых законов

распределения.

 

 

 

 

 

 

 

 

 

 

1. Случайная

величина

с

равномерным

распределе­

нием —• ei.

 

 

 

 

 

 

 

 

 

 

 

Плотность вероятности такой величины определяется со­ отношением

/

1

 

Ъ > а;

/>«,(•*) = 4

для

fe>>jc>a,

Ь — а

х < а, х >

Ь.

 

О для

4 В, В. Ливеішев

 

 

49

Соседние файлы в папке книги из ГПНТБ