книги из ГПНТБ / Ливенцев В.В. Кибернетика горных предприятий (основные положения) учеб. пособие
.pdfний эксплуатация подобного оборудования была бы весьма неэффективной).
«Степень неожиданности» того или иного состояния систе мы определяется его вероятностью: чем меньше вероятность, тем событие неожиданнее. С увеличением неожиданности со бытия возрастает ценность связанной с ним информации, иными словами, чем меньшей вероятностью обладает событие, тем большее количество информации несет в себе сообщение о том, что система попала именно в это, маловероятное, со стояние.
Назначением информации, заключенной в сообщении, яв ляется уменьшение энтропии системы под воздействием этого сообщения. Если, например, до поступления сообщения эн тропия системы была равна двум битам, а после него стала равной одному биту, то информация, заключенная в сообще нии, равна одному биту.
Следовательно, |
информация |
является |
мерой |
определенно |
|
сти вероятностной |
системы. |
|
|
|
|
Таким образом, количество информации о некоторой си |
|||||
стеме X можно представить в виде следующего |
выражения: |
||||
|
І(Х) |
=Н{Х) |
— Н'(Х), |
|
(11.26) |
где І(Х) —количество |
информации о системе |
X: |
|||
Н(Х)—начальная |
|
энтропия системы (начальное незна |
|||
ние о состоянии системы X) ; |
|
|
|||
Н'(Х)—конечная |
|
энтропия |
системы |
(конечное незнание |
|
о состоянии системы |
X). |
|
|
Если сообщение полностью ликвидирует неопределенность системы, т. е. Н'(Х)=0, то величина информации, содержа щейся в этом сообщении, численно равна начальной энтропии системы.
Поскольку в подавляющем большинстве случаев сообще ния строятся таким образом, чтобы полностью снять неопре деленность системы, то для измерения информации в дискрет ных системах вполне применима формула Шеннона; символ энтропии необходимо только заменить символом информации:
k |
|
|
I(W)=~% |
Pilogp,. |
(И-27) |
i = |
l |
|
Информация измеряется в |
тех же единицах, |
что и эн |
тропия. |
|
|
Понятию «информация в битах» можно дать очень на глядное истолкование: она равна числу ответов «да» или «нет» на разумно поставленные вопросы о состоянии системы. Разумность постановки вопросов определяется тем, что их
40
Задают в дихотомическом порядке (дихотомия — последова тельное разбиение пополам). Поясним это на примере.
Пусть система А может иметь два равновероятных состоя ния Ах и А2. Тогда полное выяснение состояния этой системы несет информацию в 1 бит, и, значит, можно ее получить в ре зультате ответа на один вопрос. В самом деле, задав одинединственный вопрос: «Находится ли система в состоянии Л]?» и получив на него ответ «да» или «нет», мы полностью выяс ним состояние системы.
Возьмем другой пример. Пусть в лаве длиной 160 м рабо тает узкозахватный комбайн, передвигающийся по раме скреб кового конвейера. На конвейере через каждые 20 м установ лены контактные датчики, на которые последовательно нажи мает комбайн при своем движении вдоль забоя.
По показаниям датчиков, сигналы от которых передаются, допустим, на пульт горного диспетчера, можно судить, на ка ком участке лавы находится комбайн в каждый момент вре мени.
Комбайн может быть в одном из восьми состояний: на участках лавы от 0—20 м до 140—160 м. Эти состояния будем считать равновероятными, так как комбайн последовательно проходит все участки лавы, не минуя ни один.
Сообщение, несущее информацию о том, на каком участке лавы находится комбайн в данный момент, полностью ликви дирует неопределенность системы. Следовательно, информа ция о местонахождении комбайна численно равна энтропии системы, т. е.
8 |
|
/(К) = - S Л ^ЬРь бит, |
(11.28) |
« = 1 |
|
где І(К) —количество информации о местонахождении ком байна (К), бит;
1 Рі— априорная вероятность г-того состояния, равна — .
8 Подставляя значение р( = — в формулу, получаем
|
1 |
1 |
1{К) = - У |
г |
1 о § 2 — = 3 бита. |
. |
, о |
о |
Это означает, что полное выяснение того, на каком участке лавы находится комбайн, можно получить с помощью трех ответов «да» или «нет» на три дихотомически поставленных вопроса. Зададим эти вопросы. Первый: «Находится ли ком-
41
байн на участке лавы 0—80 м?» (мысленно разбиваем всю длину лавы пополам). Допустим, получаем ответ «нет». Сле довательно, комбайн находится на участке лавы от 80 до 160 м. Вновь мысленно делим этот участок пополам и задаем второй вопрос: «Находится ли комбайн на участке 80—120 м?». Допустим, получаем ответ «да». Задаем третий вопрос: «На ходится ли комбайн на участке 80—100 ж?». При получении отрицательного ответа мы совершенно определенно устанав ливаем, что комбайн находится на участке 100—120 м. Таким образом, сообщение о том, что комбайн находится на участке 100—120 м несет информацию в 3 бита.
Рассмотрим еще один пример.
Пример 5. Пусть добычный участок D характеризуется двумя состоя ниями: D1—суточный план добычи по участку выполнен; D2 —суточный план добычи по участку не выполнен. Допустим, что вероятности этих со стояний равны соответственно рх =0,85 и />2 =0,15.
Сообщение о том, что участок попал в состояние D 3 (план не выпол нен), должно нести в себе информации больше, чем сообщение о том, что
участок находится в |
состоянии |
D x (план выполнен). В самом деле, коли |
||
чество информации, заключенное в сообщении |
о состоянии |
D 3 , составит |
||
|
Іфі) = — iog,/>2 = — l o g , 0,15. |
|
||
Пользуясь табл. 1 приложения, находим |
|
|
||
/(£>,) = |
— (log2 15 —logalOO) = logslOO—log215 = |
|||
|
=-6,644—3,907=2,737 |
бита. |
|
|
Количество информации, |
заключенное в |
сообщении о |
состоянии Dlt |
|
составит |
|
|
|
|
/ ( D O - — loga /7t = — log3 0,85. Пользуясь также табл. 1 приложения, находим
/(Di) = — (log2 85—logjlOO) = log2100—Iog2cV5 =-6,644—6,409 = 0,235 бита.
Как видим, первое сообщение несет информации почти в 12 раз боль ше, чем второе. Это является вполне естественным: при получении сообще ния о неблагоприятном маловероятном событии (суточный план добычи по
участку не |
выполнен — состояние |
D 2 ) реакция руководителя производства |
|||||||||||
несомненно |
сильнее, |
чем |
при сообщении |
о более |
вероятном |
событии — |
|||||||
состоянии |
D j . |
|
|
|
|
|
|
|
|
|
|
|
|
До сих пор мы рассматривали измерение энтропии |
и ин |
||||||||||||
формации применительно к одной системе. |
|
|
|
||||||||||
Рассмотрим две дискретные независимые друг |
от |
друга |
|||||||||||
системы |
5 |
и |
Т. |
Система 5 |
имеет |
п состояний: S\, |
S2, |
Sn |
|||||
с вероятностями |
ри |
р2 , —,рп- |
|
Система |
Т |
имеет m |
значений: |
||||||
Tu Т2, |
Тт |
с вероятностями |
qu |
Яъ - , |
Чт- |
система |
S |
будет |
|||||
Совместная |
вероятность |
|
|
того, |
что |
||||||||
находиться |
в |
состоянии |
|
а |
система Т—в состоянии Гу, |
||||||||
определяется по формуле |
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
Rij |
= |
Pfij- |
|
|
|
(П -29) |
42
Энтропия обеих систем согласно формуле Шеннона будет^
пm
Подставив в эту формулу выражение для Ry, |
получим |
п m
|
|
|
H(S, |
Т)=- |
2 |
2 |
(/W/)log(jtWy) = |
|
|
|
|
|||||||
|
|
|
|
|
|
|
i=l |
|
j=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
m |
|
|
|
n |
m |
|
|
|
|
|
|
|
|
|
|
= — 2 |
2 |
PUjlogPt— |
2 |
S |
Pt4)^ogqj |
|
= |
|
|
||||||
|
|
|
|
i |
= l |
У=1 |
|
|
|
i--=l y = l |
|
|
|
|
|
|
||
|
|
= |
(— />i<7i l o g A - P i ^ l o g / ? ! — . |
. . |
- A ^ l o g / ? , — |
|
|
|||||||||||
|
|
|
- ^ i l 0 g / |
? 2 - ^ 2 l 0 g / » |
2 — |
• |
• |
• —AWmlogft — |
|
|
||||||||
|
— |
• • |
• - A , 7 m |
log/>,,)+( - Pift |
log |
ft-prfi |
log ft — |
|
|
|||||||||
|
|
|
- • |
• |
• — / W i l o g f t — A f t l o g f t — |
|
Asftlogft— |
|
|
|||||||||
|
|
|
- • |
• |
• - P « ^ 2 log ^ |
- |
• |
• • - |
P A |
log qm) |
= |
|
|
|||||
= |
[ |
— |
+ |
|
|
• |
• +9m)Pl l O g ^ i - |
• |
• |
• |
+ |
|
• |
- |
||||
• |
• |
••+?»)AilogA,] + [— (A |
+ ^ |
2 + |
|
• • |
• +Pn) |
ft log ft |
- |
|
||||||||
|
|
|
— . . . — ( Л + Л + |
|
• • + / ? „ ) ? m l o g ? J . |
|
|
|||||||||||
|
В |
связи |
|
с |
тем, |
что |
по |
условию |
Р 1 + Р 2 + |
• • • +рп |
~ |
1; |
+• • • + 9m= 1. можно записать
H(S,T) = -pi\ogpl |
- . |
.—pn\°gPn |
— |
- f t l o g f t - |
. . . |
- ^ m l o g ^ m . |
|
Отсюда получаем |
|
|
|
и/и
Л (5, Л = - 2 Л |
l o g / 7 , - 2 |
ft-log |
ft, |
("-SI) |
« = 1 |
у=1 |
|
|
|
Правая часть данной формулы представляет собой алге браическую сумму энтропии систем S и Т. Окончательно имеем
H{S, T)=H(S)+H(T). |
(11.32) |
43
Совместная энтропия двух независимых систем равна сум
ме энтропии этих |
систем. Данное свойство энтропии назы |
||
вается аддитивностью |
|
|
|
Распространяя принцип аддитивности энтропии |
(информа |
||
ции) на п независимых систем, можно записать |
|
||
Н(Аи |
А2 |
Л „ ) = 2 Я Иі)- |
(11.33) |
|
|
і = 1 |
|
Проиллюстрируем принцип аддитивности энтропии систе мы, в которой состояния отдельных подсистем являются неза висимыми друг от друга.
Пример 6. Рассмотрим две шахты, состояния которых и соответствую щие им вероятности заданы табл. 3.
|
|
|
|
|
Т а б л и ц а |
3 |
|
|
|
|
|
|
Вероятности |
состояний |
|
Возможные состояния |
шахты |
шахта А |
шахта |
Б |
|||
|
|
|
|
|
|||
Суточный |
план |
добычи |
выполнен |
0,9 |
0,8 |
|
|
Суточный |
план |
добычи |
не выполнен |
0,1 |
0,2 |
|
|
Система, |
состоящая из |
обеих |
шахт, будет |
характеризоваться |
табл. 4. |
||
|
|
|
|
|
Т а б л и ц а |
4 |
|
Возможные состояния |
системы |
Совместная |
вероят |
||||
ность состояния |
|
||||||
|
|
|
|
|
|
||
План по шахтам А и Б выполнен |
|
0,9.0,8= =0,72 |
|
||||
План по шахте А выполнен, по шахте Б не вы |
0 , 9 - 0 , 2 = і 0 , 1 8 |
|
|||||
полнен |
|
|
|
|
|
||
План по шахте А не выполнен, по шахте Б вы |
0,1-0,8= =0,08 |
|
|||||
полнен |
|
|
|
|
|
||
План по шахтам А и Б не выполнен |
0,1-0,2= = 0,02 |
|
Энтропия системы составит:
Н(А, Б) = —0,72 logj0,72—0,18 log, 0,18—
—0,08 logs 0,08—0,02 log, 0,02.
i Величина, характеризующая весь объект в целом, является аддитив ной, если ее можно представить в виде суммы величин, характеризующих
отдельные части этого объекта. Аддитивной называют функцию f(a-\-b),
если f(a + b) = f(a)+f(b).
44
Пользуясь табл. 2 приложения, находим:
Н(А, Б ) = 0 , 3 4 1 + 0 , 4 4 5 + 0,292+0,113 = 1,191 бита.
Энтропии подсистем (шахт) составят: |
|
|
ЩА)=— 0,9 |
logü 0,9—0,1 logs 0,1=0,137+0,332=0,469 |
бита; |
ЩБ)=-— 0,8 |
log2 0,8—0,2 log2 0,2 = 0,258+0,464=0,722 |
бита. |
Суммарная энтропия подсистем равна: |
|
|
Н(А)±Н{Б) =0,469+0,722=1,191 бита. |
|
|
Как видим, она в точности равна энтропии системы. |
|
Рассмотрим две дискретные зависимые друг от друга си
стемы |
V и W. Система |
V имеет п значений: Ѵ\, Ѵ2, |
Ѵп |
с ве |
||||||||
роятностями |
pu |
Р2, |
рп. |
Система |
W |
имеет |
m |
значений: |
||||
Wi, W2 |
Wmc |
вероятностями qu |
q2, |
|
qm- |
|
в том, что |
|||||
Зависимость систем друг от друга выражается |
||||||||||||
вероятность |
нахождения системы W |
в |
некотором |
состоя |
||||||||
нии Wj зависит от того, в каком |
состоянии в данный |
момент |
||||||||||
находится система V. Таким образом, если вероятность |
нахож |
|||||||||||
дения |
системы |
V в состоянии |
Vt |
определяется |
величиной nh |
|||||||
то вероятность |
нахождения |
зависимой |
от нее системы |
W в |
||||||||
состоянии Wj определяется условной вероятностью. |
|
|
||||||||||
Совместная |
вероятность того, |
что система |
V будет |
|
нахо |
|||||||
диться |
в состоянии Vti |
а система |
W — в состоянии |
Wj, |
опре |
|||||||
деляется по формуле |
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
Ягі=РЛт- |
|
|
|
|
( I L 3 4 ) |
Энтропия обеих систем согласно формуле Шеннона будет
л m
|
|
H(V/W)=- |
2 |
2 |
RijlogRij. |
(11.35) |
|||
|
|
|
|
( = 1 у=1 |
|
|
|
||
Подставив |
в данную |
формулу |
|
выражение для /?;,-, |
получим |
||||
|
|
|
|
л |
m |
|
|
|
|
|
H{VjW)=- |
|
2 |
2 |
|
|
Prtjniogpfij^ |
|
|
|
|
|
|
i = î j |
= i |
|
|
|
|
|
л |
о т |
|
|
|
л о |
т |
|
|
= - |
S |
2 РіЯінЩРі— |
|
2 |
2 |
/Ѵ7у/* l ° g < 7 у 7 / = |
|||
|
i = \j=\ |
|
|
|
«=1 j = \ |
|
|||
= -PiÇ'/Jogp1-plqyilogpl- |
|
. |
. |
. —РіЧыЛьЪРі |
— |
||||
~РгЯ1\Л°%Рг— |
|
РгФі№Рх- |
• |
• |
• — Wm/ . logPa - |
45
|
— |
• |
• •—Pn94n\ogpa—pnq>/n\ogpn—. |
|
. |
. — |
|
||||||||
|
|
|
|
|
|
|
|
|
n |
m |
|
|
|
|
|
|
|
|
— PnQm/n^gPn— |
|
S |
2l |
P0j/ttogqj!l |
= |
|
|
|||||
|
|
|
|
|
|
|
|
|
i = |
l j = l |
|
|
|
|
|
|
= |
— (4v,+ |
<7v,+ |
• |
• |
. + |
4mùP\ |
l o g / V - |
• |
• • - |
|
||||
|
|
|
- (Ячп + Я'/п + . . |
. + qmm) |
Pn log Pn |
- |
|
||||||||
|
|
|
|
|
|
|
n |
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
— |
S |
|
S |
Pfljtilogqjn. |
|
|
|
||
В |
связи |
с тем, что |
условные |
вероятности |
|
по |
каждо |
||||||||
му і |
дают |
сумму |
<7ѵ;Н~<7Ѵг + . |
. • -f-<7m /,-=l, можно записать |
|||||||||||
|
|
H{VIW) |
= |
— p1\ogpl-p2\ogp2— |
. . |
.— |
|
||||||||
|
|
|
|
|
|
|
|
|
n |
m |
|
|
|
|
|
|
|
|
-Pn^gPn |
|
— |
S |
|
S |
РіЯѵЛ^Ят- |
|
|
|
|||
|
|
|
|
|
|
|
i |
= |
l y = i |
|
|
|
|
|
|
Отсюда получаем |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
и |
|
|
|
|
n |
m |
|
|
|
|
H{V}W) |
= |
— |
2 |
Piïogp,— |
2 |
S |
РіЯііАоъЯрі- |
(11-36) |
|||||||
|
|
|
|
|
i = l |
|
|
|
|
t |
=1 |
|
|
|
|
Выражение |
— 2 |
P< log/^представляет собой энтропию си- |
|||||||||||||
|
|
|
|
|
i = |
1 |
Л |
7П |
|
|
|
|
|
||
стемы К, выражение— |
2 |
|
|
|
|
^/лпредставляет |
энтро- |
||||||||
|
|
|
|
|
|
|
t = i |
У=1 |
|
|
|
|
|
||
пию системы W при известном состоянии системы V. Поэтому |
|||||||||||||||
окончательно имеем |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
H(VIW)=H(V) |
|
+ HV(W), |
|
|
(11.37) |
|||||
где |
Н(Ѵ) |
|
— энтропия системы |
V; |
|
|
|
|
|
||||||
Нѵ( W) |
— условная энтропия системы W. |
|
|
|
Условная энтропия системы W, т. е. ее неопределенность, очевидно, будет меньше той энтропии, которую система W имела бы, если бы была независимой, так как знание состоя ния системы V, от которой зависит система W, уже снимает некоторую долю неопределенности у системы W. Это обстоя тельство можно выразить следующим неравенством;
HV{W)<H{W), |
' |
(II38) |
46
|
Можно также записать |
|
|
|
|
|
H{W)~HV{W) |
=/(V/W), |
|
(11.39) |
|
где |
I(V/W)—количество |
информации о системе W, |
которое |
||
|
мы получаем, наблюдая за системой V. |
||||
|
Найдем из выражения (11.37) величину |
HV{W): |
|
||
|
HV{W) |
=H(VjW) |
- H(V). |
|
(11.40) |
лу |
Теперь подставим |
найденное |
выражение |
Hv(W)b |
форму |
(11.39). Получаем |
|
|
|
|
|
|
Я (VIW) =H(V) +H(W)—I(V/W). |
|
(11.41) |
Совместная энтропия двух зависимых систем равна сумме энтропии этих систем минус количество информации об одной системе, полученное при наблюдении за другой зависимой системой.
Отсюда следует, что в случае зависимости систем V и W сложное состояние систем VW характеризуется меньшим ко личеством информации, чем в случае независимости систем. Естественно, сложные системы, состоящие из зависимых си стем, свойством аддитивности энтропии (информации) не об ладают.
Рассмотрим пример вычисления энтропии системы, в кото рой состояния отдельных подсистем зависят друг от друга.
Пример 7. Пусть на участке имеется два очистных забоя. Поскольку они связаны друг с другом общей схемой транспорта, вентиляции и энерго снабжения, можно считать, что работа очистные забоев' взаимозависима и
определяется следующей |
таблицей состояний с |
соответствующими вероят |
||||||||
ностями (табл. 5). |
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
Т а б л и ц а |
5 |
||
|
|
|
|
|
|
Возможные |
состояния |
|||
|
|
|
|
|
|
забоя |
Лъ |
|
||
|
|
|
|
Вероятно |
сменное |
сменное |
||||
Возможные |
состояния |
забоя |
сти |
состоя з а д а н и е |
по з а д а н и е |
по |
||||
ний |
з а б о я |
добыче |
вы |
добыче |
не |
|||||
|
|
|
|
|||||||
|
|
|
|
|
Лі |
полнено |
выполнено |
|||
|
|
|
|
|
|
условные |
вероятности |
|||
|
|
|
|
|
|
состояний |
забоя У72 |
|||
Сменное |
задание |
по |
добыче |
|
0,7 |
0,75 |
|
0,25 |
|
|
выполнеяо |
|
|
|
|
|
|
||||
Сменное |
задание |
по |
добыче |
|
0,3 |
0,12 |
|
0,88 |
|
|
не в ы п о л н е н о |
|
|
|
|
|
47
Согласно формуле |
(11.36) получаем |
|
|
|
|
2 |
|
2 |
2 |
ЩЛгІЛ,) = — |
2 |
Л 1 о 8 з / > < — |
2 |
2 / w ' / ' I o g ' 7 - ' / < = |
|
і = |
1 |
і = 1 |
/ = 1 |
= 0,7 logj 0,7 — 0,3 |
logs 0,3—0,7-0,75 |
log2 0,75 - 0,7 - 0,25x |
X loga 0,25—0,3-0,12 log2 0,12—0,3-0,8S log2 0,88.
Пользуясь табл. 2 приложения, находим:
ЯіЛу/Л,) = 0,360+0,521+0,7-0,311+0,7-0,500+0,3-0,367+
+0,3-0,162= 1.Ю8 бита.
§2. Измерение информации в непрерывных системах
Понятие энтропии применялось до сих пор к дискретным случайным величинам, имеющим конечное множество значе ний. На практике гораздо чаще встречаются непрерывные случайные величины с бесконечным множеством значений. Примером может служить величина добычи шахты с какой угодно точностью, содержание метана в вентиляционной струе и т. д.
Непрерывные случайные величины задаются обычно плот ностью распределения вероятностей. Плотность вероятности Рг(х) пропорциональна вероятности того, что значение слу чайной величины е попадет в малый интервал около точки х:
Р { л : < е < ; с + |
&х} |
= рг{х)Ах. |
(11.42) |
|
При этом имеет место следующее равенство: |
|
|
||
-too |
|
|
|
|
\ p,{x)dx |
= 1. |
(11.43) |
||
—со |
|
|
|
|
Разобьем точками Хо, хх, |
...,хп |
интервал изменения |
е на |
|
малые интервалы шириной |
ах. |
Будем заменять |
все значе |
|
ния е, попавшие в интервал (х{, лѵн)> значениями л^+t- |
Тогда |
вместо непрерывной случайной величины е получим дискрет ную случайную величину е*, имеющую п значений: хи х2,
хп.
Эта операция превращения непрерывной случайной вели чины в дискретную называется квантованием. Ясно, что чем меньше интервал Ах, тем ближе свойства дискретной величи ны е* к свойствам непрерывной случайной величины е. Най дем энтропию е* по формуле Шеннона:
п |
|
Я ( е * ) = - 2 />(*,)log/>(*,), |
(И,44) |
і = 1
48
где |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p(Xf) |
=pt(Xt)àx. |
|
|
|
( I I . 45 > |
|||
Подставив |
выражение |
(11.45) |
в |
формулу |
(11.44), получим |
||||||
|
|
|
п |
|
|
|
|
|
|
|
|
и ( О |
= |
- |
S |
АС*/) |
[log |
P»(xj) |
+ |
log |
Ал:] |
||
или |
|
|
I — |
|
|
|
|
|
|
|
|
|
|
п |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Щ**) = |
- |
S |
/>•(•*/) log p,'xt)bx - |
log Да:, |
|||||||
так как |
|
|
i=»l |
|
|
|
|
|
|
|
|
|
|
« |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
pt(xl)i±x= |
|
1. |
|
|
|
||
|
|
|
i = |
l |
|
|
|
|
|
|
|
Энтропией Я(е) естественно назвать предел |
|
||||||||||
|
|
|
#(e) |
= |
lim//(e') . |
|
|
(11.46) |
|||
|
|
|
|
|
|
Ajc-*0 |
|
|
|
|
|
Выражение |
(11.46) |
переходит |
в |
следующее |
соотношение: |
||||||
tf(e)=- |
|
j |
/>,(*)logp,(x)dx— |
logO. |
(11.47) |
||||||
|
|
|
— CO |
|
H(e) |
|
|
|
|
|
|
Так как l o g 0 = |
— со, |
то |
|
не имеет смысла, и энтро |
|||||||
пия непрерывной случайной величины равна бесконечности. |
|||||||||||
Однако первый член выражения (11.47) не обращается в |
|||||||||||
бесконечность: |
|
|
|
|
|
|
|
|
|
|
|
|
*(•) = - |
J p.(x)\ogpe(x)-dx, |
|
|
(11.48) |
||||||
|
|
|
|
-оо |
|
|
|
|
|
|
|
и называется дифференциальной |
энтропией. |
|
|
||||||||
Дифференциальная |
энтропия — эте величина, измеряющая |
||||||||||
относительную неопределенность непрерывной случайной си |
|||||||||||
стемы. |
|
|
|
|
|
|
|
|
|
|
|
Вычислим значения /г(е) для некоторых простых законов |
|||||||||||
распределения. |
|
|
|
|
|
|
|
|
|
|
|
1. Случайная |
величина |
с |
равномерным |
распределе |
|||||||
нием —• ei. |
|
|
|
|
|
|
|
|
|
|
|
Плотность вероятности такой величины определяется со отношением
/ |
1 |
|
Ъ > а; |
/>«,(•*) = 4 |
для |
fe>>jc>a, |
|
Ь — а |
х < а, х > |
Ь. |
|
|
О для |
||
4 В, В. Ливеішев |
|
|
49 |