Скляр в пересказе Орешкина
.pdf4.11.Зависимость вероятности битовой ошибки от вероятности символьной ошибки
Рассмотрим различие вычислений битовой ошибки для ортогональных и неортого-
нальных сигналов:
ортогональные сигналы. Можно показать, что соотношение между вероят-
ностью битовой ошибки (Рb) и вероятностью символьной ошибки (РЕ) для ортогональных
M-арных сигналов дается следующим выражением:
|
|
P |
2k 1 |
M / 2 |
|
|
|
||||||
|
|
b |
|
|
|
|
|
|
|
. |
(4.28) |
||
|
|
|
|
M 1 |
|||||||||
|
|
PE |
2k 1 |
|
|
|
|||||||
В пределе при увеличении k получаем |
|
|
|
|
|
|
|
||||||
|
|
|
|
lim |
|
Pb |
|
1 |
|
; |
|||
|
|
|
|
|
|
|
|||||||
|
|
|
|
k PE |
2 |
|
|
||||||
|
многофазные сигналы. При передаче сигналов MPSK значение Рb меньше |
или равно РЕ, так же как и при передаче сигналов MFSK. В то же время имеется и сущест-
венное отличие. Для ортогональной передачи сигналов выбор одного из (М – 1) ошибоч-
ных символов равновероятен. При передаче в модуляции MPSK каждый сигнальный век-
тор не является равноудаленным от всех остальных. На рис.4.2,а показано восьмеричное пространство решений, где области решений обозначены восьмеричными символами в двоичной записи. При передаче символа (011) и появлении в нем ошибки наиболее веро-
ятными являются ближайшие соседние символы, (010) и (100). Вероятность превращения символа (011) вследствие ошибки в символ (111) относительно мала. Если биты распреде-
ляются по символам согласно двоичной последовательности, показанной на рис.4.2,а, то некоторые символьные ошибки всегда будут давать две (или более) битовые ошибки, да-
же при значительном отношении сигнал/шум.
010 |
001 |
|
011 |
001 |
011 |
|
000 |
010 |
000 |
100 |
|
111 |
110 |
100 |
101 |
110 |
|
111 |
101 |
а |
|
|
|
б |
Рис. 4.2. Области решения в сигнальном пространстве MPSK: а - в бинарной кодировке; б - в кодировке Грея
51
Для неортогональных схем, например MPSK, часто используется код преобразова-
ния бинарных символов в M-арные, такие, что двоичные последовательности, соответст-
вующие соседним символам (сдвигам фаз), отличаются единственной битовой позицией;
таким образом, при появлении ошибки в М-арном символе высока вероятность того, что ошибочным является только один из k прибывших битов. Кодом, обеспечивающим по-
добное свойство, является код Грея (Gray code); на рис.4.2,б для восьмеричной схемы PSK
представлено распределение битов по символам с использованием кода Грея.
Можно показать, что при использовании кода Грея вероятность ошибки будет сле-
дующей:
Pb |
PE |
|
(для PE 1) . |
(4.29) |
|
|
|||
|
log2 |
M |
|
Примеры задач
Пример 4.1. Найдите вероятность появления ошибочного бита в системе, ис-
пользующей схему BPSK и скорость 1 Мбит/с. Принятые сигналы Acos( t) и –Acos( t)
детектируются когерентно с использованием согласованного фильтра. Величина А равна
10 мВ, спектральная плотность шума - 10–11 Вт/Гц.
Решение.
|
|
|
A |
|
2Eb |
10 2 B ; T |
|
1 |
|
10 6 c ; |
||||||
|
|
|
|
T |
R |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
A2 |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
T 5 10 11 и |
|
|
|
2E |
|
|
|||||||
E |
b |
|
|
|
P Q |
|
|
b |
|
|
Q(3.16) . |
|||||
|
|
|
|
|
||||||||||||
|
|
2 |
|
|
|
|
b |
|
|
|
N0 |
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Пример 4.2. Предположим, что символьная скорость передачи данных - 1000
символов/с. Рассчитайте максимальную разницу в фазах сигналов MPSK для количества сигналов М = 8. Рассчитайте минимальную разницу в частоте несущей для М = 8 ортого-
нальных сигналов когерентной MFSK. Рассчитайте вероятность битовой ошибки для обе-
их схем при условии Eb 9 дБ .
N0
Решение.
В случае фазовой манипуляции сигналы представляют собой синусоиду с разной фазой. Все пространство фаз составляет 2π, следовательно, чтобы равномерно распреде-
лить фазовое пространство между восемью сигналами, на каждый сигнал нужно выделить
2π/M, в нашем случае - 2π/8. Тогда сигналы будут представлять собой
52
s0 (t)
s1(t)
s2 (t)
...
s7 (t)
2E cos 0t 0 ;
T
2E cos 0t 2 ; T 8
|
|
2E |
|
|
4 |
|
|
|
|
|
cos 0t |
|
|
; |
|
T |
|
||||||
|
|
|
|
8 |
|
||
|
|
|
|
|
14 |
||
|
|
2E |
|
||||
|
|
|
cos 0t |
|
|
. |
|
T |
|
8 |
|
||||
|
|
|
|
|
|
В случае частотной манипуляции ортогональность сигналов будет зависеть от сим-
вольной скорости и для когерентной системы разница между частотами будет составлять
1/2Т. В нашем случае (1000 символов/с) период одного символа составляет 0,001 с, следо-
вательно, разница частот должна составлять 500 Гц. Тогда сигналы будут представлять собой
s (t) |
|
2E |
|
|
cos t ; |
|||||
|
|
|
||||||||
|
0 |
|
|
|
T |
0 |
|
|||
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
||
s (t) |
2E |
|
|
|
cos ( |
1000 )t ; |
||||
|
|
|||||||||
1 |
|
|
|
T |
0 |
|
||||
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|||
s |
|
(t) |
|
2E |
|
cos ( |
2000 )t ; |
|||
2 |
|
|
||||||||
|
|
|
|
T |
0 |
|
||||
|
|
|
|
|
|
|
|
|
||
... |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
s (t) |
|
2E |
cos ( |
7000 )t . |
||||||
|
|
|||||||||
|
7 |
|
|
|
T |
0 |
|
|||
|
|
|
|
|
|
|
|
|
Вероятность символьной ошибки для 8 PSK
|
|
|
|
|
|
|
2Es |
|
|
P (M ) 2Q |
|
|||
|
|
|||
E |
|
N0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6Eb |
|
|
|
|
||||
sin |
|
2Q |
|
sin |
|
2Q 2.6535 . |
|||||
|
|||||||||||
|
8 |
|
|
N0 |
8 |
|
|
||||
|
|
|
|
|
Далее, предполагая использование кода Грея, вероятность битовой ошибки для
8 PSK составит:
Pb |
PE |
|
. |
log2 |
|
||
|
M |
Переходя к рассмотрению FSK модуляции,
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
E |
s |
|
|
3E |
|
7Q 4.88 ; |
||||
P (M ) (M 1)Q |
|
|
|
7Q |
b |
|
|
|||||
|
|
|
||||||||||
E |
|
|
|
|
|
|
N0 |
|
|
|
||
|
|
N0 |
|
|
|
|
Pb PE M 2 4 PE .
M 1 7
53
Контрольные вопросы
1.Что такое полосовая модуляция?
2.Какие методы полосовой модуляции вы знаете?
3.Нарисуйте общую структурную схему корреляционного приемника.
4.Что такое комплексная огибающая?
5.Какова взаимная зависимость вероятностей битовой и символьной ошибки?
6.Что такое код Грея?
54
Глава 5. Теория информации
Теория информации - раздел прикладной математики, определяющий информа-
цию как некоторую измеримую величину, изучающий ее свойства. Основателем теории информации по праву считают Клода Шеннона (1916 - 2001). В основе этой теории лежит вероятностное представление мира. Простейшей единицей измерения информации приня-
то считать бит. Информацией принято считать совокупность сведений о каком-либо со-
бытии, процессе. Сообщение - последовательность символов, в виде которых представле-
на информация. Объект, передающий информацию, - источник. Количество информации
(некоторая мера информации) характеризует степень уменьшения неопределенности представлений принимающей стороны о состоянии источника сообщения после получе-
ния этого сообщения приемником.
5.1. Количество информации
Рассмотрим случай достоверного приема сообщения. Пусть ai - некоторое сооб-
щение. Информация, доставляемая сообщением ai, будет тем больше, чем неожиданнее для получателя оказалось соответствующее состояние источника сообщений. Если по ап-
риорной информации (в общем случае включая информацию, доставленную предыдущи-
ми символами) получателю было достоверно известно, что в момент передачи данного сообщения источник находился в состоянии, характеризуемом сообщением ai, т.е. апри-
орная вероятность этого состояния равна единице, то получение сообщения ai не дает по-
лучателю никакой дополнительной информации. Чем меньше априорная вероятность со-
стояния ai, тем большую информацию вносит получение данного сообщения. В связи с этим можно считать, что количественная мера информации, которую несет сообщение ai,
должна быть функцией априорной вероятности P того, что источник в момент передачи находился в состоянии ai:
log2 P(ai ) . |
(5.1) |
Если в системе имеет место не одно сообщение, а несколько, их можно задать множеством (алфавитом) ai a1,a2 , ,am , где m - объем алфавита.
Для такой системы справедливо свойство аддитивности:
55
m |
|
a1, a2 , , am log2 P(ai ) . |
(5.2) |
i 1
В реальных системах вероятности P(ai) могут априорно меняться в зависимости от того, что было принято ранее приемником. Такие системы называют каналами с памятью,
в противном случае, когда вероятность при текущем приеме не зависит от предыдущего,
система называется каналом без памяти.
5.2. Энтропия
Для описания источника в целом (а не отдельных его сообщений) используется па-
раметр энтропия. Энтропия характеризует источник сообщений с точки зрения среднего количества информации на сообщение, и рассчитывается как математическое ожидание:
m |
|
H Pi log2 Pi . |
(5.3) |
i 1
Энтропия принимает максимальное значение при равновероятных сообщениях.
m |
|
|
|
|
|
||
H |
1 |
log2 |
1 |
m |
1 |
log2 m log2 m . |
(5.4) |
|
|
|
|||||
i 1 m |
m |
|
m |
|
Тем самым энтропию, как и в физике (химии) можно рассматривать как меру не-
упорядоченности (сообщений), максимальную в случае полной неупорядоченности - рав-
новероятности.
Избыточность источника - это избыточность числа символов, используемых дан-
ной системой для передачи некоторого количества информации относительно минимума необходимого их числа:
H A |
|
1 log2 m . |
(5.5) |
Было бы неправильным всегда рассматривать избыточность как признак несовер-
шенства источника сообщений. Так, при передаче текста, когда свойства источника сооб-
щений определяются словарем данного языка, избыточность совершенно необходима для обеспечения удобства заучивания и произношения слов, разборчивости речи, мелодично-
сти языка и т.п. В общем случае передачи информации по каналам связи избыточность является необходимой платой за достоверность в условиях наличия помех.
Рассмотрим возможность появления ошибок. В данном случае даже после получе-
ния сообщения остается возможность ошибки в идентификации сообщения
|
(5.6) |
γ H (A) H (A|A ) , |
|
56 |
|
где H ( A|A ) представляет собой меру количества информации, теряемой из-за оши-
бок. Это то количество информации, которое мы не получили из-за ненулевой неодно-
значности после получения сообщения. Рассмотрим пример 5.1.
5.3. Пропускная способность
Пропускной способностью канала называется максимально возможная в канале скорость передачи информации.
Для дискретных систем
ddtγ Vk H (B) ,
где Vk - скорость передачи символов; H(B) - энтропия, характеризующая канал и алфавит канала.
Производительностью источника называется скорость поступления информации от источника
ddtγ Vи H ( A) ,
где Vи - скорость передачи символов источника; H(А) - энтропия, характеризующая источник и алфавит источника.
Максимальная скорость передачи информации достигается только в случае макси-
мальной энтропии, т.е. при использовании равновероятных сообщений:
Сk Vk log2 m . |
(5.7) |
Рассмотрим теорему Шеннона (для дискретного канала без помех). Если макси-
мальная пропускная способность дискретного канала без помех превышает производи-
тельность источника, т.е.
Vk log2 m VиH (A) ,
то существует способ кодирования и декодирования сообщений источника с энтро-
пией H ( A) , обеспечивающий сколь угодно высокую надежность отождествления приня-
тых комбинаций с действительно переданными. В противном случае способа передачи без ошибок нет.
Теорема Шеннона (для дискретного канала с помехами) изменяется до вида
Vk log2 m H B|B VиH (A) ,
где учитываются потери пропускной способности в результате неоднозначности идентификации сообщений, описанной выше.
57
Для непрерывного (аналогового) канала связи пропускная способность канала оце-
нивается по широко известной формуле Шеннона, описывающей зависимость пропускной способности от ширины доступной полосы и отношения мощностей сигнала и шума:
C |
|
F log |
|
|
|
k |
2 |
1 |
|||
|
|
|
|
||
|
|
|
|
|
|
P |
|
|
|
|
с |
|
F log |
1 |
|
|
||||
|
|
|
2 |
|
Pш |
|
|
|
Pc |
|
|
|
|
|
, |
(5.8) |
|
|||
F N0 |
|
||
|
|
|
где F - рабочая полоса частот; N0 - спектральная плотность мощности шума.
Примеры задач
Пример 5.1. В кувшине 8 шаров: 4 белых, 2 красных, 2 зеленых.
1)Какое количество информации вы получите, если достанете белый шар?
2)Какое количество информации вы получите, если достанете зеленый шар?
3)Какое количество информации приходится в среднем на любой шар?
4)Какое количество информации приходилось бы в среднем на любой шар, если бы они все были разного цвета?
5)Какое количество информации вы получите, вытащив зеленый шар, если вы дальтоник и не различаете цвета (белый от цветного отличить можно)?
Решение.
1) Вероятность достать белый шар 4/8 = 1/2, следовательно, количество информа-
ции будет равно
log2 |
|
1 |
|
log2 (2) |
1[бит] . |
|
|
|
|
||||
2 |
||||||
|
|
|
|
|
2) По аналогии с п. 1 вероятность зеленого шара 2/8 = 1/4, количество информации
2 бита.
3) В среднем для источника на одно сообщение приходится
|
4 |
|
4 |
|
2 |
|
2 |
|
2 |
|
2 |
1,5 бит . |
||||||
|
|
log2 |
|
|
|
|
|
log2 |
|
|
|
|
|
log2 |
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
8 |
|
8 |
|
8 |
|
8 |
|
8 |
|
8 |
|
Обратите внимание, что в задачах на количество информации биты могут быть дробными, поскольку это не конкретное количество двоичных единиц, а некая численная характеристика системы.
4) В случае, если все шары разноцветные, т.е. для равновероятных событий (сооб-
щений), энтропия составляет
|
1 |
|
|
1 |
|
3 бит . |
|
8 |
|
log2 |
|
|
|
||
8 |
8 |
||||||
|
|
|
|
|
58
5) В случае, если невозможно однозначно идентифицировать полученное сообще-
ние, возникает неоднозначность, которая показывает, что мы получили меньше информа-
ции, чем могло содержаться в сообщении при его однозначной идентификации. По усло-
виям задачи полученный зеленый шар отличается от белого, после получения сообщения
остается вероятность |
1 |
, что это зеленый или синий шар. Значит потери информации со- |
|||||||
2 |
|||||||||
|
|
|
|
|
|
|
|
||
ставляют |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
1 бит . |
|||
|
|
log2 |
|
|
|
|
|||
|
|
|
|
|
|||||
|
|
|
|
|
2 |
|
|||
При однозначной идентификации зеленый шар принес бы |
|||||||||
|
|
log |
|
2 |
2 бит , |
||||
|
|
|
|
|
|
||||
|
|
|
|
||||||
|
|
2 |
|
8 |
|
а в случае зеленого шара, без возможности различать цвета, полученное количество информации составляет
|
|
2 |
|
|
1 |
|
1 бит . |
|
log2 |
|
|
|
log2 |
|
|
|
|
|
2 |
|||||||
|
|
8 |
|
|
|
|
Мы получили столько информации, что при идентификации можем отбросить все белые шары, 4 из 8
log2 |
|
4 |
|
1 бит . |
|
|
|
|
|||
8 |
|||||
|
|
|
|
Пример 5.2. Определите: 1) какое количество информации можно получить,
бросив игральную кость 3 раза? 2) только четность выпавшего числа; 3) сколько инфор-
мации "потеряется" для каждого из бросков, если учитывать только четность, но не значе-
ние?
Решение.
1)Для трех бросков игральной кости, пользуясь свойством аддитивности:
Υlog2 16 3 7,75 бит .
2)Если учитывать только четность выпавших чисел:
Υ(log2 0,5 3) 3 бит .
3)Для каждого броска "потеряется":
|
1 |
|
|
|
1,6 бит . |
||
log |
|
|
log |
|
0,5 |
||
2 6 |
2 |
||||||
|
|
|
|
Пример 5.3. Пусть в канал связи с шириной полосы F1 внесли такие изменения,
что при старой пропускной способности ширина полосы увеличилась в 2 раза. Как при этом изменилось соотношение сигнал/шум?
59
Решение.
Приравняем пропускные способности до и после изменения с учетом изменивших-
ся параметров:
|
|
|
|
P |
|
|
|
|
|
|
|
|
P |
|
|
|
|
|||
|
|
|
|
c |
|
|
|
|
|
|
|
|
|
|
|
с |
|
|
|
; |
F1 log2 1 |
|
|
|
|
|
2 F1 log2 1 |
|
|
|
|
|
|||||||||
|
|
|
|
Pш 1 |
|
|
|
|
|
|
|
|
Pш 2 |
|
|
|||||
|
|
|
|
P |
|
|
|
|
|
P |
|
|
2 |
|
|
|
|
|||
log |
|
1 |
c |
|
|
log |
|
1 |
|
с |
|
|
; |
|
|
|||||
|
|
|
|
|
|
|||||||||||||||
|
2 |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Pш 1 |
|
|
|
|
|
Pш 2 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
P |
|
|
2 |
1 |
|
c |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
Pш 1 |
|
|
|
|
P |
|
|
|
|
|
|
с |
|
|
; |
1 |
|
|
|
|
||
|
|
|
Pш 2 |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
P |
|
2 |
|
P |
|
|
|
|
c |
|
|
|
с |
|
|
|
|
|||||||
1 |
|
|
|
|
1 |
|
. |
|
|
|
Pш 1 |
|
|
Pш 2 |
Пример 5.4. Вычислите избыточность фокусника, если он достает из шляпы кро-
лика с вероятностью 0,125, ленту и шарик с одинаковой вероятностью 0,0625, кошелек одного из зрителей с вероятностью 0,5, и букет цветов с вероятностью 0,25.
Решение.
Прежде чем вычислять избыточность, необходимо подсчитать энтропию (формула
(5.3)):
5
HPi log2 Pi
i1
|
1 |
|
1 |
|
1 |
|
1 |
|
|
1 |
|
1 |
|
1 |
|
1 |
|
|
||
|
|
log2 |
|
2 |
|
log2 |
|
|
|
|
|
log2 |
|
|
|
log2 |
|
|
|
|
8 |
8 |
16 |
16 |
2 |
2 |
4 |
4 |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
83 12 12 12 158 1,875;
Нmax log2 5 2,322.
Тогда избыточность 1 |
H A |
1 |
1,875 |
|
0,193. |
log2 m |
2,322 |
60