Добавил:
Закончил бакалавриат по специальности 11.03.01 Радиотехника в МИЭТе. Могу помочь с выполнением курсовых и БДЗ по проектированию приемо-передающих устройств и проектированию печатных плат. Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Скляр в пересказе Орешкина

.pdf
Скачиваний:
45
Добавлен:
10.09.2023
Размер:
2.42 Mб
Скачать

4.11.Зависимость вероятности битовой ошибки от вероятности символьной ошибки

Рассмотрим различие вычислений битовой ошибки для ортогональных и неортого-

нальных сигналов:

ортогональные сигналы. Можно показать, что соотношение между вероят-

ностью битовой ошибки (Рb) и вероятностью символьной ошибки (РЕ) для ортогональных

M-арных сигналов дается следующим выражением:

 

 

P

2k 1

M / 2

 

 

 

 

 

b

 

 

 

 

 

 

 

.

(4.28)

 

 

 

 

M 1

 

 

PE

2k 1

 

 

 

В пределе при увеличении k получаем

 

 

 

 

 

 

 

 

 

 

 

lim

 

Pb

 

1

 

;

 

 

 

 

 

 

 

 

 

 

 

k PE

2

 

 

 

многофазные сигналы. При передаче сигналов MPSK значение Рb меньше

или равно РЕ, так же как и при передаче сигналов MFSK. В то же время имеется и сущест-

венное отличие. Для ортогональной передачи сигналов выбор одного из (М – 1) ошибоч-

ных символов равновероятен. При передаче в модуляции MPSK каждый сигнальный век-

тор не является равноудаленным от всех остальных. На рис.4.2,а показано восьмеричное пространство решений, где области решений обозначены восьмеричными символами в двоичной записи. При передаче символа (011) и появлении в нем ошибки наиболее веро-

ятными являются ближайшие соседние символы, (010) и (100). Вероятность превращения символа (011) вследствие ошибки в символ (111) относительно мала. Если биты распреде-

ляются по символам согласно двоичной последовательности, показанной на рис.4.2,а, то некоторые символьные ошибки всегда будут давать две (или более) битовые ошибки, да-

же при значительном отношении сигнал/шум.

010

001

 

011

001

011

 

000

010

000

100

 

111

110

100

101

110

 

111

101

а

 

 

 

б

Рис. 4.2. Области решения в сигнальном пространстве MPSK: а - в бинарной кодировке; б - в кодировке Грея

51

Для неортогональных схем, например MPSK, часто используется код преобразова-

ния бинарных символов в M-арные, такие, что двоичные последовательности, соответст-

вующие соседним символам (сдвигам фаз), отличаются единственной битовой позицией;

таким образом, при появлении ошибки в М-арном символе высока вероятность того, что ошибочным является только один из k прибывших битов. Кодом, обеспечивающим по-

добное свойство, является код Грея (Gray code); на рис.4.2,б для восьмеричной схемы PSK

представлено распределение битов по символам с использованием кода Грея.

Можно показать, что при использовании кода Грея вероятность ошибки будет сле-

дующей:

Pb

PE

 

(для PE 1) .

(4.29)

 

 

 

log2

M

 

Примеры задач

Пример 4.1. Найдите вероятность появления ошибочного бита в системе, ис-

пользующей схему BPSK и скорость 1 Мбит/с. Принятые сигналы Acos( t) и –Acos( t)

детектируются когерентно с использованием согласованного фильтра. Величина А равна

10 мВ, спектральная плотность шума - 10–11 Вт/Гц.

Решение.

 

 

 

A

 

2Eb

10 2 B ; T

 

1

 

10 6 c ;

 

 

 

 

T

R

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T 5 10 11 и

 

 

 

2E

 

 

E

b

 

 

 

P Q

 

 

b

 

 

Q(3.16) .

 

 

 

 

 

 

 

2

 

 

 

 

b

 

 

 

N0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 4.2. Предположим, что символьная скорость передачи данных - 1000

символов/с. Рассчитайте максимальную разницу в фазах сигналов MPSK для количества сигналов М = 8. Рассчитайте минимальную разницу в частоте несущей для М = 8 ортого-

нальных сигналов когерентной MFSK. Рассчитайте вероятность битовой ошибки для обе-

их схем при условии Eb 9 дБ .

N0

Решение.

В случае фазовой манипуляции сигналы представляют собой синусоиду с разной фазой. Все пространство фаз составляет 2π, следовательно, чтобы равномерно распреде-

лить фазовое пространство между восемью сигналами, на каждый сигнал нужно выделить

2π/M, в нашем случае - 2π/8. Тогда сигналы будут представлять собой

52

s0 (t)

s1(t)

s2 (t)

...

s7 (t)

2E cos 0t 0 ;

T

2E cos 0t 2 ; T 8

 

 

2E

 

 

4

 

 

 

 

cos 0t

 

 

;

T

 

 

 

 

 

8

 

 

 

 

 

 

14

 

 

2E

 

 

 

 

cos 0t

 

 

.

T

 

8

 

 

 

 

 

 

 

В случае частотной манипуляции ортогональность сигналов будет зависеть от сим-

вольной скорости и для когерентной системы разница между частотами будет составлять

1/2Т. В нашем случае (1000 символов/с) период одного символа составляет 0,001 с, следо-

вательно, разница частот должна составлять 500 Гц. Тогда сигналы будут представлять собой

s (t)

 

2E

 

 

cos t ;

 

 

 

 

0

 

 

 

T

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s (t)

2E

 

 

 

cos (

1000 )t ;

 

 

1

 

 

 

T

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s

 

(t)

 

2E

 

cos (

2000 )t ;

2

 

 

 

 

 

 

T

0

 

 

 

 

 

 

 

 

 

 

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s (t)

 

2E

cos (

7000 )t .

 

 

 

7

 

 

 

T

0

 

 

 

 

 

 

 

 

 

 

Вероятность символьной ошибки для 8 PSK

 

 

 

 

 

 

 

2Es

 

P (M ) 2Q

 

 

 

E

 

N0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6Eb

 

 

 

 

sin

 

2Q

 

sin

 

2Q 2.6535 .

 

 

8

 

 

N0

8

 

 

 

 

 

 

 

Далее, предполагая использование кода Грея, вероятность битовой ошибки для

8 PSK составит:

Pb

PE

 

.

log2

 

 

M

Переходя к рассмотрению FSK модуляции,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E

s

 

 

3E

 

7Q 4.88 ;

P (M ) (M 1)Q

 

 

 

7Q

b

 

 

 

 

 

E

 

 

 

 

 

 

N0

 

 

 

 

 

N0

 

 

 

 

Pb PE M 2 4 PE .

M 1 7

53

Контрольные вопросы

1.Что такое полосовая модуляция?

2.Какие методы полосовой модуляции вы знаете?

3.Нарисуйте общую структурную схему корреляционного приемника.

4.Что такое комплексная огибающая?

5.Какова взаимная зависимость вероятностей битовой и символьной ошибки?

6.Что такое код Грея?

54

Глава 5. Теория информации

Теория информации - раздел прикладной математики, определяющий информа-

цию как некоторую измеримую величину, изучающий ее свойства. Основателем теории информации по праву считают Клода Шеннона (1916 - 2001). В основе этой теории лежит вероятностное представление мира. Простейшей единицей измерения информации приня-

то считать бит. Информацией принято считать совокупность сведений о каком-либо со-

бытии, процессе. Сообщение - последовательность символов, в виде которых представле-

на информация. Объект, передающий информацию, - источник. Количество информации

(некоторая мера информации) характеризует степень уменьшения неопределенности представлений принимающей стороны о состоянии источника сообщения после получе-

ния этого сообщения приемником.

5.1. Количество информации

Рассмотрим случай достоверного приема сообщения. Пусть ai - некоторое сооб-

щение. Информация, доставляемая сообщением ai, будет тем больше, чем неожиданнее для получателя оказалось соответствующее состояние источника сообщений. Если по ап-

риорной информации (в общем случае включая информацию, доставленную предыдущи-

ми символами) получателю было достоверно известно, что в момент передачи данного сообщения источник находился в состоянии, характеризуемом сообщением ai, т.е. апри-

орная вероятность этого состояния равна единице, то получение сообщения ai не дает по-

лучателю никакой дополнительной информации. Чем меньше априорная вероятность со-

стояния ai, тем большую информацию вносит получение данного сообщения. В связи с этим можно считать, что количественная мера информации, которую несет сообщение ai,

должна быть функцией априорной вероятности P того, что источник в момент передачи находился в состоянии ai:

log2 P(ai ) .

(5.1)

Если в системе имеет место не одно сообщение, а несколько, их можно задать множеством (алфавитом) ai a1,a2 , ,am , где m - объем алфавита.

Для такой системы справедливо свойство аддитивности:

55

m

 

a1, a2 , , am log2 P(ai ) .

(5.2)

i 1

В реальных системах вероятности P(ai) могут априорно меняться в зависимости от того, что было принято ранее приемником. Такие системы называют каналами с памятью,

в противном случае, когда вероятность при текущем приеме не зависит от предыдущего,

система называется каналом без памяти.

5.2. Энтропия

Для описания источника в целом (а не отдельных его сообщений) используется па-

раметр энтропия. Энтропия характеризует источник сообщений с точки зрения среднего количества информации на сообщение, и рассчитывается как математическое ожидание:

m

 

H Pi log2 Pi .

(5.3)

i 1

Энтропия принимает максимальное значение при равновероятных сообщениях.

m

 

 

 

 

 

H

1

log2

1

m

1

log2 m log2 m .

(5.4)

 

 

 

i 1 m

m

 

m

 

Тем самым энтропию, как и в физике (химии) можно рассматривать как меру не-

упорядоченности (сообщений), максимальную в случае полной неупорядоченности - рав-

новероятности.

Избыточность источника - это избыточность числа символов, используемых дан-

ной системой для передачи некоторого количества информации относительно минимума необходимого их числа:

H A

 

1 log2 m .

(5.5)

Было бы неправильным всегда рассматривать избыточность как признак несовер-

шенства источника сообщений. Так, при передаче текста, когда свойства источника сооб-

щений определяются словарем данного языка, избыточность совершенно необходима для обеспечения удобства заучивания и произношения слов, разборчивости речи, мелодично-

сти языка и т.п. В общем случае передачи информации по каналам связи избыточность является необходимой платой за достоверность в условиях наличия помех.

Рассмотрим возможность появления ошибок. В данном случае даже после получе-

ния сообщения остается возможность ошибки в идентификации сообщения

 

(5.6)

γ H (A) H (A|A ) ,

56

 

где H ( A|A ) представляет собой меру количества информации, теряемой из-за оши-

бок. Это то количество информации, которое мы не получили из-за ненулевой неодно-

значности после получения сообщения. Рассмотрим пример 5.1.

5.3. Пропускная способность

Пропускной способностью канала называется максимально возможная в канале скорость передачи информации.

Для дискретных систем

ddtγ Vk H (B) ,

где Vk - скорость передачи символов; H(B) - энтропия, характеризующая канал и алфавит канала.

Производительностью источника называется скорость поступления информации от источника

ddtγ Vи H ( A) ,

где Vи - скорость передачи символов источника; H(А) - энтропия, характеризующая источник и алфавит источника.

Максимальная скорость передачи информации достигается только в случае макси-

мальной энтропии, т.е. при использовании равновероятных сообщений:

Сk Vk log2 m .

(5.7)

Рассмотрим теорему Шеннона (для дискретного канала без помех). Если макси-

мальная пропускная способность дискретного канала без помех превышает производи-

тельность источника, т.е.

Vk log2 m VиH (A) ,

то существует способ кодирования и декодирования сообщений источника с энтро-

пией H ( A) , обеспечивающий сколь угодно высокую надежность отождествления приня-

тых комбинаций с действительно переданными. В противном случае способа передачи без ошибок нет.

Теорема Шеннона (для дискретного канала с помехами) изменяется до вида

Vk log2 m H B|B VиH (A) ,

где учитываются потери пропускной способности в результате неоднозначности идентификации сообщений, описанной выше.

57

Для непрерывного (аналогового) канала связи пропускная способность канала оце-

нивается по широко известной формуле Шеннона, описывающей зависимость пропускной способности от ширины доступной полосы и отношения мощностей сигнала и шума:

C

 

F log

 

 

 

k

2

1

 

 

 

 

 

 

 

 

 

 

P

 

 

 

с

 

F log

1

 

 

 

 

 

2

 

Pш

 

 

 

Pc

 

 

 

 

 

,

(5.8)

 

F N0

 

 

 

 

где F - рабочая полоса частот; N0 - спектральная плотность мощности шума.

Примеры задач

Пример 5.1. В кувшине 8 шаров: 4 белых, 2 красных, 2 зеленых.

1)Какое количество информации вы получите, если достанете белый шар?

2)Какое количество информации вы получите, если достанете зеленый шар?

3)Какое количество информации приходится в среднем на любой шар?

4)Какое количество информации приходилось бы в среднем на любой шар, если бы они все были разного цвета?

5)Какое количество информации вы получите, вытащив зеленый шар, если вы дальтоник и не различаете цвета (белый от цветного отличить можно)?

Решение.

1) Вероятность достать белый шар 4/8 = 1/2, следовательно, количество информа-

ции будет равно

log2

 

1

 

log2 (2)

1[бит] .

 

 

 

2

 

 

 

 

 

2) По аналогии с п. 1 вероятность зеленого шара 2/8 = 1/4, количество информации

2 бита.

3) В среднем для источника на одно сообщение приходится

 

4

 

4

 

2

 

2

 

2

 

2

1,5 бит .

 

 

log2

 

 

 

 

 

log2

 

 

 

 

 

log2

 

 

 

 

 

 

 

 

 

 

8

 

8

 

8

 

8

 

8

 

8

 

Обратите внимание, что в задачах на количество информации биты могут быть дробными, поскольку это не конкретное количество двоичных единиц, а некая численная характеристика системы.

4) В случае, если все шары разноцветные, т.е. для равновероятных событий (сооб-

щений), энтропия составляет

 

1

 

 

1

 

3 бит .

8

 

log2

 

 

 

8

8

 

 

 

 

 

58

5) В случае, если невозможно однозначно идентифицировать полученное сообще-

ние, возникает неоднозначность, которая показывает, что мы получили меньше информа-

ции, чем могло содержаться в сообщении при его однозначной идентификации. По усло-

виям задачи полученный зеленый шар отличается от белого, после получения сообщения

остается вероятность

1

, что это зеленый или синий шар. Значит потери информации со-

2

 

 

 

 

 

 

 

 

ставляют

 

 

 

 

 

 

 

 

 

 

 

 

 

1

1 бит .

 

 

log2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

При однозначной идентификации зеленый шар принес бы

 

 

log

 

2

2 бит ,

 

 

 

 

 

 

 

 

 

 

 

 

2

 

8

 

а в случае зеленого шара, без возможности различать цвета, полученное количество информации составляет

 

 

2

 

 

1

 

1 бит .

log2

 

 

 

log2

 

 

 

 

2

 

 

8

 

 

 

 

Мы получили столько информации, что при идентификации можем отбросить все белые шары, 4 из 8

log2

 

4

 

1 бит .

 

 

 

8

 

 

 

 

Пример 5.2. Определите: 1) какое количество информации можно получить,

бросив игральную кость 3 раза? 2) только четность выпавшего числа; 3) сколько инфор-

мации "потеряется" для каждого из бросков, если учитывать только четность, но не значе-

ние?

Решение.

1)Для трех бросков игральной кости, пользуясь свойством аддитивности:

Υlog2 16 3 7,75 бит .

2)Если учитывать только четность выпавших чисел:

Υ(log2 0,5 3) 3 бит .

3)Для каждого броска "потеряется":

 

1

 

 

 

1,6 бит .

log

 

 

log

 

0,5

2 6

2

 

 

 

 

Пример 5.3. Пусть в канал связи с шириной полосы F1 внесли такие изменения,

что при старой пропускной способности ширина полосы увеличилась в 2 раза. Как при этом изменилось соотношение сигнал/шум?

59

Решение.

Приравняем пропускные способности до и после изменения с учетом изменивших-

ся параметров:

 

 

 

 

P

 

 

 

 

 

 

 

 

P

 

 

 

 

 

 

 

 

c

 

 

 

 

 

 

 

 

 

 

 

с

 

 

 

;

F1 log2 1

 

 

 

 

 

2 F1 log2 1

 

 

 

 

 

 

 

 

 

Pш 1

 

 

 

 

 

 

 

 

Pш 2

 

 

 

 

 

 

P

 

 

 

 

 

P

 

 

2

 

 

 

 

log

 

1

c

 

 

log

 

1

 

с

 

 

;

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pш 1

 

 

 

 

 

Pш 2

 

 

 

 

 

 

 

 

 

1

 

 

P

 

 

2

1

 

c

 

 

 

 

 

 

 

 

 

 

Pш 1

 

 

 

 

P

 

 

 

 

 

 

с

 

 

;

1

 

 

 

 

 

 

 

Pш 2

 

 

 

 

 

 

1

 

 

 

 

 

P

 

2

 

P

 

 

 

c

 

 

 

с

 

 

 

1

 

 

 

 

1

 

.

 

 

Pш 1

 

 

Pш 2

Пример 5.4. Вычислите избыточность фокусника, если он достает из шляпы кро-

лика с вероятностью 0,125, ленту и шарик с одинаковой вероятностью 0,0625, кошелек одного из зрителей с вероятностью 0,5, и букет цветов с вероятностью 0,25.

Решение.

Прежде чем вычислять избыточность, необходимо подсчитать энтропию (формула

(5.3)):

5

HPi log2 Pi

i1

 

1

 

1

 

1

 

1

 

 

1

 

1

 

1

 

1

 

 

 

 

log2

 

2

 

log2

 

 

 

 

 

log2

 

 

 

log2

 

 

 

8

8

16

16

2

2

4

4

 

 

 

 

 

 

 

 

 

 

83 12 12 12 158 1,875;

Нmax log2 5 2,322.

Тогда избыточность 1

H A

1

1,875

 

0,193.

log2 m

2,322

60

Соседние файлы в предмете Основы цифровой радиосвязи