Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы дальней связи

..pdf
Скачиваний:
4
Добавлен:
12.11.2023
Размер:
2.63 Mб
Скачать

МИНИСТЕРСТВО ВЫСШЕГО И СРЕДНЕГО СПЕЦИАЛЬНОГО ОБРАЗОВАНИЯ РСФСР

ПЕ Н ЗЕ Н С К И Й П О ЛИ ТЕХ Н И ЧЕСК И Й И Н СТИ ТУ Т

Кафедра «Электромеханическая аппаратура связи»

Ю.В. МАРТЫНОВ, Б. В. ПОСПЕЛОВ, А. В. ГРУШЕНКОВ

О С Н О В Ы Д А Л Ь Н Е Й с в я з и

Учебное пособие Части 1 и 2

ПЕНЗА 1973

Рассматриваются основные информационно-техниче­ ские показатели систем дальней связи (производитель­ ность источника, скорость передачи информации, досто­ верность, помехоустойчивость, пропускная способность каналов связи) и физические процессы, происходящие в трактах передачи электрических сигналов связи. При­ водятся важнейшие характеристики каналов связи, оп­ ределяющие качество передачи информации. Основное внимание уделено каналам связи, предназначенным для передачи данных. Табл. 7, ил. 6, библ. 30 иазв.

Пензенский политехнический институт, 1973 г.

©

П р е д и с л о в и е

Курс «Основы дальней связи» является базовой дисципли­ ной ряда специальностей, в том числе специально£ти «Элек­ тромеханическая аппаратура связи».

Всвязи с широким внедрением во всех сферах народного хозяйства систем автоматизации и механизации производст­ венных процессов, автоматизированных систем сбора, хране­ ния и переработки информации, автоматизированных систем управления,.растет поток информации, передаваемой по кана­ лам дальней связи. Наиболее интенсивно развиваются систе­ мы передачи дискретной информации. Поэтому стандартные каналы магистральных линий связи должны обеспечивать пе­ редачу «данных» со скоростью более 1200 бод и высокой до­ стоверностью. Факторы, определяющие качественные харак­ теристики каналов связи, в этом случае имеют статистический характер.

Вимеющихся учебниках и пособиях по курсу «Дальней связи» [1], [9] процессы передачи информации по каналам трактуются как детерминированные. При этом рассматрива­ ется только каналы проводных линий связи, хотя в современ­ ных разветвленных сетях связи, наряду с проводнймн кана­ лами, используются радиоканалуПоэтому возникла необхо­ димость в создании такого учебного пособия, где с единых методологических позиций рассматриваются процессы переда­

чи информации по проводным каналам и радиоканалам, об­ общаются сведения по статистическим характеристикам кана­ лов различных категорий многоканальных систем связи.

В первой части пособия рассмотрены основные информа­ ционно-технические показатели систем дальней связи: произ­ водительность источника, скорость передачи информации, до­ стоверность, помехоустойчивость и пропускная способность

каналов связи. Кроме того, приведены фундаментальные тео­ ремы К. Шеннона о кодировании.

Во второй части содержатся сведения 6 статистических ха­ рактеристиках стандартных телефонных каналов связи маги­ стральных проводных линий и радиолиний. В пособии исполь­ зованы сведения, содержащиеся в многочисленных статьях и других публикациях отечественных и зарубежных ученых, а также результаты исследований, выполненных авторами.

Ч А С Т Ь ПЕРВА Я

Г л а в а I

ОСНОВНЫЕ ИНФОРМАЦИОННО­ ТЕХНИЧЕСКИЕ ПОКАЗАТЕЛИ СИСТЕМ ДА ЛЬН ЕЙ СВЯЗИ

§I. 1. источники ИНФОРМАЦИИ

ИИХ ХАРАКТЕРИСТИКИ

Классификация источников. В соответствии с типом сооб­ щения источники подразделяются на 2 класса: непрерывные и дискретные. Примером непрерывного источника является речеобразующий аппарат человека, генерирующий последо­ вательность звуковых волн, являющуюся непрерывной функ­ цией времени. Примером дискретного источника может слу­ жить комбинация отверстий на перфоленте или пространст­ венная комбинация рычагов клавиатурного механизма теле­ графного аппарата.

По характеру работы различают источники с памятью и источники без памяти. В первом случае количество информа­ ции, выдаваемое источником за определенное время, может меняться. Это имеет место, например, в запоминающем уст­ ройстве, выдающем информацию по запросу. Во втором случае количество информации, выдаваемое за определенное время, остается постоянным. Это имеет место, например, в устройст­ вах магнитной записи — воспроизведения.

Континуум, или счетное множество различных символов, из которых выбирается тот или иной элемент сообщения, на­ зывается алфавитом источника. Символы алфавита могут быть равновероятными и неравновероятными.

Наконец, различают источники с коррелированным и не­ коррелированным алфавитом.

Производительность источника. Любой источник характе­ ризуется количеством информации, которое он способен выда­ вать в единицу времени. Предположим, что за время Т дис­ кретный источник генерирует п элементов, каждый из которых является случайной выборкой из L символов алфавита этого источника. Так как каждый элемент несет Н дв. ед. инфор-

мации, то всего за время

Т источник выдаст Н п= п - Н дв.ед.

информации. Тогда в единицу времени

источник генерирует

.. _

Нп __ Н ____п

loS2^*_

iogaNe

дв. ед. информации.

Uri.u—

-р —“il j —г*

J

y

(11 1 )

где N t — число равновероятных сообщений.

Эта величина называется производительностью дискретного источника. Если все символы алфавита равновероятны, а последовательные элементы сообщения независимы, то такой источник будет иметь максимальную производитель­ ность

° b L-

<u -2>

Пользуясь понятием дифференциальной энтропии, можно определить производительность непрерывного источника

vnMe= A F - lo g 2^ - ,

(1.1.3)

где е — точность воспроизведения передаваемого сообще­ ния в единичном интервале времени;

Р с—о2 — мощность сообщения источника; N t — мощность шумов источника.

§ 1.2. СКОРОСТЬ ПЕРЕДАЧИ ИНФОРМАЦИИ

Поскольку любой сигнал является изоморфным отображе­ нием сообщения, алфавит линейных сигналов на выходе пере­ дающей системы может быть представлен в виде

,и ] = K M

;

W

) - и Л*)

I m

w

i ;

P [U 2(t)\ ... P [U L(t)}

В частности, для бинарных сигналов

Ш Л О ;

U2(t)

i m w

i ; p [ u m

где U lit) — единичная посылка; U2{t) — нулевая посылка.

а

По аналогии с понятием энтропии источника и сообщения можно ввести понятие энтропии алфавита сигналов и самих сигналов. В частности, энтропия алфавита передаваемых сиг­ налов

H (U )= r~ V P \U t(t)) log2P [£ /,(0],

(1.2.1)

/ -1

 

 

причем

 

 

H (U )max =

\og,L .

(1.2.2)

Точно так же, энтропия любого

из передаваемых

сигналов

из п элементарных независимых посылок, составляющих высо­

ковероятную группу,

будет равна

 

 

 

H„(U) =

n-H (U ),

(1.2.3)

На

входе приемной

системы

 

алфавитвыходных

линейных

сигналов

 

 

 

 

 

/ _ \ u \{ t ) -

U2 {t) . . .

U\{t)

 

 

т

т ; «

)

1 ... p w ', . m

 

или

для бинарных сигналов

 

 

 

 

_

( ц (0;

 

U'a (t)

 

 

{ U ) ~ \P [ lS i« ) ) i р \и 2 « )

 

Тогда энтропия алфавита принимаемых сигналов

 

 

 

•(t )] logt P[U ', (0 ].

(1.2.4)

 

 

i=1

 

 

 

если символы

алфавита независимы и неравновероятны.

 

Энтропия любого принимаемого сигнала из п независимых

элементарных

посылок, входящего

в высоковероятную группу,

 

H lU ') = n H

{ U ').

(1.2.5)

При наблюдении сигнала U ' априорная энтропия передавае­ мого сигнала U может уменьшиться до апостериорной

H n(U /U ')= n H (U /U '),

(1.2.6)

Ulit)

u,(t) (1.2.7)

Тогда количество переданной информации

I(U ; U ')= H n( U ) - H n(U ;U ').

(1.2.8)

При отсутствии помех в канале, когда величина апостериор­ ной внтропии H n(U /U ') = 0, будет передано максимальное количество информации

 

KU; U % iX=H „(U ),

(1.2.9)

равное энтропии

передаваемого сигнала.

 

При наличии интенсивных помех сигналы U и U ' становят­

ся статистически

независимыми, т. е.

H n(U lU ’)-*H n(U), ri

количество переданной информации будет стремиться к нулю. Если Передаваемый сигнал имеет длительность Т, то коли­

чество информации, переданной в единицу времени

 

_

/{U; U')

дв.ед.

(1.2.10)

V“~

Т

сек '

 

будет называться скоростью передачи дискретной информа­ ции.

Принимая во внимание выражения (1.2.3) и (1.2.6), по­ лучим

ve= 4 m U )-H { U > U > )\.

(1.2.11)

При отсутствии помех в канале

* « = 4 н м >

0-2.12)

причем, если все символы алфавита сигналов равновероятны, то в соответствии с (1.2.2)

Щ. = ‘0« т « = 4 ,°в2*-

(1-2.13)

При наличии интенсивных помех в канале скорость передачи информации будет стремиться к нулю, что следует из выра­ жения (1.2.11) при

Предположим теперь, что каждый сигнал непрерывного источника является реализацией случайного процесса с огра­ ниченным спектром. Поэтому за время Т он описывается (n ~ 2 T - fcp) дискретными отсчетами. Можно считать, что дан­ ный сигнал дискретен во времени и непрерывен лишь по информационному параметру. Опираясь на меру количества

информации

в одной

непрерывной случайной величине от­

носительно

другой,

можно определить

скорость

передачи

информации

по каналу, в

котором

входной, a Ü}(t)—

выходной

элементарные сигналы как

 

 

 

хЧ ^ Н

т

2 frp± -

 

U '(t) \ X

 

 

 

 

 

 

2 п

 

 

 

x l0 8 ! ^

i

W

i rfP |ü (< l|rfp |t/,< ' )1'

<l-2 ' 4)

где

=

 

Ut(t) ...

Un(t)I

 

 

U '(t) =

[Ux(t)\

U2 (t)

... Un (t)\ —

последовательность

«дискретных отсчетов

входного и выходного сигналов. Нели

отсчеты независимы,

то

 

 

** .=

 

I

w;(OI

X

 

!р [ и л о № ; л ]

 

 

 

 

х

а

Р

т т а Щ ю 1,

(1.2.15)

где U,(t) и U. (t) — входной и соответствующий ему вы­ ходной отсчеты.

§ 1.3. ДОСТОВЕРНОСТЬ ПРИЕМА ИНФОРМАЦИИ

Достоверностью системы связи называется ее способность обеспечивать соответствие принятых сообщений переданным. Иногда ее называют информационной надежностью связи. Наиболее общим показателем достоверности является вероят­ ность ошибки, т. е. вероятность перехода передаваемого сиг­ нала под действием помех в канале в любой другой в преде­ лах данного алфавита.

Если объем входного и выходного алфавита сигналов оди­ наков, то канал с ошибками можно описать следующей матрицей:

(1.3.1)

Очевидно, что-для любого U ,(t) сумма

(1.3.2)

поскольку трансформация переданного символа U/(t) во все символы алфавита {U'\ представляет собой полную группу событий.

Для указанных каналов условная вероятность

 

т

1—Р 0

при

i —j

Р

1

при

(1.3.3)

и м

\

 

i f j ,

где Р 0 — вероятность

ошибки.

Такие? каналы получили

название симметричных.

игП )

Наиболее полно изучены свойства двоичных ных каналов, для которых матрица имеет вид

М к= f ( l - P o )

Ро

I Ро

(1 - Р о )

симметрич­

(1.3.4)

Двоичный симметричный канал изображается графом, приве­ денным на рис. 1.

Следует отметить, что реальные каналы чаще всего несим­ метричны,

ю