- •1. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •2. Функциональная система цифровой системы связи.
- •3. Преимущества и недостатки цифровой связи
- •4.Четырехуровневая коммуникационная система
- •5. Эталонная модель (osi): стек протоколов
- •6. Уровни модели взаимодействия открытых систем osi
- •Блочная диаграмма типичной системы цифровой связи от источника к передатчику
- •Блочная диаграмма типичной системы цифровой связи от приемника к потребителю информации
- •9. Отображение цифрового сигнала в виде аналоговой функции времени
- •10. Сигнал как реализация процесса. Классификация процессов
- •12. Полигармонические и почти периодические процессы
- •13. Определение случайного процесса
- •14. Процесс стационарный в широком смысле
- •15. Процесс стационарный в узком смысле
- •16. Случайные эргодические процессы, гауссов процесс
- •17. Процессы авторегрессии
- •18. Ковариационная и корреляционная матрицы случайного процесса, автоковариационная и автокорреляционная функции
- •19. Оценивание ковариационной и корреляционной матриц случайного процесса и автоковариационной и автокорреляционной функций
- •20. Случайные нестационарные процессы, характеристики случайных процессов
- •21. Классификация шумов в системах связи.
- •22. Определение спектральной плотности мощности. Теорема Винера-Хинчина.
- •23. Непрерывное преобразования Фурье
- •24. Финитное преобразование Фурье
- •25. Дискретное преобразование Фурье (дпф).
- •26. Свойства дпф.
- •27. Оценивание спектральной плотности с помощью дпф
- •28. Модель белого шума.
- •29. Линейные системы с постоянными параметрами.
- •Характеристики линейных систем с постоянными параметрами.
- •31. Последовательное включение систем с постоянными параметрами.
- •32. Связь спектральных плотностей входного и выходного процессов линейной системы с постоянными параметрами.
- •3 5. Узкополосные и широкополосные сигналы.
- •36. Критерии определения ширины полосы.
- •Форматирование текстовой информации в системах dcs.
- •38. Теорема о дискретном представлении. Критерий Найквиста. Инженерный критерий Найквиста.
- •Дискретизация с помощью идеальных единичных импульсов (идеальная дискретизация).
- •Естественная дискретизация.
- •41.Дискретизация по методу «выборка-хранение».
- •42.Квантование амплитуды и характеристики.
- •45.Шум квантования.
- •46.Импульсно кодовая модуляция квантованных выборок аналогового сигнала.
- •47.Кодирование источников определения.
- •48.Дискретные источники и их характеристики.
- •49.Типы дискретных источников.
- •50.Свойства кодов.
- •51. Показатели кодирования
- •52. Кодирование источников без памяти: код шеннона-фано
- •54. Кодирование источников с памятью: методы подавления нулей и групповое кодирование
- •55. Кодирование источников с памятью: методы подстановки образцов и дифференциальное сжатие
- •56. Униполярные и биполярные сигналы pcm
- •57. Сигналы рсм в кодировке nrz (nrz-l, nrz-m, nrz-s)
- •58. Кодировки nrz-ami и rz-ami
- •59. Фазовое кодирование
- •60. Кодирование модуляцией задержки
- •61. Многоуровневое кодирование рсм. Достоинства и недостатки
- •62. Искажение сигналов шумом awgn
- •63. Межсимвольная интерференция
- •64. Обобщенная схема передачи узкополосного сигнала
- •65. Основные этапы демодуляции/обнаружения
- •68. Униполярная передача двоичных сигналов
- •69. Биполярная передача двоичных сигналов
- •70. Эквивалентная модель системы dcs
- •71. Импульсы Найквиста
- •72. Компенсация искажений с помощью выравнивания
- •73. Виды выравнивания и типы эквалайзеров.
- •74. Дискретный канал без памяти
- •75. Теорема кодирования канала
- •76. Теорема о пропускной способности канала
- •Зачем нужна широкополосная модуляция?
- •78, 79. Амплитудная и частотная модуляция (ask и fsk)
- •80. Частотная манипуляция и бинарная частотная манипуляция
- •81. Бинарная фазовая манипуляция, квадратурная фазовая манипуляция
- •82. Амплитудно-фазовая манипуляция (арк)
- •83. Определение полосовой демодуляции и ее виды
- •84. Ресурс связи и способы его распределения
- •85. Сигналы, ортогональные во времени и по частоте
- •86. Уплотнение/множественный доступ с частотным разделением
- •87. Множественный доступ с временным разделением
73. Виды выравнивания и типы эквалайзеров.
Два возможных способа избавления от ISI:
идеальная синхронизация моментов выборок из принятого сигнала когда соседние искаж. импульсы равны 0;
подстройка (согласование) передаточных характеристик приёмника и передатчика с одновременной подстройкой хар-ки эквалайзера.
Эквалайзеры бывают 2-х категорий:
эквалайзеры, предусм. фильтрацию, освоб. сигнал от ISI;
эквалайзеры, работающие с искажёнными выборками;
Эквалайзеры 2-й группы называют схемами с оценкой послед-ти макс. правдоподобия. Они не выполняют выравнивания, но подстраиваются к искаж. выборкам так, чтобы детектор мог оценивать числ. значения сигналов с мин. вероятностью ошибки.
Эквалайзеры, использующие фильтрацию, работают так: вначале принятые сигналы выравниваются с пом. фильтра, а затем очищенные от ISI сигналы поступают на детектор.
Фильтры-эквалайзеры могут быть линейными фильтрами или нелинейными. Они также делятся по категориям используемых алгоритмов: фильтры с постоянными мар-ми и адаптивные фильтры. В первом случае алгоритм не изменяется, а во втором фильтр подстраивает свои параметры под изменяющуюся линию передачи.
74. Дискретный канал без памяти
На входе канала мы имеем сигнал (Х), а на выходе (Y). Допустим, что:
А = {x1*, x2*…, xm*} - алфавит источника.
В = {у1*, у2*…, ук*} – алфавит приёмника.
X и Y – интерпретируются как случайные величины. Обычно вероятностное распределение источника известно (вер-ти появления символов алфавита А).
Обозначим р(ук*/хм*) – вероятность того, что на выходе канала будет наблюдаться символ ук* при условии, что на его вход поступил символ хм*, т.е.
р(ук*/хм*) = Prob [Y= ук*|X=хм*]
Мно-во таких вер-тей образуют матрицу канала:
р(у1*/х1*) … р(ук*/х1*)
P = р(у1*/х2*) … р(ук*/х2*)
…………………….
р(ук*/хм*) … р(ук*/хм*)
Дискр. канал задан, если задана его матрица. Вер-ти, образующие матрицу канала наз. вер-тями переходов. Каждая строка матрицы соответствует фиксир. вход. символу, а столбец – фиксир. вых. символу. При двоич. Передачи используют модель бинарного символьного канала. Для этой модели задаётся вер-ть ошибки р, тогда для матрицы
р = 1-р 1
р 1-р
Если вер-ти переходов не изменяются во времени и не зависят от ранее перед. Символов, то дискрет. канал наз. каналом без памяти.
Важной хар-кой дискр. канала явл. пропуск. способность (С). Она определяется как среднее взаимная информация между приёмником и передатчиком в любой момент времени. Для канала BSK
С = 1 + р*log2p + (1 - р)*log2(1- р)
Если р=0, то С=1; р=0.5, то С=0
75. Теорема кодирования канала
Пусть источник, возд-ий на вход канала, обладает энтропией Н(S). Пусть источник генерирует символы каждые ts секунд. Пусть эти символы передаются по дискрет. каналу из памяти каждые tс секунд, а сам канал имеет пропуск. способ. С.
Шеннон доказал, что можно построить канальный код с бесконечно малой вер-тью ошибки, если выполняется след. условие:
Н(S)/ Тs <= C/ Тс
Если оно не выполняется, то построить код с произв. малой вероятностью ошибки невозможно. Макс. энтропия двоич. источника =1.
log2(Ms)=1
Тогда ур-ие Шеннона преобр. к виду:
1/ Тs <= C/ Тс или Тс/ Тs <= С