- •1. Передача информации между двумя оконечными устройствами. Тип соединения оконечных устройств
- •2. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •5. Форматирование информации. Форматирование текстовых данных. Существующие стандарты.
- •6. Передача сообщений по каналу, искажения, краевые искажения, дробление
- •9. Дискретизация по методу «выборка-хранение».
- •10. Сигнал, как реализация процесса. Классификация процессов.
- •11. Детерминированные процессы. Гармонические и переходные непериодические процессы.
- •12. Полигармонические и непериодические процессы их спектральные характеристики.
- •13. Определение случайного процесса. Непрерывные и дискретные случайные процессы.
- •14. Измерение случайных процессов.
- •15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
- •16.Законы распределения и основные характеристики случайных процессов
- •17. Автокорреляционная функция случайного процесса. Примеры автокорр. Функций.
- •18. Взаимная корреляционная функция случайных процессов. Примеры применения корреляционных характеристик.
- •19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных процессов.
- •20. Стационарные и нестационарные случайные процессы. Стационарность в широком и узком смыслах. (2 стр)
- •21. Количество информации. Формула Хартли.
- •22. Формула Шеннона.
- •23. Энтропия источника сообщений. Свойства энтропии источника дискретных сообщений
- •24. Избыточность при передаче сообщений. Роль избыточности при передаче информации
- •25. Математические модели сигналов. Спектральное представление сигналов.
- •26. Ряд Фурье по произвольной ортогональной системе функций.
- •27. Ряд Фурье по основной тригонометрической системе функций.
- •28. Разложение периодических функций в ряд Фурье. Спектр амплитуд и спектр фаз.
- •29. Ряд Фурье в комплексной форме. Спектр фаз и спектр амплитуд.
- •30. Спектр мощности сигнала. Практическая ширина спектра. Равенство Парсеваля. (3 стр!!!)
- •31. Спектральные характеристики непериодического сигнала. Прямое и обратное преобразования Фурье.
- •32. Оценивание спектральной плотности с помощью дпф
- •33. Дискретное преобразование Фурье (дпф). Гармонический анализ.
- •34. Примеры ортогональных базисов. Функции Уолша.
- •35. Модуляция. Зачем она нужна
- •36. Спектр ам сигнала. Ширина полосы.
- •38. Амплитудная модуляция.
- •41. Угловая модуляция
- •42. Частотная модуляция.
- •43. Спектр колебаний с угловой модуляцией
- •44. Сравнение методов амплитудной и угловой модуляций
- •45. Шумы. Тепловой шум. Представление тепловых шумов. Мощность шума. Распределение тепловых шумов.
- •49. Спектральные характеристики случайных процессов.
- •50. Коды, применяемые в информационных системах. Преобразование кодов.
- •51.Исправляющие или корректирующие коды.
- •52. Кодирование источников без памяти: Код Хаффмана.
- •53. Кодирование источников без памяти: Код Шеннона-Фано
- •Оглавление
14. Измерение случайных процессов.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной или нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс, набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случ. процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию, среднеквадрат. отклонение, закон распред-я:
1) Среднее значение квадрата:
2) Мат. ожидание:
, - среднее значение процесса.
3) Дисперсия
Мат. ожидание и дисперсия в дискретном виде:
4) Ф-ция распределения (и её вывод)
- ф-ция распределения
Если предел сущ., то он наз. функцией плотности распределения или одномер. законом распределения. Она обладает теми же свойствами:
, где F(x) – оригинал.
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены осреднением по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем по времени.
15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
1) Среднее значение квадрата:
2) Мат. ожидание:
, - среднее значение процесса.
3) Дисперсия
Мат. ожидание и дисперсия в дискретном виде:
4) Ф-ция распределения (и её вывод)
- ф-ция распределения
Если предел сущ., то он наз. функцией плотности распределения или одномер. законом распределения. Она обладает теми же свойствами:
, где F(x) – оригинал.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной или нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс, набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случ. процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию, среднеквадрат. отклонение, закон распред-я:
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены осреднением по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем по времени.
16.Законы распределения и основные характеристики случайных процессов
Сечение с.п. X(t) при любом фиксированном значении аргумента t представляет собой случайную величину, которая имеет закон распределения
F(t,x) = P{X(t) < x} (1)
Эта функция зависит от двух аргументов: во-первых, от значения t, для которого берется сечение; во вторых, от значения х, меньше которого должна быть с.в. X(t) (Рис.4.). Функция (1) называется одномерным законом распределения.
Рис.4.
Представим себе два случайных процесса с одинаковым распределением в каждом сечении, но совершенно различных по своей структуре. Первый представлен совокупностью своих реализаций на рис.5, второй – на рис.6. Первый процесс имеет плавный характер, второй – более резкий, «нервный». Для первого процесса характерна более тесная зависимость между сечениями с.п.; для второго эта зависимость затухает довольно быстро с увеличением расстояния между сечениями.
Рис.5.
Рис.6.
Очевидно, одномерный закон не может служить полной, исчерпывающей характеристикой с.п. X(t).
Одномерная функция распределения вероятностей F(x, ti) определяет вероятность того, что в момент времени ti значение случайной величины X(ti) не превысит значения x:
F(x, ti) = P{X(ti)≤x}.
Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-,t)=0 и F(,t)=1. При известной функции F(x,t) вероятность того, что значение X(ti) в выборках будет попадать в определенный интервал значений [a, b] определяется выражением:
P{a<X(ti)≤b} = F(b, ti) – F(a, ti).