Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
404.doc
Скачиваний:
75
Добавлен:
30.04.2022
Размер:
4.02 Mб
Скачать
    1. Количество и характер информации

Информация, выдаваемая различными РТС, имеет разное содержание и смысл. Вместе с тем полезно иметь меру количества информации и скорости ее поступления, не зависящие от смыслового содержания. В простейшем случае информация может состоять в сообщении о том, что наблюдается одно из двух равновероятных неизвестных состояний или произошло одно из двух равновероятных случайных событий. Это сообщение обладает минимальным количеством информации, которое называется бит. Бит представляется одной из двух цифр (1 или 0) (двоичной системы счисления), причем вероятности Р(0)=Р(1)=0,5. Если событий много, например l, и они наступают с разной вероятностью, то вероятность появления одного из этих событий будет . Очевидно, что количество информации, содержащейся в сообщении о наступлении того или иного события, зависит от вероятности его появления . Если , то количество информации в сообщении об этом событии будет мало. Если , т. е. событие происходит редко, то сообщение о том, что оно наступило, содержит много информации. Количество информации I о событии принято выражать через . Поскольку события разные, с разными вероятностями и с разным количеством информации о каждом из них, то для определения энтропии источника сообщений Н, т. е. ко­личества информации (в битах), содержащейся в единичном сообщении о наступлении одного из событий или передаче одного из символов, нужно найти математическое ожидание количества информации о каждом из событий или провести усреднение с учетом , при этом получим: . При двух символах (событиях) =2, имеющих одинаковую вероятность получим бит, что согласуется с приведенным выше определением количества информации в 1 бит. При l равновероятных событиях . При последовательной передаче т сообщений количество информации будет .

Удобство логарифмической меры количества информации в том, что при передаче последовательности из сообщений о равновероятных событиях, т. е. при передаче символов или слова, содержащего символов (букв), общее число возможных сочетаний (событий) в таком слове (последовательности) составляет . Найдем количество информации в сообщении из символов: . При =2, . Следовательно, количество информации, содержащейся в слове, пропорционально его длине, что согласуется с интуитивными представлениями. При этом скорость поступления информации бит/с, составляет — длительность сигнала, передающего единичное сообщение.

При различной вероятности состояний выражение усложняется, вводится понятие «производительности источника информации». Такой характер носит информация в виде буквенного или цифрового текста, т. е. содержащая последовательность различных или различимых символов (в системах передачи информации), а также сведения о наличии или отсутствии целей в определенных конечных элементах пространства (в радиолокации).

В более сложных случаях информация состоит в сообщении о том, что неизвестная (случайная величина приняла какое-то конкретное значение S. Количество информации в таком сообщении также должно усредненно характеризовать совокупность значений. Тогда можно получить , где — область возможных равновероятных значений , — интервал или дискрет значений S, характеризующий детальность, с которой достаточно оценивать это значение.

При неравной вероятности распределения значений S выражения усложняются. Такой характер носит информация, например, в телеметрических системах передачи информации, когда передаются сообщения о температуре, давлении и т. п., в радиолокации, когда определяется угловая координата цели или дальность до нее.

В общем случае информация характеризует изменения состояния объекта или процесса во временя или, другими словами, конкретный вид реализации случайного процесса (случайной функции) S(t).

Количество информации , бит, содержащееся в таких сообщениях за время t, усредненно оценивает информацию, содержащуюся в совокупности реализации, и равно

(102)

При этом полагаем, что отсчеты берутся через интервалы .

Скорость поступления информации , бит/с, равна , где — высшая частота спектра сообщения; — интервал корреляции случайного процесса, отображающего сообщение.

На практике такой характер имеет информация, например, при передаче речи, при непрерывном измерении угловой координаты цели и т. п. В некоторых случаях информация может отображаться не одним, а несколькими случайными процессами. Например, информация о пространственном положении и движении отображается несколькими пространственными координатами.

Еще более сложным является сообщение, когда оно должно характеризовать изменения и в пространстве, и во времени. Типичным примером такого сообщения является телевизионное (ТВ) изображение. Информация, характеризующаяся случайными процессами и несколькими пространственными координатами, как правило, подвергается преобразованию. Основной смысл этого преобразования состоит в выполнении операции обзора или развертки. При этом за интервал времени, в течение которого изменениями значений сообщений во времени можно пренебречь, осуществляется последовательное (во времени) извлечение сведений о состоянии (значениях) в разных точках пространства.

В результате информация отображается случайным процессом, свойства которого определяются как изменением состояния во времени в каждой точке пространства, так и изменением состояния при изменении координат. Например, ТВ изображение за время, в течение которого его изменение не воспринимается глазом (примерно 0,05 с), передается с помощью развертки, которая последовательно по строкам пробегает все точки изображения. В результате этого формируется случайный процесс, отображающая движущееся изображение. Аналогично преобразуется информация в обзорных радиолокаторах (РЛС).

Таким образом, информация, выдаваемая РТС, может быть оценена на основе теории информации по количеству и по скорости.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]