Главная > Теория передачи сигналов
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

2.9. ВЗАИМНАЯ ИНФОРМАЦИЯ

Энтропия ансамбля характеризует среднее количество полной информации, содержащейся в сообщении. Определим теперь информацию, содержащуюся в одном ансамбле относительно другого, например в принятом сигнале относительно переданного сообщения. Для этого рассмотрим объединение двух дискретных ансамблей, вообще говоря, зависимых. Его можно интерпретировать как пару ансамблей сообщений, либо как ансамбли сообщения и сигнала, с помощью которого сообщение передается, либо как ансамбли сигналов на входе и выходе канала связи и т. д. Пусть совместная вероятность реализаций а и Совместной энтропией ансамблей будем называть

Введем также понятие условной энтропии

где условная вероятность если имеет место здесь математические ожидания берутся по объединенному ансамблю В частности, для источников без памяти

Из теоремы умножения вероятностей следует, что

Для условной энтропии справедливо двойное неравенство

При этом равенство как видно из (2.131), имеет место в том случае, когда при каждом значении условная вероятность одной реализации а для всех остальных реализаций Это означает, что, зная реализацию В, можно точно установить реализацию А. Другими словами, В содержит полную информацию об А.

Другой крайний случай, когда имеет место, если при всех а и Последнее равенство означает, что события независимы. В этом случае знание реали-, Зации В не уменьшает неопределенности А, т. е. В не содержит никакой информации об А.

В общем случае условная энтропия меньше безусловной и знание реализации В снижает в среднем первоначальную неопределенность А. Естественно назвать разность количеством информации, содержащейся в В относительно А. Ее называют также взаимной информацией между и обозначают

Подставляя сюда (2.121) и (2.131), выразим взаимную информацию через распределения вероятностей:

Если воспользоваться теоремой умножения то можно записать в симметричной форме:

Сформулируем основные свойства взаимной информации:

причем равенство имеет место тогда и только тогда, когда независимы между собой. Это следует из определения (2.135) и неравенства (2.134).

т. е. В содержит столько же информации относительно А, сколько А содержит относительно В. Это свойство вытекает из симметрии выражения (2.137). Поэтому можно также записать

причем равенство имеет место, когда по реализации В можно однозначно восстановить А. Это следует из (2.135) и (2.134).

причем равенство имеет место, когда по реализации А можно точно установить реализацию В. Это вытекает из (2.139) и (2.141).

5. Полагая в и учитывая, что получим

Это позволяет интерпретировать энтропию источника как его собственную информацию, т. е. информацию, содержащуюся в ансамбле А о самом себе.

Пусть, например, А — ансамбль дискретных сообщений, ансамбль дискретных сигналов, в которые преобразуются сообщения А. Тогда в том и только в том случае, когда преобразование обратимо. При необратимом преобразовании и разность можно назвать потерей информации при преобразовании Ее называют также ненадежностью. Таким образом, информация не теряется только при обратимых преобразованиях.

Если среднее время передачи одного сообщения, то, разделив формулы на и обозначая

и т. д., получим соответствующие равенства для энтропий и количества информации, рассчитанных не на одно сообщение, а на единицу времени. Величина называется скоростью передачи информации от к В (или наоборот).

Если, например, ансамбль сигналов на входе дискретного канала, ансамбль сигналов на его выходе, то скорость передачи информации по каналу выразится следующим образом:

Эти соотношения наглядно иллюстрируются на рис. 2.16. Здесь производительность источника передаваемого сигнала «производительность» канала, т. е. полная собственная информация в принятом сигнале за единицу времени. Величина представляет собой скорость «утечки» информации при прохождении через канал, а скорость передачи посторонней информации, не имеющей отношения к и создаваемой присутствующими в канале помехами.

Рис. 2.16. Иллюстрация передачи информации по каналу с помехами

Соотношение между зависит от свойств канала. Так, например, при передаче телефонного сигнала по каналу с узкой полосой пропускания, недостаточной для удовлетворительного воспроизведения сигнала, и с низким уровнем помех теряется часть полезной информации, но почти не получается бесполезной. В этом случае Если же сигнал воспроизводится хорошо, но в паузах ясно прослушиваются «наводки» от соседнего телефонного канала, то, почти не теряя полезной информации, можно получить много дополнительной, как правило, бесполезной информации и

1
Оглавление
email@scask.ru