Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.9. Средняя взаимная информацияКроме рассмотренных величин, важную роль в изучении проблем связи играет среднее значение взаимной информации между точками различных пространств. Мы хотим исследовать его свойства и, в частности, его соотношения с различными энтропиями, которые могут быть определены для того же самого произведения ансамблей. Рассмотрим сначала условное среднее значение взаимной информации для произведения ансамблей XV, определяемое равенством (2.86). Из этого равенства имеем
Теорема. Для заданного произведения ансамблей
в котором знак равенства имеет место тогда и только тогда, когда
т. е. когда х статистически не зависит от Доказательство. Эту теорему можно легко доказать с помощью неравенств (2.91). Имеем
Знак равенства имеет место тогда и только тогда, когда переменная Свойство, выраженное равенством (2.108), оказывается особенно важным, когда В силу свойства симметрии взаимной информации из неравенства (2.108) следует, что
Последнее неравенство означает, что если Рассмотрим далее среднее значение взаимной информации, определяемое равенством (2.82),
Неотрицательность этой величины немедленно вытекает из выражения (2.111). Ее основные свойства можно легко получить, усредняя соотношения (2.18), (2.57), (2.108), (2.69), (2.22) и (2.25) по произведению ансамблей
Все эти равенства, кроме одного, не требуют никаких дополнительных пояснений. Равенство (2.116) устанавливает очевидное соотношение между средней взаимной информацией и тремя энтропиями, относящимися к тому же самому произведению ансамблей. Из равенств (2.98) и (2.116) мы получаем следующие два различных выражения для средней взаимной информации:
Эти два выражения особо интересны, когда х является сообщением, передаваемым по каналу связи с шумом, а у — соответствующим принятым сигналом. В этом случае соотношение (2.119) устанавливает, что среднее количество информации о сообщении, содержащееся в принятом сигнале, равно среднему количеству информации, требуемому для определения сообщения х минус среднее количество информации, которое все еще потребуется для определения х после приема сигнала. В связи с такой интерпретацией соотношения (2.119) мы понимаем энтропию Равенством (2.120) подчеркивается другой взгляд на среднее количество информации, а именно как на разность между средним количеством информации, необходимым для определения принятого сигнала, и средним количеством информации, необходимым для определения того же сигнала, когда известно переданное сообщение. Следовательно, Возвращаясь к равенству (2.119), можно также сказать, что разность в правой части выражает среднее изменение неопределенности переданного сообщения, вызванное приемом сигнала у. Эта интерпретация основана на том факте, что
Отсюда, однако, нельзя сделать вывода, что разность
Разность в правой части представляет собой изменение среднего количества информации, получающегося при наложении условия Фундаментальное различие между правой и левой частями соотношения (2.122) становится особенно очевидным, когда полностью определяет некоторое
т. е. когда
|
1 |
Оглавление
|