Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.6. Количество собственной информацииСнова рассмотрим произведение ансамблей
то взаимная информация между х и у
удовлетворяет двум неравенствам
При этом знак равенства имеет место тогда и только тогда, когда имеет место знак равенства в соотношениях (2.55). О величине
говорят, что она является количеством собственной информации в
— количество собственной информации в у Иначе говоря, информация в каком-либо событии измеряется логарифмом величины, обратной вероятности его появления. Количеству собственной информации можно дать две различные интерпретации в зависимости от роли, которую играют рассматриваемые события или символы. Если Другая интерпретация понятия собственной информации возникает, например, в случае когда СИМВОЛ Пример. Эти две интерпретации количества собственной информации можно проиллюстрировать с помощью рис. 2.1. Если обозначить через Следовательно, в соответствии с выражением (2.32)
Собственную информацию в первом символе кодового слова
т. е. ту же самую величину, которую дает выражение (2.29) для взаимной информации, содержащейся в
Рассмотрим далее произведение ансамблей
удовлетворяет двум неравенствам
аналогичным неравенствам (2.57). Таким образом, условные собственные информации
можно интерпретировать так же, как собственные информации, задаваемые соотношениями (2.58) и (2.59). Другими словами, условная собственная информация события или символа может быть интерпретирована либо как количество взаимной информации об этом событии, которое должно иметься при указанных условиях, чтобы однозначно определить это событие, либо как максимальное количество взаимной информации, которое способно доставить рассматриваемое событие при тех же заданных условиях. Двоичную единицу информации (бит), можно теперь определить более непосредственно. Двоичная единица информации — это собственная информация в двоичном символе, когда оба возможных ее значения — равновероятны. Эта интерпретация разъясняет возникновение применяемого в литературе наименования единицы информации «бит» как результат сокращения слов binary digit (двоичной цифры). В принятом нами изложении сначала было определено количество взаимной информации, на основе которой затем было введено количество собственной информации. Однако мы могли бы с тем же успехом действовать в обратном порядке: сначала определить количество собственной информации, а затем получить из нее количество взаимной информации. Действительно, с помощью соотношений (2.58), (2.59), (2.64) и (2.65) соотношение (2.56) может быть переписано в следующем виде:
Оно может быть интерпретировано следующим образом. Информация, содержащаяся в Взаимную информацию между
где
— собственная информация в точке
Последнее равенство показывает, что информация о паре
|
1 |
Оглавление
|