Главная > Курс теории информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

§ 1.4. Условная информация. Условная энтропия

Пусть — пара совместно заданных дискретных ансамблей Как указывалось выше, на каждом из множеств могут быть определены различные условные распределения. Зафиксируем некоторое сообщение и рассмотрим условное распределение на Для каждого сообщения в ансамбле определена собственная информация

которая называется условной собственной информацией сообщения х при фиксированном сообщении у. Как и раньше, можно рассматривать как случайную величину на ансамбле ее математическое ожидание

называется условной энтропией ансамбля X относительно сообщения

Условную энтропию можно рассматривать как с. в. на ансамбле

Определение 1.4.1. Математическое ожидание случайной величины определенной на ансамбле называется условной энтропией ансамбля X относительно ансамбля

Замечание. Следует помнить, что условная вероятность а следовательно, условная собственная информация и условная энтропия определены только для тех сообщений вероятности которых отличны от нуля. Поэтому всюду ниже мы будем считать, что указанное условие выполнено и соответствующие вероятности не равны нулю. Если в ансамбле некоторые сообщения имеют нулевые вероятности, то мы будем исключать эти сообщения из рассмотрения, переходя тем самым к ансамблю, все сообщения которого имеют ненулевые вероятности.

Мы ввели условную энтропию рассматривая вначале условную энтропию при фиксированном сообщении как случайную величину на ансамбле а затем находя математическое ожидание этой с. в. Можно поступить иначе и рассмотреть условную собственную информацию как действительную функцию, заданную на ансамбле следовательно, как с. в. на этом ансамбле. Тогда энтропия есть математическое ожидание с. в. и может быть непосредственно определена с помощью правой части формулы (1.4.3).

Теперь мы продолжим рассмотрение свойств энтропии и условной энтропии.

1. Условная энтропия не превосходит безусловной энтропии того же ансамбля:

причем равенство имеет место в том и только том случае, когда ансамбли статистически независимы.

Доказательство этого неравенства проводится с помощью неравенства для логарифма (1.3.7):

Равенство выполняется в том и только в том случае, когда для всех

2. Математическое ожидание собственной информации пары сообщений

по определению представляет собой энтропию ансамбля Используя соотношение (определение условной вероятности), можно получить, что

Аналогично, используя соотношение можно получить, что

Эти свойства также называются свойствами аддитивности энтропии. В случае независимых ансамблей соотношения (1.4.7) и (1.4.8) переходят в (1.3.8).

3. Предположим, что задан ансамбль и на этом ансамбле определено отображение множества X в множество Это отображение определяет ансамбль для которого Пусть энтропии ансамблей соответственно. Тогда

и знак равенства имеет место в том и только том случае, когда отображение обратимо, т. е. когда каждому элементу соответствует один и только один элемент

Для доказательства неравенства (1.4.9) заметим, что совместное распределение вероятностей на произведении множеств задается следующим образом: где для для остальных Другими словами, каждое сообщение ансамбля X однозначно определяет сообщение ансамбля У (в этом случае говорят, что ансамбль X однозначно определяет ансамбль Тогда, как легко показать (см. задачу 1.4.1), Из аддитивности и неотрицательности энтропии получим, что

Таким образом, при произвольных отображениях, задаваемых функцией которых ансамбль X переходит в некоторый другой ансамбль энтропия не возрастает. Энтропия не изменяется тогда и только тогда, когда т. е. когда ансамбль У однозначно определяет ансамбль X, Другими словами, энтропия сохраняется только при обратимых преобразованиях.

4. Пусть - три совместно заданных ансамбля и

— условная собственная информация сообщения х при фиксированной паре сообщений где

Число

называется условной энтропией ансамбля X относительно пары ансамблей

Имеет место следующее неравенство:

которое доказывается таким же методом, как и неравенство (1.4.4). Равенство в (1.4.14) выполняется в том и только том случае, когда для всех т. е. когда при данном сообщении у ансамбли статистически независимы.

Это неравенство легко обобщается на случай совместно заданных ансамблей. Рассмотрим ансамбль Тогда для любых имеет место следующее неравенство:

Его левая и правая части определены, как и в (1.4.13), а именно, как математические ожидания соответствующих информаций.

Для вывода еще одного важного неравенства заметим, что для любой последовательности ее вероятность может быть записана следующим образом:

где

и

Тогда

где

— условная собственная информация сообщения Усредняя обе части соотношения (1.4.19), получим

Используя (1.4.15), можно записать

Categories

1
Оглавление
email@scask.ru