Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 2.3. Относительная энтропия и ее свойстваПрактически все свойства средней взаимной информации являются общими для дискретных и непрерывных ансамблей. Эта общность является следствием того, что и дискретный и непрерывный случаи являются частными в общей абстрактной схеме введения информационной меры на измеримых вероятностных пространствах Однако можно ввести некоторые аналоги энтропий и в непрерывном случае и получить представление, похожее на (2.1.20). Рассмотрим среднюю взаимную информацию (2.2.32) между непрерывными ансамблями
Если обозначить
то, используя (2.2.7), получим, что
Величины Первое свойство, отличающее относительную энтропию от энтропии дискретных ансамблей, состоит в том, что она может принимать различные по знаку значения. Это будет показано с помощью следующих примеров, в которых вычислена относительная энтропия для некоторых простых распределений вероятностей. Пример 2.3.1. Пусть f(х) - ф. п. в. равномерного на отрезке
Для ансамбля с таким распределением относительная энтропия Пример 2.3.2. Пусть
Тогда
где использовано условие нормировки Пусть
называется относительной энтропией ансамбля
т. е. относительная энтропия обладает свойством аддитивности. Если
С помощью неравенства для логарифма (1.3.7) легко доказывается, что для непрерывных ансамблей
с равенством в том и только том случае, когда ансамбли Рассмотрим один важный частный случай, когда выражение для условной относительной энтропии можно упростить. Пусть
Действительно, левая часть это ф. п. в. с. в. У при фиксированном значении
где третье равенство — результат замены переменных, а четвертое — следствие независимости
Относительная энтропия определяется распределением вероятностей на ансамбле, и естественным является вопрос о том, для каких распределений она больше. Однако такой вопрос без дополнительных ограничивающих предположений лишен смысла, поскольку, как видно, например, из (2.3.4) или (2.3.5), относительная энтропия может быть сделана сколь угодно большой либо соответствующим выбором интервала Пусть
Слева в этом неравенстве написан второй начальный момент распределения с ф. п. в. f {х). Он называется средней мощностью с. в ф. п. в. которой есть Теорема 2.3.1. Для любой
где
т. е. когда распределение вероятностей является гауосовским и имеет нулевое среднее и дисперсию Доказательство. Докажем вначале вспомогательное неравенство. Пусть
Из этого неравенства следует, что
Отсюда, применяя неравенство для логарифма, получим
где последнее равенство следует из того, что каждое из выражений в квадратных скобках равно единице. Таким образом, получено неравенство (2.3.14). Случай равенства получается, когда имеет место равенство в неравенстве для логарифма, т. е. когда ф. п. в. определяется формулой (2.3.15). Теорема доказана. Таким образом, мы показали, что среди всех случайных величин с ограниченным средним квадратом наибольшей относительной энтропией обладает гауссовская случайная величина. То, что эта случайная величина имеет нулевое математическое ожидание, не является существенным требованием. Легко показать (см. задачу 2.3.2), что случайные величины, отличающиеся только математическим ожиданием, имеют одинаковые относительные энтропии. Поэтому упоминание в теореме 2.3.1 о том, что математическое ожидание равно нулю, можно опустить. Рассмотрим теперь относительную энтропию системы случайных величин
где функции
Матрица Относительная энтропия системы с. в.
где Обозначим через К 1 матрицу, обратную матрице К, т. е. такую, что
где
Так как
где
Функция
называется Теорема 2.3.2. Пусть — класс
причем равенство имеет место в том случае, когда Доказательство. Докажем вначале вспомогательное равенство. Пусть
Очевидно (см. (2.3.19) и (2.3.24)), что
откуда
Используя это равенство и неравенство для логарифма, получим
что и доказывает теорему. Как и в одномерном случае, легко доказать, что относительная энтропия системы с. в. не зависит от математических ожиданий, поэтому упоминание о математических ожиданиях в теореме 2.3.2 можно опустить. Пример 2.3.3. Здесь мы дадим пример использования теоремы 2.3.2 для вычисления средней взаимной информации между двумя гауссовскими случайными векторами. Пусть
Так как У — гауссовский вгктор и корреляционная матрица этого вектора
где третье равенство есть следствие независимости векторов
Условная относительная энтропия
и
|
1 |
Оглавление
|