Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
1.3. Условная энтропия. Свойство иерархической аддитивностиОбобщим формулы (1.2.1), (1.2.3) на случай условных вероятностей. Пусть имеются случайные величины
сопоставляем случайную условную энтропию
Введем особое обозначение для результата усреднения ее по
также для результата полного усреднения:
Рис. 1.1. Этапы разбиения и «дерево выборов» в общем случае. Если еще менять Прежде чем перейти к формулировке основного иерархического тождества (1.3.4), покажем, как можно ввести иерархическое множество случайных величин Пусть
Рис. 1.2. «Дерево выборов» для одного конкретного примера. Чтобы указать реализацию В качестве примера «дерева» можно указать простое «дерево», изображенное на рис. 1.2, которое рассматривал Шеннон. С выбором на каждом этапе связана некоторая неопределенность. Рассмотрим соответствующую ей энтропию. Первый этап имеет один узел, и энтропия выбора равна
Энтропия, связанная с выбором одной ветви из этого узла, есть не что иное, как условная энтропия типа (1.3.2) при
Усреднение по всем узлам второго этапа, как и в (1.3.3), дает полную энтропию выбора на втором этапе:
Вообще энтропия выбора на
а полная энтропия
Для примера на рис. 1.2 энтропия первого этапа равна Средняя энтропия второго этапа, очевидно, равна
что, действительно, совпадает с суммой Теорема 1.4. Энтропия обладает свойством иерархической аддитивности:
Доказательство. По определению условных вероятностей они обладают следующим свойством иерархической мультипликативности:
Логарифмируя (1.3.5) и учитывая определение (1.3.1) случайной условной энтропии, имеем
Усредняя это равенство в соответствии с (1.3.3), получаем равенство (1.3.4). Доказательство закончено. Свойство, о котором идет речь в теореме 1.4, является проявлением того простого принципа аддитивности, который был принят в § 1.1. Оно является следствием выбора логарифмической функции в (1.1.1). Легко понять, что из этого свойства вытекает свойство аддитивности (1.2.8), (1.2.9). В самом деле, для независимых случайных величин условная вероятность совпадает с безусловной. Логарифмируя эти вероятности, имеем усреднения Частное проявление свойства (1.3.4) для двухэтапного разбиения было принято Шенноном [1], а также Файнстейном [1] в качестве одной из аксиом для вывода формулы (1.2.3), т. е. в сущности для специализации логарифмической меры информации. И при других аксиоматических способах определения количества информации свойство аддитивности в той или иной (может быть слабой и частной) форме приходится постулировать, чтобы выделить специальную логарифмическую меру. В заключение этого параграфа докажем одну теорему, касающуюся условной энтропии. Сформулируем сначала следующее важное вспомогательное предложение. Теорема 1.5. Каковы бы ни были распределения вероятностей
Доказательство близко к доказательству теоремы 1.2. Оно основано на использовании неравенства (1.2.4) для функции Тогда
и
Подстановка этих значений в (1.2.4) дает
что завершает доказательство. Теорема 1.6. Условная энтропия не может превосходить безусловную:
Доказательство. Пользуясь теоремой 1.5, заменим в ней
Усреднение этого неравенства по
что совпадает с (1.3.8). Доказательство закончено. Аналогично доказывается следующая теорема. Теорема.1.6а. При добавлении условий условная энтропия не увеличивается:
|
1 |
Оглавление
|