Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.5. ВЗАИМНАЯ ИНФОРМАЦИЯ ДЛЯ ПРОИЗВОЛЬНЫХ АНСАМБЛЕЙПредыдущие рассмотрения дискретных и непрерывных ансамблей с плотностями вероятностей оказываются подходящими для того, чтобы иметь дело практически со всеми задачами в теории информации, представляющими технический интерес, в особенности, если использовать некоторые разумные ограничения при рассмотрении более общих случаев. Однако для того чтобы точно сформулировать более общие результаты, не расчленяя их на множество частных случаев, часто желательна более абстрактная точка зрения. Детальное представление такой точки зрения требует использования теории меры, что выходит за рамки этой книги. В этом параграфе будут кратко описаны те результаты, относящиеся к общему случаю, которые могут быть поняты без теории меры. Эти результаты будут использованы в гл. 7 и понадобятся только при исследовании каналов, которые не могут быть описаны с помощью достаточно хороших плотностей вероятностей. Главный результат, который будет получен в этом параграфе, состоит в том, что теоремы и равенства, отмеченные звездочками в 2.2 и 2.3, остаются справедливы в общих случаях. В терминах теории меры ансамбль X определяется выборочным пространством — множеством событий, каждое из которых является подмножеством элементов выборочного пространства и вероятностной мерой на множестве событий. Множество событий обладает тем свойством, что любое конечное или счетное объединение или пересечение множеств событий является другим событием и что дополнение любого события является другим событием. Вероятностная мера обладает следующими свойствами: каждое событие имеет неотрицательную вероятность, все выборочное пространство имеет вероятность, равную единице, и вероятность любого конечного или счетного объединения непересекающихся событий равна сумме вероятностей отдельных событий. Для всех задач, имеющих практический интерес, любое подмножество элементов, которое следует рассмотреть, является событием и имеет вероятность. Совместный ансамбль
Для того чтобы определить среднюю взаимную информацию между двумя ансамблями, рассмотрим вначале разбиение ансамбля. Разбиение
Так как источник стационарный, то
Поскольку Далее предположим, что Пусть теперь Следующая лемма подытоживает результаты. (1959) показывает, что мы получим тот же самый результат в обоих случаях. И, наконец, средняя условная взаимная информация определяется как
Это определение не является столь же общим, как наше определение Определение (2.5.4) также оставляет некоторые сомнения относительно того, удовлетворяется ли равенство
Для того чтобы показать, что (2.5.5) удовлетворяется всегда, когда выражения являются определенными при любом заданном
Очевидно, что четыре различных разбиения могут быть выбраны так, что каждое из них будет удовлетворять одному из написанных выше соотношений, и любое разбиение, которое является подразбиением каждого из этих четырех разбиений, удовлетворяет одновременно
С другой стороны, так как
Так как В качестве примера использования этих определений и для того чтобы показать, что Обратимся теперь к задаче определения взаимной информации как случайной величины для произвольных ансамблей. Это определение можно дать только в терминах теории множеств, но, к счастью, у нас не возникнет необходимости в его использовании и мы приводим его здесь только как интересный дополнительный материал. При заданном ансамбле В приведенном выше примере совместная вероятностная мера сконцентрирована на прямой ИТОГИ И ВЫВОДЫВ этой главе были определены взаимная и собственная информации и установлены некоторые свойства информации, которые будут использованы в последующих главах. Эти свойства в своем большинстве оказались такими, которые следовало бы ожидать при разумном математическом определении информации, но действительное оправдание этих определений появится лишь в последующих главах. Привлекательное слово «информация» позволяет легко построить интуитивное понимание приведенных здесь понятий, но следует быть осторожным и не смешивать эту интуицию с математикой. В идеале наша интуиция должна предлагать новые математические результаты, а условия, требуемые для доказательства этих математических результатов, должны, в свою очередь, обострять нашу интуицию. ИСТОРИЧЕСКИЕ ЗАМЕЧАНИЯ И ССЫЛКИДля дополнительного чтения книга Феллера (1950) является замечательным учебником по теории вероятностей. Материал, содержащийся в этой главе, в основном имеется также у Фано (1961), Эбрамсона (1963) и Эша (1965). Большинство результатов и понятий, приведенных здесь (как и в других главах), развиты Шенноном (1948), оригинальные работы которого остаются до сих пор в высшей степени полезными для чтения. Пинскер (1960) рассмотрел вопросы, изложенные в § 2.5, более полно и строго.
|
1 |
Оглавление
|