5. Распределение информации
Применяемый здесь метод основан на случайном кодировании и методе, подобном тому, который развит в работе для односторонних каналов. Рассмотрим -кратное использование канала или, говоря математически, произведение вероятностных пространств. На вход поступают величины а на выходе появляются , т. е. последовательности по букв из соответствующих алфавитов.
Условные вероятности для этих блоков равны
Здесь использовалось предположение о том, что рассматривается канал без памяти, т. е. последовательные символы передаются независимо. Вероятностную меру на входных блоках и также определим как произведение мер, заданных на Таким образом,
Отсюда уже следует, что другие вероятности также являются произведениями соответствующих вероятностей для отдельных букв. Так, например,
Взаимная (неусредненная) информация между и парой может быть записана в виде суммы
Таким образом, взаимная информация многомерных величин, как это обычно бывает в случае независимых величин, является суммой взаимных информаций одномерных величин. Так же, как обычно, можно считать, что взаимная информация является случайной величиной: которая принимает свои значения с вероятностями Функцию распределения для обозначим через а для через
Так как каждая из случайных величин является суммой независимых одинаково распределенных случайных величин, имеем обычные условия, когда можно применить различные варианты центральной предельной теоремы и закона больших чисел. Средние значения распределений равны соответственно а дисперсии — соответствующим дисперсиям для одной буквы, умноженным на При для любого фиксированного аналогичное положение имеет место и для На самом деле, стремление к нулю является экспоненциальным по и определяется неравенством .