5. Распределение информации
 
Применяемый здесь метод основан на случайном кодировании и методе, подобном тому, который развит в работе для односторонних каналов. Рассмотрим 
-кратное использование канала или, говоря математически, произведение вероятностных пространств. На вход поступают величины 
 а на выходе появляются 
, т. е. последовательности по 
 букв из соответствующих алфавитов. 
Условные вероятности для этих блоков равны 
Здесь использовалось предположение о том, что рассматривается канал без памяти, т. е. последовательные символы передаются независимо. Вероятностную меру на входных блоках и 
 также определим как произведение мер, заданных на 
 Таким образом, 
Отсюда уже следует, что другие вероятности также являются произведениями соответствующих вероятностей для отдельных букв. Так, например, 
Взаимная (неусредненная) информация между 
 и парой 
 может быть записана в виде суммы 
 
Таким образом, взаимная информация многомерных величин, как это обычно бывает в случае независимых величин, является суммой взаимных информаций одномерных величин. Так же, как обычно, можно считать, что взаимная информация является случайной величиной: 
 которая принимает свои значения с вероятностями 
 Функцию распределения для 
 обозначим через 
 а для 
 через 
 
Так как каждая из случайных величин 
 является суммой 
 независимых одинаково распределенных случайных величин, имеем обычные условия, когда можно применить различные варианты центральной предельной теоремы и закона больших чисел. Средние значения распределений 
 равны соответственно 
 а дисперсии — соответствующим дисперсиям для одной буквы, умноженным на 
 При 
 для любого фиксированного 
 аналогичное положение имеет место и для 
 На самом деле, стремление к нулю является экспоненциальным по 
 и определяется неравенством 
.