Подставляя (6.41) в (6.42), получаем, что величина будет стремиться по вероятности к
(Аналогично, хотя и более громоздко, доказывается данная теорема и для стационарных источников с памятью).
По существу теорема САР означает, что при достаточно большой величине все последовательности, выдаваемые источником разбиваются на две группы, называемые соответственно типичными и нетипичными. Первые последовательности примерно равновероятны, и количество их приблизительно
Что же касается нетипичных последовательностей, то они могут иметь разные вероятности, но вероятность появления хотя бы одной из них стремится к нулю при Заметим, что число типичных последовательностей определённой длины оказывается значительно меньше общего возможного числа последовательностей такой же длины. Например, общее число последовательностей букв русского языка длины равно в то время как число типичных последовательностей такой же длины, если положить энтропию русского языка равной 1,5 бит/символ, оказывается всего лишь что примерно соответствует объёму типичного словаря.
Теорема САР оказывается справедливой и для пар последовательностей относительно которых утверждается, что при достаточно больших и с вероятностью 1-6 источник выдаёт пару последовательностей, для которых их условные вероятности будут удовлетворять неравенствам
где сколь угодно малая величина. Теперь мы подготовлены к формулировке и доказательству теорем кодирования.
ТЕОРЕМА 1. О кодировании источника.
Существует способ кодирования, при котором средняя длина последовательности канальных символов приходящаяся на один символ источника сообщений,
Не существует способа кодирования, при котором меньше, чем .
Доказательство данной теоремы для источника без памяти будет дано в следующей главе. Прикладной смысл этой теоремы состоит в том, что при наилучшем кодировании в канале без помех мы можем передавать сообщения источника сообщений со скоростью сколь угодно близкой к величине
и невозможно передавать сообщения со скоростью большей, чем (6.47). Видно, что скорость передачи оказывается тем большей, чем меньше энтропия источника или чем больше его избыточность, что очевидно соответствует наей интуиции, подсказывающей возможность более быстрой передачи сообщений за счёт устранения содержащейся в них избыточности. Такой метод кодирования называется также кодированием источников сообщений или иногда — статистическим или экономным кодированием (сжатием) сообщений.
Поскольку теорема 1 даёт условие лишь для средней длины блока канальных символов, то очевидно, что в отдельные моменты времени эти длины могут оказаться значительно больше средней длины, а это потребует для источников с фиксированной скоростью использования специального буферного устройства для поглощения задержки поступающих сообщений. Можно показать, что с вероятностью единица накопитель любой конечной емкости рано или поздно будет переполнен, т.е. произойдёт потеря информации. Заметим, что указанное выше кодирование является обычно неравномерным. Поэтому для источников сообщений с фиксированной скоростью имеет смысл следующее видоизменение теоремы 1, в котором используется равномерное кодирование.
ТЕОРЕМА 2. О кодировании в канале без помех.
Существует способ кодирования и декодирования в канале без помех, при котором для длины последовательности канальных символов, приходящихся на один символ источника, будет выполняться соотношение (6.46), причём вероятность ошибки не превосходит любой сколь угодно малой величины
Заметим, что здесь под вероятностью ошибки понимается вероятность того, что последовательность символов, выданная получателю, будет отличаться от соответствующей ей последовательности символов, переданной источником сообщений. Несмотря на то, что мы имеем здесь дело с каналом без помех, ошибки в принятом сообщении появляются вследствие специального способа кодирования.
Доказательство. Как следует из (6.43), число типичных последовательностей источника длиной будет асимптотически (при больших равно Условимся кодировать канальными символами только эти типичные последовательности, а любую нетипичную последовательность передавать при помощи одной и той же последовательности, что, очевидно, при декодировании на приёме и будет приводить к ошибкам. Однако поскольку при вероятность появления нетипичной последовательности будет стремиться к нулю, то это и означает, что вероятность ошибки может быть сделана сколь угодно малой величиной.
Все типичные последовательности длины будем кодировать последовательностями длины составленными из канальных символов. Для обеспечения однозначности декодирования (отсутствия ошибок в этом случае) необходимо выполнение условия откуда при больших значениях получаем
что и завершает доказательство теоремы.
Интерпретация этой теоремы для заданных скоростей источника и канала приводит также к соотношению (6.47). Разница состоит лишь в том, что возможна ошибка с некоторой малой вероятностью 8, но зато кодирование оказывается равномерным, что не приводит к переполнению буферной памяти кодера.