6.8. Расширения кода
Понятие энтропии было введено для простой ситуации, а именно, в случае независимых символов с фиксированными вероятностями появления Далее следует обобщить (понятие (Энтропии для расширений ,(см. разд. 4.2) и для марковских процессов (см. разд. 5.2-5.15). Это приводится в разд. 6.8 и 6.10.
Потери при использовании кода Шеннона — Фано вместо «ода Хаффмена, которые измеряются в терминах энтропии, возникают тогда, когда величины, обратные вероятностям появления символов, не являются точными степенями основания Если проводить кодирование не по одному символу за один раз, а строить код для блоков из символов, то можно рассчитывать ближе подойти к нижней границе
Еще важнее, что (см. разд. 4.10) вероятности в расширений источника более разнообразны, чем вероятности исходного источника; поэтому можно ожидать, что чем выше кратность расширения, тем более эффективными окажутся как коды Хаффмена