Главная > Теория кодирования и теория информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

6.8. Расширения кода

Понятие энтропии было введено для простой ситуации, а именно, в случае независимых символов с фиксированными вероятностями появления Далее следует обобщить (понятие (Энтропии для расширений ,(см. разд. 4.2) и для марковских процессов (см. разд. 5.2-5.15). Это приводится в разд. 6.8 и 6.10.

Потери при использовании кода Шеннона — Фано вместо «ода Хаффмена, которые измеряются в терминах энтропии, возникают тогда, когда величины, обратные вероятностям появления символов, не являются точными степенями основания Если проводить кодирование не по одному символу за один раз, а строить код для блоков из символов, то можно рассчитывать ближе подойти к нижней границе

Еще важнее, что (см. разд. 4.10) вероятности в расширений источника более разнообразны, чем вероятности исходного источника; поэтому можно ожидать, что чем выше кратность расширения, тем более эффективными окажутся как коды Хаффмена

так и коды Шеннона — Фано. Рассмотрим сначала понятие расширения кода.

Определение. Положим, что -кратное расширение алфавита источника состоит из символов вида с вероятностями Каждый блок из первоначальных символов становится одним символом с вероятностью значим этот алфавит

Такое определение уже встречалось в разд. 4.2 и 5.5.

Энтропия новой системы легко вычисляется:

Представляя логарифм произведения в виде суммы логарифмов, получаем

Для каждого члена внешней суммы ого имеем

Каждая сумма, в которую не входит равна 1 (поскольку сумма всех вероятностей равна 1). Поэтому остается только сумма по Но

Поскольку все члены в сумме по равны, то

Таким образом, энтропия -кратного расширения источника раз больше энтропии первоначального источника. Заметим, однако, что в нем имеется символов.

Теперь можно применить к расширению результат (6.6.3). Имеем где средняя длина слова для -кратного расширения. Применяя (6.8.1) и производя деление на получаем

Поскольку в расширении каждому символу соответствует символов правильнее использовать меру Таким об, разом, для расширения достаточно высокой кратности оредн длина кодового слова может быть сколь угодно близкой Это составляет содержание теоремы Шеннона о кодировании без шума: для -кратного расширения справедливы границы (6.8.2).

Categories

1
Оглавление
email@scask.ru