Главная > Теория кодирования и теория информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

6.8. Расширения кода

Понятие энтропии было введено для простой ситуации, а именно, в случае независимых символов с фиксированными вероятностями появления Далее следует обобщить (понятие (Энтропии для расширений ,(см. разд. 4.2) и для марковских процессов (см. разд. 5.2-5.15). Это приводится в разд. 6.8 и 6.10.

Потери при использовании кода Шеннона — Фано вместо «ода Хаффмена, которые измеряются в терминах энтропии, возникают тогда, когда величины, обратные вероятностям появления символов, не являются точными степенями основания Если проводить кодирование не по одному символу за один раз, а строить код для блоков из символов, то можно рассчитывать ближе подойти к нижней границе

Еще важнее, что (см. разд. 4.10) вероятности в расширений источника более разнообразны, чем вероятности исходного источника; поэтому можно ожидать, что чем выше кратность расширения, тем более эффективными окажутся как коды Хаффмена

так и коды Шеннона — Фано. Рассмотрим сначала понятие расширения кода.

Определение. Положим, что -кратное расширение алфавита источника состоит из символов вида с вероятностями Каждый блок из первоначальных символов становится одним символом с вероятностью значим этот алфавит

Такое определение уже встречалось в разд. 4.2 и 5.5.

Энтропия новой системы легко вычисляется:

Представляя логарифм произведения в виде суммы логарифмов, получаем

Для каждого члена внешней суммы ого имеем

Каждая сумма, в которую не входит равна 1 (поскольку сумма всех вероятностей равна 1). Поэтому остается только сумма по Но

Поскольку все члены в сумме по равны, то

Таким образом, энтропия -кратного расширения источника раз больше энтропии первоначального источника. Заметим, однако, что в нем имеется символов.

Теперь можно применить к расширению результат (6.6.3). Имеем где средняя длина слова для -кратного расширения. Применяя (6.8.1) и производя деление на получаем

Поскольку в расширении каждому символу соответствует символов правильнее использовать меру Таким об, разом, для расширения достаточно высокой кратности оредн длина кодового слова может быть сколь угодно близкой Это составляет содержание теоремы Шеннона о кодировании без шума: для -кратного расширения справедливы границы (6.8.2).

1
Оглавление
email@scask.ru