Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 2. КОДИРОВАНИЕ ДИСКРЕТНОЙ ИНФОРМАЦИИ ПРИ ОТСУТСТВИИ ПОМЕХ И ШТРАФОВОпределение количества информации, данное в гл. 1, получает свое оправдание при рассмотрении преобразования информации из одного вида в другой, т. е. при рассмотрении кодирования информации. Существенно, что при таком преобразовании выполняется закон сохранения количества информации. Полезно провести аналогию с законом сохранения энергии. Этот закон является главным основанием для введения понятия энергии. Правда, закон сохранения информации сложнее закона сохранения энергии в двух отношениях. Закон сохранения энергии устанавливает точное равенство энергий при переходе энергии из одного вида в другой. При превращении же информации имеет место более сложное соотношение, а именно «не больше» Второе осложняющее обстоятельство заключается в том, что равенство не является точным. Оно является приближенным, асимптотическим, справедливым для сложных (больших) сообщений, для сложных случайных величин. Чем больше система сообщений, тем точнее выполняется указанное соотношение. Точный знак равенства имеет место лишь в предельном случае. В этом отношении имеется аналогия с законами статистической термодинамики, которые справедливы для больших термодинамических систем, состоящих из большого числа (практически порядка числа Авогадро) молекул. При выполнении кодирования предполагается заданной (большая) последовательность, сообщений Возможен двоякий подход к решению задачи кодирования. Может осуществляться кодирование бесконечной последовательности сообщений, т. е. текущее (или «скользящее»). Такой же характер будет носить и обратная процедура — процедура декодирования. Для текущей обработки характерно, что количественное равенство между кодируемой и закодированной информацией поддерживается лишь в среднем. При этом возникает и нарастает с течением времени случайная временная задержка или опережение. Для фиксированной длины последовательности сообщений длина ее записи будет иметь случайный разброс, растущий с течением времени, и наоборот: при фиксированной длине записи число элементарных переданных сообщений будет характеризоваться нарастающим разбросом. Другой подход можно назвать «блочным». При нем подлежит кодировке конечная совокупность (блок) элементарных сообщений. Различные блоки, если их несколько, кодируются и декодируются независимо. При таком подходе не происходит нарастания случайных временных сдвигов, но зато происходит потеря некоторых реализаций сообщения. Некоторая небольшая часть реализаций сообщений не может быть записана и теряется, так как для нее не хватает реализаций записи. Если блок является энтропийно устойчивой величиной, то вероятность такой потери достаточно мала. Следовательно, при блочном подходе необходимо исследование вопросов, связанных с энтропийной устойчивостью. Следуя традиции, мы рассматриваем в этой главе в основном скользящее кодирование. В последнем параграфе изучаются погрешности рассмотренного ранее вида кодирования, возникающие при конечной длине кодирующей последовательности. 2.1. Основные принципы кодирования дискретной информацииПодтвердим правильность и эффективность принятого ранее определения энтропии и количества информации рассмотрением преобразования информации из одной конкретной формы в другую. Такое преобразование носит название кодирования и применяется при передаче и хранении информации. Пусть сообщение, которое требуется передать или записать, представляет собой последовательность Ввиду того, что число элементарных сообщений никак не связано с числом букв алфавита, тривиальное «кодирование» одного сообщения одной особой буквой является в общем случае неприемлемым. Будем сопоставлять каждому отдельному сообщению, т.е. каждой реализации
где под Ввиду того, что все слова Желательно сделать запись сообщения как можно короче, если только это возможно без какой-либо потери содержания. Теория информации указывает границы, до которых можно сжимать длину записи (или время передачи сообщения, если сообщение передается в течение какого-то времени). Поясним выводы теории рассуждением, используя результаты § 1.4, 1.5. Пусть полное сообщение
Если использовать более короткую запись, то в некоторых случаях сообщение неизбежно будет искажаться, а если использовать запись длины больше Выводы из § 1.4, 1.5 можно применить не только к последовательности вероятностях сообщений остается подбирать кодовые слова и стараться достичь указанных выше оптимальных распределений букв. Если при некотором коде достигается максимальная энтропия
Это соотношение говорит о том, что каждая буква используется как бы на «полную мощность»; оно является признаком оптимального кода. Возьмем какую-либо конкретную реализацию сообщения
Усреднение этого неравенства дает
что согласуется с (2.1.1), поскольку Итак, теория указывает, чего нельзя достичь (нельзя сделать, чтобы длительность Пример. Пусть имеется случайная величина 1 со следующими значениями и вероятностями:
Сообщение записывается в двоичном алфавите
Чтобы сказать, хорош этот код или нет, сравним его с оптимальным кодом, для которого выполняется соотношение (2.1.1). Вычисляя по формуле (1.2.3) энтропию элементарного сообщения, имеем
В коде (2.1.4) на элементарное сообщение тратится три буквы, тогда как в оптимальном коде на это сообщение может быть согласно (2.1.1) затрачено
Легко проверить, что вероятность появления буквы А на первом месте равна 1/2. Поэтому энтропия первого символа равна
Итак, каждая буква независимо от ее места несет одну и ту же информацию 1 бит. Случайная информация элементарного сообщения § при этом условии равна длине соответствующего кодового слова:
Следовательно, средняя длина слова равна информации элементарного сообщения:
Это согласуется с (2.1.1), так что код является оптимальным. Соотношение Соотношение (2.1.3) со знаком равенства справедливо в предположении, что асимптотически. Для конечного Покажем это для случая
соответствующий
|
1 |
Оглавление
|