Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
8.3. КОДИРОВАНИЕ СООБЩЕНИЙ С ЗАДАННОЙ МЕРОЙ ВЕРНОСТИВ предыдущем параграфе утверждалось (теорема 1), что кодирование без ошибок возможно тогда, и только тогда, когда среднее число бит, используемое на одну букву сообщения, больше или равно энтропии источника Пусть источник выдает сообщение
где черта означает усреднение по ансамблю возможных сообщений. В качестве меры искажений часто используется функция вида
Такая мера искажений является приемлемой во всех случаях, когда требуется точное воспроизведение букв источника и все ошибки считаются одинаково нежелательными. Действительно, при
А теперь определим энтропию источника
где безусловная энтропия
- Минимальное количество бинарных символов
Согласно (8.14) для заданного источника
где максимум берется по всем условным распределениям Теорема 2. При любом способе кодирования сообщении источника и Пусть
где
Уравнения При передаче кодовых символов по каналу возникают дополнительно ошибки за счет шумов в канале. Для дискретного канала с шумами справедлива следующая теорема, которую часто называют основной теоремой Шеннона. Теорема 3. 1) Если скорость передачи меньше или равна пропускной способности канала Так как ошибки за счет шумов в канале могут быть сколь угодно малыми, то их влиянием на полную ошибку можно пренебречь и решать задачу представления (кодирования) источника отдельно от задачи передачи кодовых символов по каналу (кодирования канала), что мы и сделали, представляя модель системы передачи информации в виде схемы рис. 1.2. В этой схеме отдельно представлены кодек источника и <кодек канала.
|
1 |
Оглавление
|