Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.2. Дискретные источники без памяти. Блочные кодыВ этом и двух следующих параграфах будем изучать задачу кодирования источников с заданным критерием точности, ограничиваясь случаем дискретных источников без памяти с алфавитом
В этом параграфе рассмотрим блочное кодирование, при котором N символов источника воспроизводятся с помощью N символов пользователя. Среднее значение погрешности между
Пусть
а среднюю погрешность, достижимую в коде
в соответствии с предположением о том, что источник не имеет памяти. Через каждые N единиц времени после того, как в кодер поступят N символов источника, кодер, в соответствии с правилом минимальной погрешности (7.2.3), выбирает кодовое слово. Затем по линии, соединяющей кодер источника с декодером источника, передается индекс выбранного кодового слова. Декодер выбирает кодовое слово, соответствующее переданному, и выдает его пользователю. Эта схема блочного кодирования показана на рис. 7.3. Так как для каждой последовательности из N символов источника по бесшумному каналу, соединяющему кодер с декодером, передается один из
Рис. 7 3. Система блочного кодирования источника При заданном критерии точности Прежде всего введем произвольное условное распределение вероятностей
Соответствующие маргинальные вероятности определяются отсюда как
Применяя байесовское правило, получаем обратные условные вероятности
где
Так как
Здесь
Так как
Применяя к первой сумме в (7.2.11) неравенство, вытекающее из определения (7.2.10),
а ко второй сумме неравенство, следующее из (7.2.1),
получаем границу
Первый член в этой границе упрощается:
Чтобы оценить второй член, применим метод усреднения по ансамблю. Для этого рассмотрим ансамбль блочных кодов объема
где вероятности Лемма 7.2.1. Справедливо неравенство
где
Доказательство. Применяя неравенство Гельдера (см. приложение 3А), для любого
поскольку из определения (7.2.10) следует, что
Для второго из выражений, заключенных в скобки, имеем
Здесь мы воспользовались тем, что код
Теперь исследуем поведение этой границы при различных значениях параметра Лемма 7.2.2. Функция
обладает следующими свойствами при
где
означает функцию средней взаимной информации. Доказательство. Лемма совпадает с леммой 3.2.1. Ее доказательство приведено в приложении Так как можно выбирать параметр Лемма 7.2.3. Справедливо неравенство
Доказательство. Из доказательства, приведенного в лемме 7.2.2, и из теоремы о среднем следует, что для любого
В силу того, что
Таким образом,
Выбирая
При фиксированном распределении
для
Теперь объединим полученные результаты и найдем границу средней погрешности при блочном кодировании с длиной блока N и со скоростью передачи ансамблю значение
справедливая для любых
где
Рис. 7.4. Вид функции Предположим, что задан критерий погрешности
Очевидно, что — непустое, замкнутое, выпуклое множество для всех
так как определяя
которое принадлежит и достигает нижней границы. Определим функцию надежности источника
и функцию
Далее покажем, что Теорема 7.2.1. Теорема кодирования источников. Для любой длины блока N и скорости передачи
где Доказательство. Предположим, что на достигается максимум, указанный в определении функции надежности источника (7.2.35). Тогда из (7.2.31) находим
где
где Пример. (Двоичный симметричный источник, искажение типа ошибка в символе.) Пусть
Тогда параметрическое уравнение (7.2.29) принимает вид
(см. также § 3.4). Функция Теорема 7.2.1 показывает, что, увеличивая длину блока, можно для любой скорости передачи Следствие 7.2.2. Для любого заданного
Рис. 7.5. Вид функции Доказательство. Если Для того чтобы показать, что
находим следующие неравенства:
Из неравенства (7.2.46) следует, что Неравенство (7.2.47) может быть доказано с помощью рассуждений, аналогичных доказательству леммы 1.2.2 относительно Теорема 7.2.3. Обратная теорема кодирования источников. Не существует ни одной пары кодер—декодер источника, на которой можно было бы достичь погрешности, меньшей или равной Доказательство. Любая пара кодер—декодер определяет отображение множества последовательностей источника во множество последовательностей пользователя. Для любого заданного
и предположим, что
Предположим, что отображению соответствует средняя погрешность
где
где неравенство следует из (7.2.50). Следовательно, распределение
Здесь воспользовались неравенствами (7.2.46), (7.2.47) и неравенством Отметим, что эта обратная теорема кодирования источников применима ко всем парам кодер—декодер источника, причем не только при блочном кодировании. Действительно, для любой пары кодер—декодер и любой последовательности длины N существует некоторое отображение Теорема кодирования источников (теорема 7.2.1) и обратная ей теорема (теорема 7.2.3) показывают вместе, что
где
Таким образом, в этом случае получаем точное выраженае скорости как функции погрешности, которое можно найти путем минимизации средней взаимной информации. Сформулированные выше теорема кодирования источников и обратная ей теорема показывают, что скорость как функция погрешности, определенная (7.2.53), устанавливает минимальную скорость, с какой декодер должен получать информацию о выходной последовательности источника, чтобы представить ее пользователю со средней погрешностью, не превышающей Теорема 7.2.4. Существует код
при
Доказательство. Из (7.2.30) следует, что для каждого
Напомним, что согласно (7.2.18)
Дважды интегрируя
Так как
Пусть С — любая константа, ограничивающая сверху величину Тогда
Следовательно,
Теперь выберем Рев, при котором
Положим
где
Подставляя это неравенство в (7.2.55), находим
Существует много способов, которыми можно устремить границу
получаем
В другом случае, выбирая
получаем
откуда видно, что если Хотя теорема 7.2.4 и не приводит к наиболее строгим среди известных границам скорости сходимости
|
1 |
Оглавление
|