Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
4.3. ОБРАЩЕНИЕ ТЕОРЕМЫ КОДИРОВАНИЯДо сих пор источники и каналы обсуждались в терминах понятий различных энтропий и средних взаимных информаций. Однако в большинстве систем передачи данных взаимная информация представляет меньший интерес, чем вероятность того, что буквы источника неправильно воспроизводятся у адресата. Эта вероятность ошибки определяет содержание основной теоремы теории информации — теоремы кодирования. Для широкого класса источников и каналов эта теорема утверждает, что если энтропия источника на единицу времени меньше, чем пропускная способность канала на единицу времени, то вероятность ошибки может быть сделана сколь угодно малой с помощью использования достаточно сложных кодера и декодера. В этом параграфе нас будет интересовать обращение этого результата: если энтропия источника больше, чем пропускная способность, то нельзя достичь произвольно малой вероятности ошибки. Рассмотрим вначале последовательность и
Как было показано в теореме 3.5.1, для стационарного источника
Рис. 4.3.1. Система связи. Предположим, что выходом декодера является последовательность Целью системы связи является получение последовательности
Математическое ожидание числа ошибок в последовательности равно существование одного ошибочного символа среди Начнем с установления соотношений между Теорема 4.3.1. Пусть
Тогда
где
Рис. 4.3.2. Интерпретация теоремы 4.3.1. Обсуждение. Функция Доказательство. Можно записать и
Согласно (4.3.3) разность между выражениями, стоящими в разных частях (4.3.4), равна
С помощью неравенства
Теорема 4.3.2. Пусть
Доказательство. Используя цепное правило для совместного ансамбля
Неравенство (4.3.13) следует из общего неравенства Применяя теорему 4.3.1 к каждому слагаемому в (4.3.13), получаем
Чтобы завершить доказательство теоремы, следует показать, что
Это может быть установлено с помощью неравенства Мы уже ограничили вероятность ошибки, связанной с источником, с помощью неопределенности По определению будем считать, что последовательность источника Для дискретных ансамблей это условие означает, что Если источник обладает памятью, то это определение не столь невинно, как оно представляется. Если последовательные блоки из Теорема 4.3.3. (Теорема переработки информации.) Пусть последовательность источника
где выходной последовательностью Доказательство. Первое условие приведенного выше определения совместно с теоремой 2.3.3 дает:
Второе условие определения дает
Объединяя (4.3.18) и (4.3.19), получаем (4.3.17). Из доказанных двух теорем следует, что
где Если канал является
Свяжем теперь значения Теорема 4.3.4. (Обращение теоремы кодирования.) Пусть дискретный стационарный источник с алфавитом объема Тогда для любого
Доказательство. Согласно теореме Для того чтобы дать соответствующую интерпретацию доказанной теореме, рассмотрим происходит пёредача. В течение этого времени кодер может использовать кодирование с фиксированной длиной или неравномерное кодирование для источника и блоковое или неблоковое кодирование для канала. Независимо от того, какое кодирование и какая обработка данных производились, средняя вероятность ошибки на символ источника должна удовлетворять (4.3.22) и, таким образом, она отлична от нуля, если Хотя теорема в том виде, как она здесь сформулирована, приложима лишь к дискретным каналам без памяти, можно заметить, что это ограничение было использовано только при переходе от (4.3.20) к (4.3.21). Для того чтобы доказать справедливость теоремы для более общих каналов, нужно найти способ определения совместного ансамбля В частном случае канала без шума с Можно заметить, что граница, задаваемая (4.3.22), довольно слабая при большом объеме
При любом
|
1 |
Оглавление
|