Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.5. Непрерывные по амплитуде источники без памятиМногие источники, такие как дискретизаторы речи, воспроизводящие речь, могут быть представлены моделью источника с дискретным временем и вещественным выходом, т. е. моделью источника с алфавитом
где 7.5.1. Теорема блочного кодирования для непрерывных источниковОбратимся опять к изображенной на рис. 7.3 схеме блочного кодирования источников и рассмотрим множество
где Доказывая теорему блочного кодирования, будем в основном следовать доказательствам, разработанным в § 7.2 для дискретных источников без памяти, заменяя суммирование вероятностей интегрированием функций плотности вероятностей. Как и раньше, будем пользоваться техникой усреднения по ансамблю кодов, вводя условные плотности вероятностей
и соответствующие им маргинальные плотности в
Действуя, как в § 7.2 {см. (7.2.8), (7.2.11)], и меняя суммирование интегрированием, найдем
Определяя, как в (7.2.15),
и замечая, что
При оценивании второго члена больше нельзя пользоваться ограниченностью
с учетом того, что
где последнее неравенство следует из (7.5.1). Таким образом, для
Перейдем к оценке среднего по ансамблю значения величины
Отсюда, в силу (7.5.11) и (7.5.13), для любого кода находим
Усредняя по ансамблю кодов и применяя неравенство Иенсена, получаем границу
Выражение, заключенное в квадратные скобки, можно оценить, используя выкладки в доказательстве леммы 7.2.1 [см. (7.2.20) — (7.2.22)], после замены суммирования интегрированием по плотностям вероятностей. Это приводит к оценке
где
Свойства функции
Тогда из леммы 7.2.3 следует, что
Подставляя эти результаты в (7.5.15), приходим к границе
где Выбор условной плотности вероятностей
и определим функцию
и скорость как функцию погрешности
Подставляя эти выражения в (7.5.20), приходим к следующей теореме кодирования непрерывных источников без памяти. Теорема 7.5.1. Теорема кодирования источников. Для любой длины блока N и любой скорости
где Доказательство. См. доказательство теоремы 7.2.1 Соотношение (7.5.23) определяет скорость как функцию погрешности Теорема 7.5.2. Обратная теорема кодирования источников. Ни для какой пары кодера — декодера источника невозможно достичь средней погрешности, меньшей или равной Доказательство прямой теоремы кодирования, приведенное в этом параграфе, применимо к дискретным источникам без памяти с неограниченной мерой погрешности, если только удовлетворяется требование ограниченности дисперсии. Точно так же для дискретных источников со счетным бесконечным алфавитом можно сформулировать теорему кодирования, аналогичную теореме 7.5.1. Примером такого источника служит источник, определяемый пуассоновской случайной величиной с абсолютной мерой погрешности (см. задачи 7.25-7.27). Мы показали, что теоремы кодирования для непрерывных источников доказываются так же, как теоремы кодирования для дискретных источников без памяти с ограниченной побуквенной мерой погрешности. Остаются в силе и все рассуждения о связи между кодировамием для каналов и кодированием для источников. Наконец, может быть получена и теорема решетчатого кодирования, что будет показано ниже.
|
1 |
Оглавление
|