Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
8.5. ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ ИСТОЧНИКА НЕПРЕРЫВНЫХ СООБЩЕНИЙИсточник непрерывных сообщений характеризуется тем, что за некоторое конечное время что информация, интересующая получателя и подлежащая передаче по каналу, также бесконечна. Ниже мы на этом остановимся подробнее. В общем случае моделью непрерывного сообщения (первичного сигнала) является нестационарная случайная функция
где
где Длительность реальных сигналов всегда ограничена некоторым интервалом
где Функции с ограниченным спектром относятся к классу целых аналитических функций. Аналитичность функции обусловливает возможность их экстраполяции с нулевой ошибкой (их предсказуемость). Следовательно, такая модель сообщения в виде ансамбля (8.31) не отражает основное свойство сообщения нести информацию. Однако эта модель нашла широкое распространение в теории связи в силу своей простоты. Многие реальные сообщения достаточно хорошо аппроксимируются моделью гауссовского процесса. Так, речевой сигнал можно представить в виде стационарного нормального процесса с корреляционной функцией
где Сигналы черно-белого изображения для различного типа сюжетов также хорошо описываются стационарным нормальным случайным процессом
где Предположим, что выходом источника является первичный сигнал
Тогда можно определить эпсилон-энтропию источника как
которая определяет минимальное количество двоичных символов (бит) для представления одного отсчета первичного сигнала (сообщения)
где
— условная дифференциальная энтропия. Тогда
Рассмотрим гауссовский источник, для которого сообщения на выходе представляют собой стационарный гауссовский процесс с заданной дисперсией (мощностью)
Поскольку Если шум воспроизведения
При данной дисперсии первичного сигнала
Если отдельные отсчеты сообщения независимы, то содержащаяся в них информация складывается. Пусть источник выдает независимые отсчеты сообщения дискретно во времени со скоростью
Величина
Для гауссово ко
Из выражений (8.38) и (8.41) следует, что минимально возможная среднеквадратическая ошибка восстановления первичного гауссовского сигнала
При
Рис. 8.3. К расчету Мы определили эпсилон-энтропию и предельно достижимую ошибку для гауссовского источника с равномерным распределением мощности по спектру. Для такого источника зависимость между энтропией и ошибкой выражается простыми соотношениями (8.45), (8.46). Для реальных источников получить такие соотношения не удается. В работах А.
Уровень ограничения
В общем же случае
С учетом (8.48) расчетные соотношения (8.47) и (8.49) перепишутся в виде:
В частном случае для сигнала с ограниченным спектром
При При ограниченной средней мощности сообщения (первичного сигнала)
а коэффициент сжатия
Коэффициент сжатия показывает, во сколько раз при оптимальном кодировании источника можно уменьшить количество (объем) данных, необходимых для представления сообщений источника с заданной верностью. Такое кодирование согласно теореме 2 возможно, если осуществляется кодирование не отдельных отсчетов, а достаточно длинных последовательностей этих отсчетов с учетом их распределения вероятностей и функции корреляции сообщений, вырабатываемых источником. Для практических расчетов удобно системы сжатия данных при цифровой передаче сравнивать с некоторой эталонной (базовой) системой. Такой системой может быть, например, ИКМ. Будем определять коэффициент сжатия как отношение объема данных при
При условии, что ошибка воспроизведения в том и другом случае одинакова. Здесь
|
1 |
Оглавление
|