Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.4. ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ ИСТОЧНИКОВ НЕПРЕРЫВНЫХ СООБЩЕНИЙОсновные информационные характеристики источников непрерывных сообщений следующие: энтропия, условная энтропия, эпсилон-энтропия, эпсилон-производительность, избыточность, объем информации. Формулу для энтропии источника непрерывных сообщений получают путем предельного перехода из формулы (1.8) для энтропии дискретного источника. Если одномерная плотность (распределения случайного стационарного процесса
В результате предельного перехода при
Первую составляющую
называют дифференциальной энтропией источника непрерывных сообщений. Вторая составляющая что энтропия источника непрерывных сообщений стремится к бесконечности. Скорость передачи информации, пропускную способность и другие основные информационные характеристики источников определяют через разность энтропий. Поэтому вторая составляющая в этих операциях сокращается и величиной 5.4.1. Энтропия равномерного распределения. Для равномерного распределения
С увеличением интервала 5.4.2. Энтропия нормального распределения. Определим плотность распределения центрированной случайной величины, обеспечивающую максимум Необходимо решить вариационную задачу в следующей постановке: заданы целевой функционал Решение этой задачи известно
а максимальная энтропия
Следовательно, среди всех источников с ограниченной и одинаковой мощностью непрерывных сигналов наибольшей энтропией обладает источник с гауссовскими сигналами; максимальную энтропию полностью определяет мощность 5.4.3. Энтропию гауссовского белого шума определим как энтропию
Следовательно, энтропия гауссовского белого шума в Из анализа (5.57) можно сделать следующие выводы: гауссовский белый шум, обладая наибольшей энтропией, является наиболее вредной помехой, так как переносит максимально возможное количество вредной информации при заданной средней мощности; наихудшие («пессимистические») оценки качества связи получаются, если в роли помех использовать белый шум; если в роли сигналов-переносчиков использовать гауссовские сигналы, по свойствам близкие к белому шуму, можно при одной и той же средней мощности передать максимальное количество информации. Иначе говоря, применение шумоподобных сигналов-переносчиков дает возможность передать максимум информации при заданной мощности или уменьшить мощность сигналов при передаче заданного количества информации. Из этих выводов понятно, почему белый шум широко используют как модель сигналов-переносчиков и помех. 5.4.4. Эпсилон-энтропия источников. Реальная чувствительность приемных устройств, органов чувств человека и разрешающая способность различных информационно-измерительных систем ограничены. Поэтому воспроизводить непрерывные сообщения абсолютно точно не требуется. Наличие помех и искажений сигналов в реальных каналах делает точное воспроизведение сообщений невозможным. Поэтому вводят понятие эпсилон-энтропии. Эпсилон-эвтропия — это то среднее количество информации в одном независимом отсчете непрерывного случайного процесса Рассмотрим подробнее сущность этого понятия. Предположим, что передавался сигнал
где Используем ортогональное разложение Котельникова (см. § 2.2) и выполним дискретизацию сигналов. Тогда вместо непрерывных сигналов Количество информации, которое содержит принятый сигнал
Величина (5.59) является аналогом величины Среднее количество принятой информации
где интегралы являются
Используя (5.61), получаем
Соотношения (5.62), (5.63) аналогичны соотношениям (5.24), (5.25) для случая передачи дискретных сигналов. Энтропия X (5.55)
условная энтропия
Условная энтропия
где Как и для дискретных источников, среднее количество принятой информации можно определить двумя способами: как разность среднего количества переданной информации
Эпсилон-энтропия — это то минимальное среднее количество информации
Так как
где Учтем, что мощность помехи ограничена величиной
где через
Элсилон-энтропия имеет максимальное значение, когда процесс
Отношение сигнал/шум характеризует то количество полученной информации, при котором принятый сигнал 5.4.5. Эпсилон-производительность источника. Если источник выдает независимые отсчеты сигнала
Если время непрерывное, то
Максимальное значение эпсилон-производительность источника имеет, когда сигнал
За время
Поэтому объем сигнала является одновременно экстремальной информационной характеристикой сигнала. Объем сигнала — это максимальное количество информации, которое сигнал может переносить. 5.4.6. Избыточность источника непрерывных сигналов определяют так же, как и для источника дискретных сигналов:
Избыточность источника равна нулю только в случае, когда распределение сигнала является гауссовским. При определении эпсилон-характеристик источников непрерывных сигналов в качестве меры близости двух сигналов было выбрано расстояние между ними в гильбертовом пространстве. Критерием близости служило среднеквадратическое отклонение одного сигнала от другого. Если выбрать другую меру близости сигналов — другую метрику пространства сигналов, можно получить другие эпсилон-характеристики источников. Наибольшее распространение получил среднеквадратический критерий близости сигналов. Контрольные вопросы(см. скан)
|
1 |
Оглавление
|