Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.11. ИНФОРМАЦИЯ В НЕПРЕРЫВНЫХ СИГНАЛАХОбобщим теперь понятия энтропии и взаимной информации на ансамбли непрерывных сигналов. Пусть Разобьем область значений величины значениями
Будем теперь увеличивать точность определения значения
Второй член в полученном выражении стремится к Тем не менее, как сейчас будет показано, взаимная информация между двумя непрерывными ансамблями, как правило, остается конечной. Такова будет, в частности, взаимная информация между переданным и принятым сигналами, так что по каналу связи информация передается с конечной скоростью. Обратим внимание на первый член в (2.147). Он является конечным и определяется плотностью распределения вероятности
Дифференциальную энтропию, в отличие от обычной энтропии дискретного ансамбля, нельзя рассматривать как меру собственной информации. Она не обладает многими свойствами обычной энтропии, в частности, может принимать и отрицательные значения. Информационный смысл имеет не сама дифференциальная энтропия, а разность двух - дифференциальных энтропий, чем и объясняется ее название. Впрочем, овойство аддитивности сохраняется и для дифференциальной энтропии, т. е. дифференциальная энтропия нескольких сечений случайного процесса равна сумме их дифференциальных энтропий, вычисляемых, конечно, с учетом вероятностных зависимостей между сечениями. Попытаемся теперь определить с помощью предельного перехода взаимную информацию между двумя непрерывными случайными величинами, Исходя из выражения (2.137), можно определить взаимную информацию между непрерывными величинами
При этом предельном переходе никаких явных бесконечностей не появилось, и действительно, в обычных случаях взаймная информация (2.149) оказывается конечной. С помощью простых преобразований ее можно представить и в таком виде:
Здесь Аналогично по формуле (2.149) или (2.150) определяется и взаимная информация между двумя случайными Для нахождения взаимной информации между случайными процессами чаще всего используют их разложение по некоторому ортогональному базису. Взаимная информация между процессами В качестве примера, который понадобится в дальнейшем, найдем дифференциальную энтропию случайной величины X с нормальным распределением вероятности:
где а — математическое ожидание, а
Первый интеграл по общему свойству плотности вероятности равен 1, а второй интеграл по определению дисперсии равен
Таким образом, дифференциальная энтропия гауссовской случайной величины не зависит от ее математического ожидания и монотонно возрастает с увеличением дисперсии. В заключение докажем одно важное свойство нормального распределения: из всех непрерывных случайных величин X с одинаковой дисперсией Для доказательства отметим, прежде всего, что для любой плотности вероятности
Это равенство выводится совершенно таким же образом, как и (2.152). Рассмотрим теперь разность
причем равенство имеет место только при При выводе (2.153) использовалось неравенство (2.124) и то, что интеграл от любой плотности вероятностей в бесконечных пределах равен 1. Такую же теорему можно доказать и для многомерных гауссовских величин.
|
1 |
Оглавление
|