Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.7. Информация как случайная величинаМеры информации, введенные в предыдущих разделах, могут рассматриваться как случайные величины в том смысле, что каждая из них принимает некоторое значение для любой эчки ансамбля, на котором они определены. Другими словами, мы можем рассматривать количество информации как некоторую величину, связанную со случайным событием. Тот факт, что эта величина сама является функцией вероятностей точек ансамбля, несуществен. Позднее нам придется сталкиваться с разнообразными совокупностями свойств количества информации. Поэтому будет весьма полезно наглядно представлять себе распределение вероятностей для количества информации, рассматриваемого как случайная величина. Например, рис. 2.4 иллюстрирует распределение вероятностей собственной информации сообщений, показанных на рис. 2.1. Если через и мы обозначим какое-либо сообщение из ансамбля
построенная на рис. 2.4, представляет собой вероятность того, что собственная информация
Рис. 2.4. График Следовательно, график на рис. 2.4 состоит из дискретного множества вертикальных линий, длины которых равны вероятностям того, что информация принимает значения, отмеченные на оси Функция распределения некоторой случайной величины
т. е. вероятность того, что приведенных на рис. 2.1, показана на рис. 2.5. Если рассматривать каждую вертикальную линию на рис. 2.4 как импульс с весом (т. е. площадью), равным высоте линии, и если учесть, что интеграл от единичного импульса есть единичная ступенька, то функцию распределения можно представить интегралом
где плотность распределения вероятностей определяется из выражений
где
Рис. 2.5. График Часто используемой характеристикой случайной величины
где плотность распределения вероятностей Другой полезной характеристикой случайной величины
Дисперсия собственной информации (в дв. ед.) для ансамбля рис. 2.1 равна
Рис. 2.6. Пример двоичного симметричного канала. Рассмотрим теперь двоичный симметричный канал, изображенный на рис. 2.6. Распределение вероятностей
взаимной информации между входными и выходными символами построено на рис. 2.7. Каждая вертикальная линия соответствует паре Соответствующая функция распределения для взаимной информации
построена на рис. 2.8. Мы снова можем представить функцию распределения в интегральной форме
где плотность распределения вероятностей
где
Рис. 2.7. График Аналогично выражению (2.75), математическое ожидание или среднее значение взаимной информации определяется по формуле
где плотность Нас также будут интересовать условные распределения вероятностей вида
где
Соответствующее условное математическое ожидание равно
что для рассмотренного примера дает
Ясно, что если
Рис. 2.8. График В разд. 2.9 мы увидим, что эта величина всегда неотрицательна, несмотря на то что взаимная информация может быть отрицательной. Отсюда следует, что среднее значение взаимной информации
также является неотрицательным. Следующие два раздела посвящены более детальному изучению свойств различных средних значений количества информации.
|
1 |
Оглавление
|