Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике 1.7. Количество переданной информацииПусть источник сообщения, находящийся в состоянии , выбрал некоторое сообщение , имевшее априорную вероятность . Приемное устройство принимает при этом некоторый сигнал , на основании которого может быть определена апостериорная вероятность . Предположим сначала для упрощения, что существует только дискретное множество принимаемых сигналов, которые обозначим
Если принят сигнал то вероятность переданного сообщения равна . Эта вероятность была бы равна единице, если бы шумы в канале отсутствовали и принятый сигнал был бы полностью определен. Наличие шумов приводит к тому, что вероятность меньше единицы. Это можно трактовать как неполную передачу информации по каналу связи. Определим, какое количество информации нужно было бы передать дополнительно после приема сигнала , чтобы переданное сообщение стало известно совершенно определенно. Поскольку после приема сигнала вероятность передачи равна , то необходимая дополнительная информация может быть определена как . Но согласно (1.6) (1.29) Таким образом, количество информации, переданное по каналу связи при передаче сообщения и приеме сигнала , можно определить как разность между количеством информации, заключенной в сообщении , и тем количеством информации, которое осталось непереданным после приема сигнала : (1.30) Среднее количество информации, приходящееся на одно элементарное сообщение, переданное по каналу с шумами, можно определить как математическое ожидание , т. е. результат усреднения по всем сообщениям , состояниям источника и принятым сигналам (1.31) где — по-прежнему вероятность состояния источника ; — совместная вероятность передачи знака и приема сигнала . Выражение (1.31) можно рассматривать как количество информации о сообщении , содержащееся в принятом сигнале , или в более общем смысле, как количество информации, содержащееся в последовательности относительно последовательности . Это количество информации можно представить и в другой форме: (1.32) где (1.33) называют условной энтропией сообщения при приеме сигнала (или, в более общем виде, условной энтропией последовательности при известной последовательности ). Ее называют также «ненадежностью», так как она характеризует потерю информации при передаче. В выражении (1.33)
есть вероятность принятого сигнала в состоянии . Легко убедиться, что в канале без помех , так как может принимать только значения 0 и 1, в результате чего все слагаемые в (1.33) обращаются в нули. Поэтому, как и следовало ожидать, в таком канале переданное количество информации равно энтропии источника. Можно доказать [3], что всегда и, следовательно, (1.34) причем равенство имеет место, например, при отсутствии помех в канале. В частности, если положить , то (1.35) Количество переданной информации можно выразить иначе, воспользовавшись тождеством
Помножив числитель и знаменатель под знаком логарифма в (1.31) на , найдем (1.36) Полученное выражение симметрично относительно и вследствие чего можно заключить, что (1.37) Поэтому из (1.34) следует, что (1.38) Если определить совместную энтропию и следующим образом: (1.39) то можно показать, что (1.40) До сих пор мы считали, что принятый сигнал имеет только дискретный ряд значений. Рассмотрим теперь более реальный случай, когда принимает непрерывный ряд значений, характеризуемый плотностью вероятностей и условной плотностью вероятностей при известном переданном сообщении. Представив приближенно , и т. д., и, произведя затем предельный переход , получим из (1.36) следующее интегральное выражение: (1.41) где интегрирование производится по всему множеству . Таким образом, мы получили выражение для количества информации, содержащейся в непрерывном сигнале о дискретном сообщении .
Если среднее время, затрачиваемое на выбор одного элементарного сообщения, равно , то количество информации, передаваемое по каналу связи в единицу времени, или скорость передачи информации по линии связи , (1.44) где — производительность источника или передающего устройства; — ненадежность, отнесенная к единице времени.
|
1 |
Оглавление
|