Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Примечания1 (к § 1.2). В большей части работ по теории связи предполагается взаимно однозначное соответствие между сообщением и передаваемым сигналом. Однако в реальных системах связи это далеко не всегда соблюдается. Очень часто определенное сообщение может быть преобразовано в различные сигналы. Так, например, два сигнала, отличающиеся только постоянными коэффициентами, во многих системах связи соответствуют одному сообщению. При сдвиге сигнала во времени на некоторую величину обычно получается сигнал, соответствующий тому же сообщению. При узкополосных сигналах изменение фазы высокочастотного заполнения и даже изменение в небольших пределах его средней частоты во многих случаях также не изменяет сообщения, которому соответствует сигнал. В силу этого передаваемый сигнал представляет собой элемент не дискретного, а непрерывного множества возможных сигналов.
Многие авторы полностью игнорируют это обстоятельство, что иногда приводит к существенным расхождениям между теоретическими результатами и практикой. Другие авторы (например, Файнстейн) рассматривают неоднозначность сигнала как результат воздействия «помехи», проявляющейся в момент передачи сигнала. 2 (к § 1.4). Энтропия источника информации, определенная уравнениями (1.7) и (1.10), представляет математическое ожидание количества информации, приходящегося на один элемент сообщения. Для того чтобы эта величина имела реальный смысл среднего значения количества информации, приходящегося на элемент в некоторой достаточно длинной последовательности элементов сообщения, необходимо, чтобы источник удовлетворял некоторым условиям эргодичности 11]. Строго говоря, реальные источники информации не являются эргодичными, но могут приближенно считаться эргодичными, если их рассматривать на протяжении не очень больших отрезков времени. Понятие энтропии источника сообщения тесно связано с термодинамической энтропией физической системы, образующей вместе с наблюдателем источник сообщении. Чем больше термодинамическая энтропия (зависящая, в частности, от числа степеней свободы системы), тем большее количество информации требуется для описания ее состояния. Подробное исследование соотношения между информационной и термодинамической энтропией провел Бриллюеи [15]. 3 (к §
1.6). Байесовы критерии, основанные на минимизации среднего риска (1.21),
пригодны для построения решающей схемы лишь в тех случаях, когда априорные
вероятности элементарных сообщений Минимаксным
критерием является такой метод оценки решающей схемы, при котором сравниваются
максимальные значения условного риска (1.20), причем максимум берегся по всем
сообщениям
Оптимальной
считается та решающая схема, которая обеспечивает минимальное значение Можно показать (1.3), что минимаксный критерий приводит к такой же решающей схеме, что и байесов критерий минимального среднего риска, при условии, что априорное распределение вероятностей сообщении выбрано наименее благоприятным. Если в действительности априорное распределение вероятностей не является наименее благоприятным, то, зная это распределение, можно было бы построить решающую схему, основанную на байесовом критерии, которая обеспечит меньшую величину среднего риска, чем минимаксная решающая схема. Но зато всегда можно найти такое априорное распределение вероятности, при котором средний риск в байесовой решающей схеме (построенной для другого априорного распределения) будет больше, чем в минимаксной схеме. Заметим [9], что если для всех случаев ошибок стоимость считается одинаковой, то минимаксная решающая схема совпадает со схемой, построенной по критерию максимального правдоподобия. Поскольку система связи предназначена для передачи
информации, представляется разумным определить оптимальную решающую схему как
такую, которая обеспечивает наиболее полное использование информации,
содержащейся в принятом сигнале относительно переданного сообщения. Таким
образом, можно установить информационный критерий оптимальности. К сожалению,
на этом пути существуют большие трудности. Так, если стоимость Если в (1.21) положить стоимость Некоторые авторы [3, 14] предлагают называть
информационным критерием такой, согласно которому оптимальная решающая схема
выбирает ту из гипотез 4 (к § 1.7).
Выражение (1.43) для количества информации, содержащейся в одном непрерывном
процессе
Величину Как было показано в § 1.7, энтропию дискретного
сообщении Это является вполне естественным, так
как для точного описания конечного отрезка непрерывного процесса необходимо
сообщить его значение в бесконечном числе точек. Даже для точного задания
значения непрерывной случайной величины, характеризуемой плотностью
вероятности
Если теперь устремить Этот результат можно трактовать также
следующим образом. Если бы существовал канал с полным отсутствием шумов, так
что принятый сигнал Дифференциальная энтропия Заметим, что путем несложных преобразований можно
выразить
где
|
1 |
Оглавление
|