Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Количество информации, передаваемой по каналу связи (взаимная информация).Рассмотрим некоторый дискретный канал связи, заданный алфавитом входа и выхода
Определим условную энтропию
где, как и раньше, верхний индекс В частном случае канала без памяти легко получить из (6.20)
Условная энтропия обладает следующими свойствами:
(Доказывается по определению 2. Если вход и выход канала связаны взаимно однозначно, т. е.
то
(Требует специального доказательства (см.[16]).)
тогда, и только тогда, когда последовательность переходит с некоторыми вероятностями в разные выходные, но всё же по выходной последовательности можно однозначно определить входную. Тогда по-прежнему Наконец, если выход канала не зависит от входа, а именно это и означает совпадение условных и безусловных вероятностей, то по каналу связи не будет передаваться никакой информации, а поскольку на вход канала поступает информация Определим количество информации, передаваемой по каналу связи
Эта величина обладает следующими свойствами:
где энтропия выхода
(Следует непосредственно из свойства 3 условной энтропии.) 3.
(Следует из определения 5. Если в канале связи отсутствуют помехи, то
(Следует из свойства 2 условной энтропии.)
(Следует из свойства 1 для количества переданной по каналу информации и свойства 1 для условной энтропии.)
(Получается формально непосредственно из определения, если положить 8. Любые детерминированные или случайные преобразования выходных последовательностей канала, в том числе и группировка наблюдений, т.е. объединение нескольких последовательностей, принадлежащих определённому подмножеству в один символ, не могут увеличить количество информации В случае, если эти преобразования взаимно однозначные — количество информации не меняется. Отмеченное свойство следует из того, что, пройдя по каналу (преобразователю) информация или теряется (при наличии неоднозначных преобразований) или не изменяется (при однозначных преобразованиях). Это свойство доказывается, например, в [16]. Формула (6.24) для взаимной информации может быть преобразована также к следующему виду, который иногда более удобен для расчётов:
В частном случае канала без памяти получаем
Формула (6.25) подтверждает первоначальное определение
то информация передаётся полностью (свойство 5). Свойство 1 оказывается менее очевидным. Оно показывает, что количество информации, передаваемой со входа на выход и "как бы" с выхода на вход, оказывается одним и тем же. По существу это свойство и позволяет определить величину
где
Определение взаимной информации наглядно иллюстрируется рис. 6.2.
Рис. 6.2. Иллюстрация передачи информации по каналу с помехами Если для канала связи задана скорость передачи
Определим пропускную способность С дискретного канала связи с помехами как максимум количества информации
Из определения видно, что пропускная способность канала связи зависит только от свойств самого канала, т.е. входного и выходного алфавитов
(Следует из свойства 1 количества информации.)
(Следует из свойства 2 количества информации.)
тогда и только тогда, когда вход и выход канала статистически независимы, т.е. имеет место "обрыв канала". (Следует из свойства 3 количества информации.)
(Следует из свойства 4 количества информации и свойства 3 для энтропии, в данном случае
(Следует из свойства 6 для количества информации.) Представляет значительный интерес вычисление пропускной способности для различных каналов связи с помехами. В общем случае это достаточно сложная, а иногда и просто необозримая задача. Однако для некоторых рассмотренных ранее моделей каналов это оказывается вполне возможным. 1. Воспользуемся для расчёта пропускной способности такого канала формулой, определяемой свойством 1:
Покажем, что условная энтропия
Поэтому (6.29) можно переписать следующим образом:
По свойству 3 энтропии
и, следовательно,
причём максимум достигается на равномерном входном распределении. Подставляя (6.33) в (6.31), окончательно получаем
2. 2CK без памяти. Это частный случай
3. Двоичный по входу стирающий канал
(Получение этого выражения требует доказательства, хотя оно и является достаточно простым (см., например 4. Двоичный канал с памятью и аддитивным шумом. Из свойства 1 для количества информации и свойства 5 условной энтропии получаем
Аналогично тому, как это было доказано в (6.32), получаем, что при выборе взаимно независимых и равновероятных символов
Отметим, что энтропия источника помехи
причём равенство наступает лишь для источника помех без памяти. Таким образом, пропускная способность двоичного канала с памятью (6.38) больше пропускной способности Из формулы (6.34) видно, что На рис. 6.3 показана зависимость пропускной способности Заметим, что эта ситуация отличается от "обратной работы", описанной в гл. 5 и являющейся следствием квазикогерентного приёма ФМ сигналов. Дело в том, что скачки фазы там возникают в случайные моменты времени, приводя к участкам то правильной, то "обратной работы". Мы не знаем моментов скачков и поэтому не можем скорректировать их обратным декодированием. Модель такого канала отнюдь не эквивалентна Подчеркнём, что формула для пропускной способности Можно определить пропускную способность канала
где Аналогично условной энтропии можно ввести понятие средней условной взаимной информации. Ограничиваясь" для простоты случаем канала без памяти, получаем
Рис. 6.3. Зависимость пропускной способности
Однако в отличие от условной энтропии, для которой всегда справедливо неравенство (6.22), условная взаимная информация Помимо средней условной взаимной информации можно определить также среднюю взаимную информацию между парой
Между данными величинами существуют следующие соотношения |16|:
Для того чтобы наглядно пояснить разницу между величинами
где Тогда если у не зависит от Теоретико-информационные понятия, приведённые в данном разделе, можно рассматривать в двух аспектах: как развитие математического аппарата, примыкающего к теории вероятностей, и как характеристику, поясняющую процесс передачи информации по каналам связи с помехами. Действительно, мы знаем теперь, что средняя информативность источника может быть количественно оценена его энтропией, а каждому источнику, соединённому с каналом связи, можно приписать некоторое число, которое выражает количество информации, переданной по этому каналу. Более того, каждому каналу соответствует некоторое предельное количество информации, называемое его пропускной способностью, больше которого данный канал связи не может передать ни от какого из источников сообщений. Эта пропускная способность максимальна при отсутствии помех и равна нулю при потере статистической связи между входом и выходом канала Казалось бы, мы получили сведения, позволяющие нам значительно продвинуться вперед в направлении понимания процессов передачи сообщений по каналам с помехами. Однако это ещё лишь некоторое "предвосхищение результатов". Действительно, как мы можем использовать значение энтропии источника для чего-либо большего, чем тавтология, утверждающая, что он генерирует среднюю информацию, равную энтропии? Как превратить наше определение пропускной способности канала в более реальные в практическом отношении характеристики процесса передачи информации — надёжность и скорость передачи символов источника? Много это или мало, что пропускная способность одного канала больше другой на достаточным оказывается рассматривать данный раздел именно как развитие некоторого математического аппарата, доказывающего свойства этих специфических функций вероятностных распределений.
|
1 |
Оглавление
|