Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
1.2. Взаимная информация и пропускная способность каналаШеннон предложил методы надежной передачи информации по каналу связи с шумом, введя меру количества информации о переданном сообщении, содержащейся в наблюдениях на выходе канала. С этой целью он ввел понятие взаимной информации между событиями модели. Ясно, что соображения согласованности с нашим предыдущим определением информации накладывают следующие граничные условия. 1. Если события 2. Если наступление Указанные два граничные условия окажутся удовлетворенными, если мы определим взаимную информацию между событиями
Заметим, что это определение симметрично по обоим событиям, поскольку Нас интересует в первую очередь взаимная информация между входом и выходом канала связи. Практически все рассматриваемые в этой книге каналы будут сводиться к каналам с дискретным временем. Такие каналы можно рассматривать как случайные отображения случайной величины В гл. 2 рассматриваются каналы разных типов, в которых искажения вызваны аддитивным белым гауссовским шумом. Дадим формальное определение дискретного канала без памяти. Определение. Дискретный канал без памяти (ДКБП) характеризуется дискретными входным 86 и выходным алфавитами и набором условных вероятностей выходных символов при условии передачи каждого входного символа. Заданные условные вероятности будем обозначать через
По определению, выражение (1.2.2) — условие отсутствия памяти. Теперь введем, наиболее часто используемый тип ДКБП. Определение. Двоичный симметричный канал (ДСК) представляет собой ДКБП, у которого
Это иллюстрируется диаграммой на рис. 1.4.
Рис. 1.4. Двоичный симметричный канал
Рис. 1.5. Канал с аддитивным гауссовским шумом Наше определение ДКБП легко обобщить на каналы, у которых алфавиты не являются дискретными. Обычным примером служит канал с аддитивным гауссовским шумом, к определению которого мы и переходим. Определение. Канал без памяти с дискретным входом и аддитивным гауссовским шумом представляет собой канал без памяти с дискретными входным
где Это определение иллюстрируется диаграммой на рис. 1.5, где
В гл. 2 мы подробнее обсудим этот и другие каналы. В настоящей главе речь идет только о дискретных каналах без памяти. Пусть имеется некоторый ДКБП с входным 86 и выходным алфавитами и условными вероятностями
Как и в случае с источниками, нас в первую очередь интересует среднее количество информации на выходе канала относительно его входа. Мы определяем, следовательно, среднюю взаимную информацию между символами на входе и выходе ДКБП как
Средняя взаимная информация Определение. Пропускная способность ДКБП представляет собой максимум средней взаимной информации по всем возможным входным распределениям вероятностей. Иначе говоря,
Пример. (ДСК.) По соображениям симметрии пропускная способность приведенного на рис. 1.4 ДСК с переходной вероятностью Поэтому
При Пропускная способность определяется только по заданным характеристикам канала. И хотя мы предполагаем их заданными, фактически максимизация с целью получения значения пропускной способности, вообще говоря, трудна. Максимизацию или минимизацию функций от вероятностных распределений часто можно осуществить, пользуясь теоремой Куна-Таккера (см. приложение 3Б). В гл. 3 мы найдем необходимые и достаточные условия, которым должны удовлетворять входные вероятности, на которых достигается пропускная способность. Аналогичные условия максимума других функций, возникающих при анализе систем цифровой связи, будут найдены позднее. В приложении Лемма 1.2.1.
где Доказательство. Нижняя граница находится с помощью неравенства
причем равенство нулю справедливо тогда и только тогда, когда Верхняя граница для
Из (1.1.8) следует, что
причем равенство достигается тогда и только тогда, когда Рассмотрим последовательность входных случайных величин длины N и обозначим ее через
для каждого
где Поскольку рассматривается канал без памяти, средняя взаимная информация между
где Лемма 1.2.2.
причем равенство в неравенстве, задающем нижнюю границу, достигается тогда (но не только тогда), когда Доказательство. Из леммы 1.2.1 следует
для любого распределения вероятностей
Тогда, в силу равенства
имеем
причем равенство достигается тогда и только тогда, когда Лемма 1.2.3. Рассмотрим три случайные величины каналов служит х, а выходной — у, которая в свою очередь служит входной величиной второго канала со случайной величиной на выходе
которое означает, что х связано с
и
Рис. 1.6. Последовательно включенные каналы Доказательство.
где мы опять воспользовались неравенством
где последнее равенство представляет собой следствие соотношения (1.2.19). Объединяя (1.2.22) с (1.2.23), получим
Второе неравенство получается аналогичным способом
Рис. 1.7. Система обработки данных Рассмотрим рис. 1.7, где предполагается, что и представляет собой последовательность случайных величин длины Можно считать, что кодер в целом работает с последовательностью и длины
и
Объединяя эти неравенства, получаем теорему об обработке данных. Теорема 1.2.1. Теорема об обработке данных. Для системы, приведенной на рис. 1.7, справедливо неравенство
Указанный результат справедлив в предположении, что каждая последовательность оказывает влияние на последующие последовательности так, как это показано на рис. 1.7, т. е. и связана с только через х, последняя связана с
где С — пропускная способность ДКБП Приведенные свойства средней взаимной информации легко получились на основании простых неравенств и определений. Взаимная информация может принимать отрицательные значения, однако средняя взаимная информация отрицательной быть не может. Далее, средняя взаимная информация между выходом и входом ДКБП неотрицательна и обращается в нуль, только если выход не зависит от входа. Включение дополнительных устройств между входом и выходом приводит к уменьшению средней взаимной информации, поскольку каждое включение ослабляет зависимость между входом и выходом. В приложении 1А приведены другие свойства средней взаимной информации. Хотя эти свойства обсуждаются там применительно к каналам, все они справедливы и для более общих ситуаций. Теорема об обработке данных, например, применима даже тогда, когда кодер, канал и декодер (см. рис. 1.7) заменяются произвольными устройствами переработки данных. Чтобы уяснить смысл введенных понятий взаимной информации, средней взаимной информации и пропускной способности канала, исследуем задачу, в которой сообщения с выхода источника посылаются по каналу связи. Покажем, что в случае, когда энтропия источника превышает пропускную способность канала, система связи не может работать с произвольно малой ошибкой независимо от сложности системы кодирования. Этот негативный результат называют обращением теоремы кодирования.
|
1 |
Оглавление
|