Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 8. ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛОВ. ВАЖНЫЕ ЧАСТНЫЕ СЛУЧАИ КАНАЛОВДанная глава посвящена второй вариационной задаче, в которой отыскивается экстремум шенноновского количества информации по различным входным распределениям. Канал, т. е. условное распределение на его выходе при фиксированном входном сигнале, предполагается известным. Максимальное значение количества информации называется пропускной способностью. В отличие от традиционных способов изложения здесь с самого начала вводится дополнительное условие, касающееся среднего значения некоторой функции от входных переменных, т. е. рассматривается условная вариационная задача. Результаты, относящиеся к случаю отсутствия условия, получаются как частный случай приводимых общих результатов. В соответствии с характером изложения, принятым в настоящей книге, вводятся потенциалы, через которые выражается условная пропускная способность. Более подробно разбирается ряд важных частных случаев каналов, для которых удается получить результаты в более явном виде. Так, для случая гауссовых каналов общие результирующие формулы, имеющие матричный вид, находятся путем применения матричной техники. Изложение в настоящей главе ведется, в основном, применительно к случаю дискретных случайных величин х, у. Многие рассуждения и результаты, однако, непосредственно переносятся на более общий случай путем изменения обозначения (например, замены 8.1. Определение пропускной способности каналовВ предыдущей главе предполагалось, что статистически заданы не только помехи в канале, описываемые условными вероятностями Между тем, распределение
где с
К требованиям такого типа относится, например, ограничение средней мощности передатчика. Тогда канал будет характеризоваться совокупностью распределения Пропускной способностью канала
где максимизация идет по всем В результате указанной максимизации можно найти оптимальное распределение
или хотя бы
где Теорема
где
Для того чтобы вывести эту теорему из теоремы 7.1, очевидно достаточно подобрать такое распределение С. Вследствие (8.1.3), (8.1.5) это можно сделать. Аналогичным образом на каналы Согласно определению (8.1.3) пропускной способности канала с помехами ее вычисление сводится к решению определенной экстремальной задачи. Аналогичная ситуация встречалась в § 3.2, 3.3, 3.6, где рассматривалась пропускная способность канала без помех. Разница между этими двукя случаями в том, что раньше максимизировалась энтропия, а теперь шенноновское количество информации. Несмотря на это различие, между данными экстремальными задачами имеется много общего. В отличие от прежней экстремальной задачи настоящую задачу будем называть второй экстремальной задачей теории информации. Экстремум (8.1.3) обычно достигается на границе допустимого диапазона (8.1.1) средних штрафов, поэтому условие (8.1.1) можно заменить односторонним неравенством типа (8.1.2) или даже равенством
(где а совпадает с Рассматриваемый канал не обязан быть дискретным. Все сказанное выше относится и к тому случаю, когда случайные величины х, у являются произвольными: непрерывными, комбинированными и т. п. При абстрактной формулировке задачи следует рассматривать абстрактное пространство Тогда система
в обобщенной версии (см. § 6.4). При этом сравниваются различные распределения
|
1 |
Оглавление
|