Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 4.2. Непрерывные каналы без памяти с дискретным временемВ этом параграфе будет рассмотрена прямая теорема кодирования. Хотя в дальнейшем будут рассматриваться только непрерывные каналы без памяти с дискретным временем, мы начнем с общего результата, который позволяет получать прямые теоремы кодирования не только в случае каналов без памяти. Этим результатом является неравенство Файнстейна, вывод которого для непрерывных каналов с дискретным временем в точности повторяет соответствующий вывод для дискретных каналов и поэтому здесь опускается. Ниже будет приведена только формулировка теоремы, устанавливающей это неравенство. Теорема 4.2.1 (неравенство Файнстейна), Пусть задан произвольный непрерывный канал с дискретным временем. Пусть
где
Читателю нетрудно догадаться, что при использовании неравенства Файнстейна для доказательства прямых теорем кодирования для непрерывных каналов с дискретным временем при ограничении
Теперь мы рассмотрим непрерывные каналы без памяти с дискретным временем и покажем, что в этом случае имеет место теорема, аналогичная теореме Из нее вытекает, что информационная емкость каналов без памяти может быть вычислена более простым образом, чем в определении 4.1.3, а именно верхнюю грань в (4.1.16) можно искать, полагая Пусть
Определим множество
Для каждой функции Теорема 4.2.2. Информационная емкость непрерывного канала без памяти с ограничением
где максимум разыскивается по всем ф. п. в. f (х) из множества Доказательство. Пусть
где
и
В неравенстве (4.2.8) равенство достигается в том случае, когда выходные сигналы канала в различные моменты времени статистически независимы (см. доказательство теоремы 3.5.1). Заметим, что в случае каналов без памяти независимость выходных сигналов обеспечивается выбором статистически независимых сигналов на входе, т. е. таким выбором, что
Средняя взаимная информация является выпуклой вверх функцией относительно входных распределений (см. § 2.5). Поэтому
где
и
причем
В неравенстве (4.2.12) равенство достигается в том случае, когда
Легко указать функцию
Очевидно, что Тем самым, мы показали, что
Теорема доказана. Теперь мы еще более сузим класс рассматриваемых непрерывных каналов, а именно, рассмотрим канал без памяти с дискретным временем и аддитивным гауссовским шумом. Предположим, что для любой случайной последовательности входных сигналов
причем случайные последовательности
где
Число Из (4.2.20) и статистической независимости
т. е. рассматриваемый канал является непрерывным каналом без памяти, в котором действует аддитивный гауссовский шум. Теорема 4.2.3. Информационная емкость непрерывного канала без памяти с дискретным временем, с аддитивным гауссовским шумом мощности
Доказательство. Для канала с аддитивным гауссовским шумом
где неравенство
Равенство в (4.2.25) достигается в том случае, когда с. в. Таким образом,
где максимум достигается выбором гауссовской ф. п. в. f (х) с параметрами Перейдем теперь к формулировке и доказательству прямой теоремы кодирования для непрерывных каналов без памяти с аддитивным гауссовским шумом. Теорема 4.2.4 (прямая теорема кодирования). Пусть С — информационная емкость непрерывного канала без памяти с дискретным временем и аддитивным гауссовским шумом мощности при ограничении Доказательство. Воспользуемся неравенством Файнстейна (теорема 4.2.1), в котором множество
Согласно теореме 4.2.1 для любой ф. п. в. f (х) на
где
Пусть
где
Рассмотрим среднюю взаимную информацию
где
или, что то же самое, уравнения
Из последнего соотношения видно, что — непрерывная функция Покажем, что при достаточно больших
В соответствии с (4.2.32) с. в.
для любого положительного числа Выберем параметр
Тогда при
Рассмотрим вероятность
Правую часть последнего соотношения можно оценить следующим образом:
В силу выбора
Наконец, найдется такое число
Таким сбразом, если
то при
Теорема доказана. Обратная и прямая теоремы кодирования позволяют теперь сформулировать следующее утверждение. Следствие 4.2.1. Пусть С — информационная емкость непрерывного канала без памяти с дискретным временем, аддитивным гауссовским шумом и ограничением на среднюю мощность входных сигналов. Пусть С — пропускная способность этого канала, т. е. такое максимальное число, что для любого положительного
|
1 |
Оглавление
|