Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
3.7. ТЕОРЕМА КОДИРОВАНИЯ ДЛЯ КАНАЛА С ПОМЕХАМИПропускная способность канала, определенная в предыдущем параграфе, характеризует потенциальные возможности передачи информации. Они раскрываются в фундаментальной теореме теории информации, известной как основная теорема кодирования К. Шеннона. Применительно к дискретному источнику она формулируется так: если производительность источника сообщений
то существует способ кодирования (преобразования сообщения в сигнал на входе) и декодирования (преобразования сигнала в сообщение на выходе канала), при котором вероятность ошибочного декодирования и ненадежность
то таких способов не существует. Таким образом, согласно теореме К. Шеннона конечная величина С—это предельное значение скорости безошибочной передачи информации по каналу. Эта теорема, к сожалению, неконструктивна, т. е. она не указывает конкретного способа кодирования, существование которого доказывается. Тем не менее, значение теоремы трудно переоценить, ибо она в корне изменила воззрения на принципиальные возможности техники связи. До К. Шеннона считалось, что в канале с шумами можно обеспечить сколь угодно малую вероятность ошибки только при неограниченном уменьшении скорости передачи информации. Таков, скажем, путь повышения верности связи за счет повторении символов в канале без памяти. Например, сообщения двоичного источника
Если в месте приема регистрировать
при сколь угодно малом положительном Поскольку Заметим, что условие (3.69) можно записать так:
где Поэтому можно дать и другую формулировку основной теоремы К. Шеннона: если среднее число символов канала на одно сообщение источника
то существует способ кодирования и декодирования, обеспечивающий сколь угодно малую вероятность ошибки, если же
такого способа нет. Как следует из (3.74) с учетом 3.57, при двоичиом симметричном канале без памяти минимальное значение
Обсудим содержание теоремы Шеннона. Как отмечалось в § 2.9, для восстановления по пришедшему сигналу переданного сообщения необходимо, чтобы сигнал содержал о нем информацию, равную энтропии сообщения. Следовательно, для правильной передачи сообщения необходимо, чтобы скорость передачи информации была не меньше производительности источника. Так как по определению скорость передачи информации не превышает пропускной способности, то неравенство Конечно, при Положительный ответ на этот воцрос очевиден только в тривиальном случае, когда в канале нет помех и сигнал В принимается безошибочно. При этом Это значит, что производительность сигнала В должна быть выше производительности источника сообщения А и, следовательно, В содержит кроме информации об А дополнительную собственную информацию. Часть информации о сигнале В в канале теряется. Наш вопрос сводится к следующему: можно ли осуществить кодирование так, чтобы терялась только дополнительная (избыточная) часть собственной информации В, а информация об А сохранялась? Теорема Шеннона дает на этот вопрос почти положительный ответ, с той лишь поправкой, что скорость «утечки информации» (или ненадежность) Идея доказательства основной теоремы кодирования Шеннона для дискретного канала основана на случайном кодировании. Рассмотрим некоторое множество кодов и определим среднюю (по всему этому множеству кодов) вероятность ошибочного декодирования, которая в условиях теоремы окажется меньше наперед заданной величины Пусть при некотором ансамбле
В соответствии с теоремой об асимптотической равновероятности (см. § 2.8) число типичных последовательностей входных сигналов достаточно большой длительности Пусть передаче подлежат сообщения, выдаваемые дискретным источником, производительность которого меньше пропускной способности канала:
Рис. 3.12. (см. скан) Иллюстрация идеи случайного кодирования типичных последовательностей источника и возможных переходов типичных входных последовательностей в канале с шумами Число типичных последовательностей источника достаточно большой длительности Выполним указанное кодирование (сопоставление последовательностей источника и канала) всеми возможными способами. Очевидно, что число возможных кодов
Средняя вероятность ошибочного приема типичной последовательности источника может быть получена в предположении случайного выбора типичной кодовой последовательности сообщений той же длительности. При достаточно большом
Пусть принят некоторый выходной сигнал (последовательность символов) Установим следующее простое правило декодирования. При приходе некоторой реализации сигнала Ошибочное декодирование возможно в трех случаях: если среди Таким образом, среднюю по всем кодам вероятность ошибочного декодирования
где На основании (3.77) и
и так как по условию теоремы Вторая же часть непосредственно следует из того установленного выше факта, что условие В частном случае канала без помех, когда Теорема кодирования Шеннона справедлива и при передаче дискретных сообщений по непрерывному каналу. В этом случае под кодированием понимают отбор некоторого количества реализаций Доказательство этой теоремы для непрерывного канала аналогично доказательству для дискретного канала. Оно довольно сложно и. поэтому здесь не приводится. Заметим лишь, что вероятность ошибочного декодирования сигнала длительностью
где Подчеркнем важный результат, непосредственно следующий из формул (3.79) и (3.80): верность связи тем выше, чем больше Примеры практического применения кодирования для повышения верности передачи информации будут приведены в последующих главах.
|
1 |
Оглавление
|