Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ПРИЛОЖЕНИЕ Б. КОДИРОВАНИЕ. КОДЫ, ОБНАРУЖИВАЮЩИЕ ОШИБКИБ1. ВведениеВвиду большого значения теории кодирования для многих комбинаторных задач автору показалось целесообразным включить в настоящую книгу приложение, посвященное этой теории. В этом автору содействовал В основном тексте книги мы намеренно не касались теоретико-вероятностных приложений комбинаторики, так как они широко освещаются в сочинениях по теории вероятностей Здесь мы отступим от этого правила. Б2. Передача r-выборкиПередача информации по линии связи осуществляется, как показано на схеме рис. 528 Источник информации уподобляется случайной величине
Рис. 528 При кодировании каждый символ источника заменяется последовательностью букв некоторого другого алфавита Очевидно, что каждой
Рис. 529. Колебание сигнала вокруг его среднего значения вызывается «шумом», который можно характеризовать вероятностью смешения двух разных букв алфавита. Определение линии передачи. Пусть на вход линии подается
а на выходе принимается
Линия характеризуется множеством вероятностей перехода, т. е. вероятностей того, что поданная на вход
Эти вероятности могут зависеть от состояния
В этом случае говорят о «линии с памятью». В противном случае говорят о «линии без памяти» и тогда
В общем случае линия характеризуется случайной величиной X на входе, принимающей значения роятностями
Имеем
Распределение У целиком определяется распределением X и матрицей перехода. Для данной линии распределение вероятностей на входе однозначно приводит к некоторому распределению вероятностей на выходе, но обратное утверждение неверно. Вероятности
можно получить из
имеем
Важный частный случай представляет собой двоичная симметрическая линия, которая описывается так:
Матрица перехода
Граф перехода можно изобразить на рис. 530, а саму линию представить на рис. 531. Характеризующая шум на линии вероятность Основной проблемой при передаче информации является ограничение действия шума на линии. Очевидно, что влияние шума тем меньше, чем больше вероятности (которые вычисляются по формуле тому, чтобы определить правило принятия решения, по которому, наблюдая
Рис. 530
Рис. 531. Другими словами, надо найти правило, которое позволило бы обнаруживать ошибки: более того, могло бы указать наиболее вероятную Мера информации и энтропия. Информацию мы будем рассматривать как некоторую физическую реальность, которую можем попытаться измерить. Величиной информации, полученной при наблюдении события
Единица измерения информации, конечно, зависит от основания логарифма. Средняя величина информации для полной системы X попарно взаимноисключающих событий называется энтропией системы и выражается формулой
Таким образом, энтропия определяется как математическое ожидание случайной величины X, принимающей значения Можно определить некоторые энтропии для линии связи:
Взаимная информация и пропускная способность линии. Выражение
определяет «взаимную информацию» (information mutuelle). Оно имеет большое значение, так как позволяет измерить «прирост» информации при наблюдении выхода линии, и с его помощью определяется весьма существенная характеристика линии, называемая пропускной способностью Под этим понимается максимальное значение взаимной информации, где максимум берется по всевозможным распределениям на входе:
Исходя из этих определений, Шеннон показал, что если взять закон распределения, дающий максимум, то это приведет к устранению влияния шума на линии. Чем ближе подходить к этому пределу, тем незначительнее действие шума и тем меньше вероятность ошибки Пример 1. Рассмотрим код Фано для двоичной симметрической линии. Для такой линии вероятностным законом, приводящим к максимальному значению а) расположить сообщения в порядке возрастания их вероятности; б) разбить сообщения на два подмножества так, чтобы вероятности сообщений внутри каждого из подмножеств были возможно более близки друг к другу; в) приписать каждому из подмножеств двоичный знак, например, первому — нуль, а второму — единицу; г) произвести операции б) и в) с каждым из подмножеств. Продолжают так до тех пор, пока все сообщения не окажутся закодированными. Предположим, например, что из источника 5 передаются сообщения
Закодируем эти сообщения, как показано в таблице:
Среднее число двоичных знаков кодированного сообщения
В идеальном случае среднее число двоичных знаков в сообщении равно
единиц информации на сообщение. Эффективность кодирования можно измерять отношением
Чем это отношение ближе к единице, тем кодирование лучше. Пример 2. Пусть линия передачи определяется случайной величиной X на входе, принимающей значение
Вычислим вероятности
Для этого используем
откуда имеем
Вероятности и
Имеем
откуда
Примечания. 1) Из элементов матрицы 2) Если задана матрица
|
1 |
Оглавление
|