Главная > Работы по теории информации и кибернетики (1963)
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Дискретный канал без памяти с дополнительной информацией о состоянии

Рассмотрим канал, который имеет конечное число возможных состояний При каждом использовании канала выбирается новое состояние; состояние выбирается с вероятностью Этот выбор является статистически независимым от предыдущих состояний и предыдущих входных и выходных букв в канале. Состояние известно на передающем конце, оно представляет собой дополнительную информацию. Когда имеет место состояние канал действует подобно обычному дискретному каналу Поэтому его действие определяется совокупностью переходных вероятнот стей где число входных букв, число выходных букв. В совокупности таким образом, канал описывается множеством вероятностей состояний и переходными вероятностями где — вероятность состояния, — условная вероятность того, что будет принято если при состоянии канала было передано

Блоковый код для М сообщений (перенумерованных числами может быть для такого канала дополнительной инфор?

мацией определен следующим образом. Это определение, между прочим, аналогично тому, которое было дано ранее для канала с обратной связью. Пусть длина блокового кода. Тогда существуют функций . В этих функциях пробегает множество возможных сообщений и поэтому . Все пробегают все значения алфавита дополнительной информации. В рассматриваемом здесь частном случае каждое из может принимать значения от 1 до Каждая функция принимает значения в алфавите входных букв канала х. Величина является входом который следует использовать в коде, если сообщением является а дополнительная информация вплоть до момента, соответствующего состоит из Это является математическим эквивалентом утверждения о том, что код представляет собой правило определения следующей передаваемой буквы по каждому сообщению и заданной дополнительной информации о состоянии канала от начала блока до настоящего момента. Существенным здесь является то, что при выборе следующей передаваемой буквы могут быть использованы только имеющиеся к данному моменту (а именно, а не дополнительная информация которая еще не получена.

Система декодирования для такого кода представляет собой отображение, или функцию принятых блоков длины значением которых являются сообщения поэтому Л принимает значения от 1 до М. Таков способ выбора декодированного сообщения, которое ставится в соответствие всему принятому блоку

Для некоторой заданной совокупности вероятностей и для некоторых заданных каналов, кодирующей и декодирующей систем существует поддающаяся вычислению вероятность ошибки которая является вероятностью того, что некоторое сообщение будет закодировано и принято таким образом, что функция даст на выходе сообщение, отличное от переданного. В частности, будем интересоваться случаями, когда сообщения равновероятны; каждое имеет вероятность, равную Скоростью передачи информации для такого кода является величина Нас интересует пропускная способность канала С, т. е. наибольшая скорость такая, что возможно выбрать коды со скоростями, произвольно близкими к скорости и с произвольно малой вероятностью ошибки .

Можно отметить, что если бы дополнительная информация о Состоянии канала не поступала бы на передающий конец, то канал

действовал бы подобно каналу без памяти с переходными вероятностями

При этом условии, следовательно, пропускная способность могла бы быть вычислена обычными методами, существующими для каналов без памяти. С другой стороны, если бы дополнительная информация имелась как на передающем, так и на приемном концах, то, как легко показать, пропускная способность в этом случае выражалась бы формулой где — пропускная способность канала без памяти с переходными вероятностями Рассматриваемый здесь случай является промежуточным: дополнительная информация имеется на передающем, но не имеется на приемном конце.

Теорема. Пропускная способность дискретного канала К без памяти с дополнительной информацией, которая определяется значениями равна пропускной способности канала К без памяти (и без дополнительной информации) с тем же самым выходным и входным алфавитом, состоящим из входных букв где каждое а. Переходные вероятности для канала К имеют вид

Любой код и система декодирования для К могут быть переведены в некоторые эквивалентные код и систему декодирования для К с той же самой вероятностью ошибки. Любой код для К имеет неопределенность сообщений (условную энтропию на букву сообщения принятой последовательности) не большую, чем где С — пропускная способность Любой код со скоростью обладает вероятностью ошибки, ограниченной снизу неравенством (при произвольной длине блока

Можно заметить, что эта теорема сводит исследование данного канала К с дополнительной информацией к исследованию канала без памяти, обладающего большим числом входных букв, но не имеющего дополнительной информации. Для определения пропускной способности этого вновь полученного канала К можно использовать уже известные методы и в результате вычислить пропускную способность исходного канала. Более того, коды для вновь полученного канала могут быть переведены в коды исходного

канала без изменения вероятности ошибки. (На самом деле все статистические свойства кодов остаются теми же самыми.)

Покажем сначала, каким образом коды для канала К могут быть переведены в коды для канала К? Кодовое слово для вновь полученного канала К состоит из последовательности букв, принадлежащих входному алфавиту X канала Любая заданная буква X для этого канала может быть представлена как некоторая функция, определенная на алфавите состояний канала и принимающая значения во входном алфавите х канала К? Весь возможный алфавит X состоит из полного множества всех возможных функций, определенных на алфавите состояний с элементами, со значениями во входном алфавите с элементами. Таким образом, каждая буква кодового слова для канала может быть интерпретирована как функция от состояния и, принимающая значения во входном алфавите х. Перевод кодов заключается просто в формировании входа х, даваемого этой функцией от состояния канала. Таким образом, если аргумент — состояние и принимает значение 1, то по каналу К передается если же состояние то передается Другими словами, перевод является простым побуквенным переводом без памяти, привносящей зависимость от предыдущих состояний.

Коды для канала К представляют собой просто иной способ описания некоторых из кодов для канала а именно таких кодов, в которых следующая входная буква х является функцией лишь сообщения и текущего состояния и и не зависит от предыдущих состояний.

Можно указать также, что не трудно сконструировать простой физический прибор, который, будучи помещенным перед каналом К, сделал бы его сходным с каналом Этот прибор имел бы алфавит X на одном входе и алфавит состояний на другом (этот вход был бы присоединен к линии и на рис. 1). Его выход принимал бы значения в алфавите х и был бы соединен с линией х на рис. 1. Работа прибора заключалась бы в том, чтобы давать выход х, соответствующий значению функции X от состояния и. Ясно, что если произвести перевод кодов, то статистические характеристики для каналов К, и К окажутся идентичными. Вероятность того, что некоторое входное слово для канала будет принято как некоторое фиксированное выходное слово, является той же самой для соответствующей операции в канале К.. Это показывает справедливость первой половины теоремы.

Для того чтобы доказать вторую половину теоремы, покажем, что в первоначальном канале К приращение условной энтропии (неопределенности) сообщения при приеме на приемном конце одной буквы не может превзойти С (пропускную способность нового канала Пусть на рис. 1 будет сообщение; х, у и и

будут следующей входной буквой, выходной буквой и буквой состояния соответственно. Пусть будет последовательностью предыдущих состояний и, имевших место от начала кодового блока до настоящего момента (точно до и), будет последовательностью предыдущих выходных букв вплоть до текущей буквы у. Предположим теперь, что задан блоковый код для кодирования сообщений. Эти сообщения выбираются из некоторого множества с определенными вероятностями (не обязательно равными). При заданных статистике источника сообщений, системе кодирования и статистике канала эти величины и принадлежат все некоторому вероятностному пространству, и различные вероятности, включенные в последующие вычисления, имеют смысл. Таким образом, неопределенность сообщения при уже принятом представляется в виде

(Символ здесь и в дальнейшем означает математическое ожидание или среднее значение по вероятностному пространству.) Приращение неопределенности при приеме следующей буквы у равно

Последнее неравенство является справедливым в силу того, что член представляет собой среднюю взаимную информацию и, следовательно, является неотрицательным. Заметим теперь, что из требований независимости в нашей первоначальной системе следует, что

Далее, так как является однозначной функцией системой кодирования, то его можно опустить при указании переменных в условии

В силу того что новое состояние и не зависит от предыдущего,

После подстановки и упрощения получим

Суммирование по и дает

Поэтому

Используя это в неравенстве (1), получаем

Покажем теперь, что Здесь X — случайная величина, описывающая функцию, переводящую задаваемая операцией кодирования следующего входного символа х в канале. Или, что то же самое, X соответствует входной букве в новом канале К. Имеем Более того, из задания системы кодирования вытекает наличие функционального соотношения, определяющего следующую входную букву х по заданным . Поэтому . Если для некоторых двух заданных пар при всех и имеет место равенство , то отсюда следует, что для всех и и у, так как и и приводят к тем же самым буквам х, что и . Пользуясь этим, получим условие Иначе говоря, пары приводящие к одной и той же функции приводят к одной и той же величине или, что эквивалентно,

Возвращаясь теперь к неравенству (2), получаем

Это неравенство и требовалось получить для выражения неопределенности. Для каждой принимаемой буквы неопределенность не может уменьшиться более чем на С — пропускную способность нового канала К. В частности, в блоковом коде с равновероятными сообщениями . Если то при окончании блока неопределенность должна еще оставаться по крайней мере равной так как вначале она равна и может уменьшаться самое большее лишь на величину С для каждой из букв.

Если, как показано в приложении, неопределенность на одну букву равна по крайней мере то вероятность ошибки при декодировании ограничена следующим неравенством:

Таким образом, в случае, когда делается попытка использовать код со скоростью то вероятность ошибки оказывается отличной от нуля, какова бы ни была длина блока Этим заканчивается доказательство теоремы.

В качестве примера рассмотрим канал с двумя выходными буквами, произвольным числом а входных букв и произвольным числом состояний. При этом новый канал К обладает двумя выходными буквами и входными буквами. Однако в канале, у которого имеются ровно две выходные буквы, для того чтобы достичь пропускной способности, нужно, как показано в работе автора, использовать лишь две входные буквы; именно в канале К использовать только те две буквы, одна из которых обладает максимальной, а другая минимальной вероятностями перехода к одной из выходных букв. Эта пара может быть найдена следующим образом. Переходные вероятности для какой-либо буквы из алфавита канала К являются средними соответствующих переходных вероятностей для множества букв канала К, взятых по одной для каждого состояния. Ясно, что для того, чтобы максимизировать переходную вероятность к одной из выходных букв, требуется выбрать для каждого состояния букву с максимальной вероятностью перехода в эту выходную букву. Подобно этому, для минимизации нужно выбрать для каждого состояния букву с минимальной вероятностью перехода в указанную букву. При использовании лишь этих двух результирующих букв в канале К получим, что соответствующий канал даст желаемую пропускную способность. Формально, в случае, когда данный канал в состоянии имеет вероятность перехода входной буквы в выходную 1 и вероятность перехода к другой выходной букве 2, имеем

Канал К, у которого две входные буквы обладают переходными вероятностями соответственно для двух

выходных букв, имеет пропускную способность, совпадающую с пропускной способностью первоначального канала К-

Рассмотрим еще следующий пример канала с тремя выходными буквами, двумя входными буквами и тремя состояниями. Предположим, что вероятность каждого из состояний равна V и матрицы вероятностей для этих трех состояний имеют вид

В этом случае в новом канале К имеются входных букв. Они образуют следующую матрицу:

Если имеются лишь три выходные буквы, то нужно использовать только три входные буквы, чтобы достичь пропускной способности канала. В рассматриваемом случае, как легко показать, можно (а фактически и необходимо) использовать первые три буквы. Из-за симметрии эти три буквы должны быть употреблены с равными вероятностями; результирующая пропускная способность канала в этом случае равна

Нетрудно заметить, что если бы в исходном канале не имелось бы информации о состоянии, то канал работал бы подобно каналу с матрицей вероятностей перехода

Ясно, что такой канал обладает нулевой пропускной способностью. С другой стороны, если бы на приемном конце или и на приемном, и на передающем концах имелась бы информация о предыдущем состоянии, то обе входные буквы могли бы быть полностью различимы и пропускная способность равнялась бы

1
Оглавление
email@scask.ru