Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
3.6. МАРКОВСКИЕ ИСТОЧНИКИНекоторые идеи последнего параграфа могут быть выявлены с особой ясностью, если рассмотреть частный класс источников, называемых марковскими источниками. Эти источники задаются множеством состояний, обозначаемых целыми числами Пусть
Предположим, что вероятность перехода в состояние зависит только от предыдущего состояния
Случайная последовательность состояний, для которой выполнены (3.6.1) и (3.6.2), называется конечной однородной цепью Маркова. Пусть
Предположим, наконец, что состояние источника однозначно определяется предыдущим состоянием и предыдущей буквой. Рис. 3.6.1 иллюстрирует работу марковского источника. Узлы соответствуют состояниям, а направленные ребра соответствуют буквам источника и переходам между состояниями.
Рис. 3.6.1. Марковский источник; на ребрах указаны выход а и вероятность Каждое ребро, направленное от данного узла, должно соответствовать различным буквам для того, чтобы новое состояние однозначно определялось по предыдущему состоянию и букве. Состояние марковского источника можно представить себе как тот объект, который определяет влияние истории источника на следующую букву. Так, например, стационарный источник, для которого каждая выходная буква статистически зависит лишь от Поучительно рассмотреть моделирование английского текста с помощью марковского источника. Шеннон (1948) привел примеры последовательностей, порождаемых такими моделями; в первой из них буквы зависят от одной или двух предыдущих букв, а во второй — слова зависят от предыдущего слова с соответствующим выбором вероятностей. Вот отрывок из этого последнего примера: The head and in frontal attack on an english writer that the character of this point is therefore another method Хотя этот пример является чистой тарабарщиной, он довольно похож на осмысленный текст. На самом деле мы не можем моделировать текст с помощью случайного процесса достаточно точно. Очевидно, что имеется существенная разница между текстом медицинского словаря и текстом первой детской книги для чтения. Из-за этой разницы теорема кодирования для источника не может быть применена к английскому тексту и нельзя точно определить его энтропию. Вместе с тем, используя некоторые статистические зависимости английского языка, можно более эффективно описывать текст в сравнении с описанием, которое не использует эти зависимости. Приведем здесь без доказательств некоторые свойства конечных однородных цепей Маркова. Состояние Состояния любой конечной однородной цепи Маркова могут быть однозначно разбиты на одно или большее число неразложимых множеств состояний и множество (быть может пустое) невозвратных состояний. С вероятностью 1 цепь в конце концов оказывается в одном из неразложимых множеств и, конечно, остается в нем. Число переходов, начиная из некоторого состояния Эргодическое множество состояний
Более того, для любых
где сходимость к пределу экспоненциальна по Можно заметить, что вероятности в (3.6.1)-(3.6.4) не описывают полностью источник. Необходимо еще указать, когда источник начинает работу и каково начальное распределение вероятностей для состояний. Если состояния источника принадлежат некоторому данному эргодическому множеству состояний, начиная со сколь угодно далекого прошлого, то
и источник является стационарным и эргодическим согласно определениям этого параграфа. Вместе с тем, если источник начинает работу с заданного конечного момента времени из заданного состояния, то он не является стационарным и эргодическим, так как у него нет прошлого и так как имеется начальная неустойчивость в вероятности. Проблема переходного режима много серьезнее для периодических множеств состояний, чем для эргодических множеств. Для периодического множества состояний с периодом Сейчас мы исследуем энтропию марковского источника. Энтропия выходной буквы источника в заданный момент времени при условии, что задано текущее состояние источника, равна
Затем найдем энтропию выхода источника при условии, что задано некоторое частное состояние в некоторый момент в прошлом и заданы промежуточные выходы источника. Лемма.
Доказательство. По определению марковского источника состояние
где является состоянием, определяемым
Логарифмируя обе части равенства (3.6.11) и усредняя по
Суммируя правую часть равенства по Отметим, что доказательство этой леммы существенно опирается на предположение, что состояние источника определяется предыдущим состоянием и выходной буквой. Вычисления левой части (3.6.10) для источников, не удовлетворяющих этому условию, крайне искусственны и сложны. Любое заданное распределение вероятностей для состояния
Для стационарного эргодического марковского источника
Рассмотрим теперь энтропию на букву последовательности букв источника при условии, что задано начальное состояние
Отсюда согласно (3.6.12) имеем
где
Отсюда видно, что
В пределе при
Этот предел всегда существует, хотя вообще он зависит от распределения вероятностей для
Рассмотрим далее безусловную энтропию на букву последовательности источника. Имеем
Средняя взаимная информация в правой части приведенного выше выражения ограничена
Обозначая левую часть (3.6.20) через
Следующая теорема подытоживает полученные результаты. Теорема 3.6.1. Энтропия на букву марковского источника задается равенством (3.6.21), где Исследование неравномерных кодов для источника, проведенное для дискретных стационарных источников, непосредственно применимо к марковским источникам, однако для марковского источника возможны некоторые упрощения. В (3.5.11) среднее число кодовых букв на букву источника для кодирования сразу
Чтобы получить этот результат, используются различные коды для различных начальных состояний. Длина кодового слова, соответствующая последовательности
Так же как и в теореме 3.3.1, эти длины удовлетворяют неравенству Крафта для каждого начального состояния, и средняя длина кодового слова Усредняя по состояниям, деля на ИТОГИ И ВЫВОДЫЭта глава преследовала три цели: первая — выяснить смысл энтропии; вторая — получить некоторый навык работы с последовательностями событий и третья — узнать, как закодировать источники, используя минимальное среднее число кодовых вероятности получения последовательности источника с неоднозначно приписанным кодовым словом. Для неравномерного кода достижение такого В гл. 9 будет рассмотрена намного более общая задача кодирования для источника, в которой источник не нужно будет воспроизводить точно, а лишь с некоторым заданным критерием верности. Другая важная проблема кодирования для источника, которая не была здесь затронута, состоит в том, как конструировать коды, удовлетворяющие определенным ограничениям. Так, например, имеется значительная литература по кодам, обладающим свойством синхронизации. Это такие коды, для которых бесконечная закодированная последовательность может быть декодирована начиная с середины последовательности. Следует помнить, что для болыпинства реальных источников центральные проблемы не являются теоретико-информационными проблемами представления источника, а состоят в более субъективных проблемах определения, что имеется ценного на выходе источника. ИСТОРИЧЕСКИЕ ЗАМЕЧАНИЯ И ССЫЛКИДругое рассмотрение затронутых здесь вопросов (в особенности, содержащихся в первых четырех параграфах) можно найти у Эбрамсона (1963), Фано (1961), Эша (1965) и Шеннона (1948). Теорема кодирования для источника (теорема 3.1.1) была получена Шенноном (1948), который развил большинство концепций этой главы. Шеннон также установил теорему для случая, когда буквы источника имеют неравные длительности и когда источник является марковским. Как указано в тексте, процедура построения оптимального кода, изложенная в § 2.4, принадлежит Хаффману (1952). Кодирование для источника, обладающее свойством синхронизации, было изучено Голомбом, Гордоном и Велчем (1958), Кендаллом и Ридом (1962), Истманом (1965), Шольцем (1966) и другими. Теорема 3.5.3 была получена Макмилланом (1953) и часто называется АЕР-свойством эргодических источников. Макмиллан доказал
|
1 |
Оглавление
|