Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ГЛАВА 3. НЕЛИНЕЙНЫЕ МЕТОДЫ ВОССТАНОВЛЕНИЯ ИЗОБРАЖЕНИЙ3.1. ТЕОРЕТИКО-ИНФОРМАЦИОННЫЕ МЕТОДЫБольшой класс нелинейных методов восстановления изображений использует понятия статистической теории связи применительно к описанию изображения и процесса его формирования. Этот подход тесно связан с лучевой моделью формирования изображения (см. § 1.3) и основывается на представлении изображения как некоторой плотности вероятности, что позволяет легко выполнить важное ограничение на неотрицательность значений изображения. По существу, мы имеем дело с введением этого ограничения путем выбора адекватной модели, описывающей процесс формирования изображения. Действительно, по физическому смыслу плотность вероятности не может быть отрицательной, следовательно, решения, получаемые на основе статистических моделей неотрицательны из-за свойств самих моделей. Для ознакомления со статистическими моделями необходимо рассмотреть некоторые основные понятия статистической теории связи. Основными элементами произвольной системы связи являются источник сообщений, канал связи и приемник (рис. 3.1). В теории информации задаются случайные характеристики источника и канала связи. Так, простейшим классом источников является дискретный источник без памяти, выходом которого служит последовательность сообщений («букв»)
Рис. 3.1. Классическая схема системы связи
Произвольное событие
Условная вероятность того, что исходом У является
По вероятностной модели принято определять информационные параметры, не вдаваясь в конкретное содержание процессов, образующих модель. Пусть, например,
Это количество информации можно рассматривать как случайную величину; если же мы оперируем с ансамблем, то средняя взаимная информация ансамблей
Средняя взаимная информация определяет информацию об ансамбле X, содержащуюся в ансамбле У. Раскроем выражение (3.2), получим:
Здесь
Выражение
Будем рассматривать дискретный канал без памяти, характеризующийся вероятностью приема
С учетом (3.6) уравнение (3.2) будет
Выражение (3.7) для дискретного канала без памяти называется шенноновской информацией [13]. Одной из основных задач теории информации является отыскание такого распределения вероятностей на входе канала связи, которое максимизирует функцию (3.7), т. е. обеспечивает максимальную пропускную способность канала. Эта задача может быть записана следующим образом:
при условиях
Нетрудно видеть, что максимизация пропускной способности приводит к решению нелинейной задачи с ограничениями. Остановимся теперь на информационном подходе к описанию изображений. Классический вариант такого подхода оперирует со следующими основными параметрами вероятностной модели: алфавит источника — дискретизированные уровни яркости изображения, вероятностная мера — относительные частоты данных уровней (значения гистограммы
Рис. 3.2. Статистическая модель источника: алфавит — уровни яркости; мера — гистограмма изображения изображения). Таким образом, мы получаем ансамбль Альтернативный подход к вероятностному описанию изображений дается лучевой моделью формирования (см. § 1.3). Если говорить о формальном смысле такого подхода, то он сводится к изменению алфавита источника и вероятностной меры. Если же говорить о физическом смысле, то речь идет о поиске модели, адекватно описывающей формирование изображения. Приведем простой пример. Изображения, приведенные на рис. 3.3, имеют одинаковую гистограмму, однако являются представителями различных классов изображений. На рис. 3.3,а девять черных квадратов объединены в один большой квадрат, в то время как на рис. 3.3, б те же девять квадратов хаотически разбросаны по полю рисунка.
Рис. 3.3. Примеры изображений, имеющих одинаковую гистограмму: а — сплошной объект; б - набор случайных точек; в — связный объект Наконец, на рис. 3.3, в изображена цифра «4», набранная из тех же квадратов. Если руководствоваться гистограммой, то все эти изображения имеют одинаковую вероятностную меру: вероятность уровня черного равна 1/4, а вероятность уровня белого равна 3/4 (общий формат изображений Таким образом, необходимо использовать такую модель, которая для каждого конкретного случая могла бы давать свою вероятностную меру, однозначно определяемую изображением. Мы будем основываться на интерпретации лучевой модели как формального представления дискретизированного изображения в виде набора «энергетических» составляющих. Пусть изображение представляется в виде
где В нашей схеме можно связать интервалы параметра
Рис. 3.4. Модель источника сообщений на основе лучевой модели: алфавит — координаты точек: мера — интенсивность излучения При таком подходе изображение можно рассматривать как параллельно формируемый случайный поток Остановимся на отличиях этой модели от классической модели, представленной на рис. 3.2. Классическая модель оперирует с понятием случайной последовательности на выходе источника. Она основывается на последовательном представлении временных сигналов: в каждый момент времени на выходе появляется некоторый символ, вероятность которого априорно известна. Такая ситуация имеет место в приборах с разверткой изображений. Модель, соответствующая рис. 3.4, напротив, оперирует с понятием случайного потока, подчеркивая параллельность формирования изображения. Здесь в один и тот же момент времени наблюдается процесс выпадания случайных точек в различных координатах, а плотность вероятности, заданная на алфавите, однозначно определяется интенсивностью изображения. Это обстоятельство позволяет использовать аппарат математической статистики и теории информации для оценивания исходного изображения, так как рассматриваемая задача оказывается эквивалентной задаче оценивания плотности распределения вероятностей. Линейную систему формирования изображений можно характеризовать неотрицательной нормированной весовой функцией системы, приобретающей смысл переходной вероятности канала. Пусть соответственно Функционал взаимной информации по Шеннону
где правая часть соответствует средней информации, содержащейся в выходном изображении относительно входного [96]. Энтропия входного изображения:
Нас будет интересовать оценка плотности распределения. Для устранения неоднозначности решения целесообразно искать из всех возможных решений такое, о котором в выходном изображении содержится максимум информации по (3.8). Этот критерий называется критерием максимума информации [118]. Задача использования критерия максимума информации в известном смысле обратна классической задаче определения пропускной способности канала. Действительно, здесь мы обрабатываем данные о выходном изображении Решение, получаемое из критерия максимума информации, записывается следующим образом [96, 97]:
Максимизация (3.10) производится при учете следующих ограничений:
Смысл критерия (3.10) становится ясным, если рассмотреть некоторые вероятностные соотношения. Раскроем логарифм в (3.8), получим
где
Учитывая, что
Возвращаясь к процессу формирования изображения, рассмотрим все возможные переходы из произвольной точки
где
Используя формулу Стирлинга, получим
Сравнивая (3.14) и (3.13), находим, что поиск решения, минимизирующего среднюю функцию правдоподобия ошибки, оказывается эквивалентным решению задачи максимизации информации, содержащейся в выходном ансамбле относительно входного. В приведенном примере мы столкнулись с ситуацией, характерной для информационных критериев качества — вводится некоторый функционал качества, заданный на «лучах», и ищется его экстремальное значение. Если обратиться к вероятностному смыслу проводимых преобразований, то описанный метод можно рассматривать как обобщение методов статистической регуляризации при теоретико-информационном подходе к описанию изображений. Вернемся к задаче максимизации информации. Нами получено, что для нахождения решения необходимо найти минимум функционала условной энтропии: Для решения этой задачи можно предложить два пути. Первый из них состоит во введении сложной структуры переходной вероятности канала [97]:
Здесь
Значения шума учитываются путем использования уравнений формирования изображения:
Кроме того, при минимизации функционала (3.16) должны выполняться следующие условия:
Они связаны с требованиями нормировки и неотрицательности плотности вероятности. На основе (3.17) — (3.18) строится вычислительная схема, решение которой позволяет найти оценку входного изображения. Вторым путем может служить минимизация функционала условной энтропии с учетом регуляризации задачи и необходимых ограничений. Общие методы регуляризации подобных задач будут рассмотрены в § 3.3; здесь отметим лишь, что введение в схему вычислений некоторого дополнительного функционала позволяет сделать ее устойчивой. При втором пути требуется минимизировать
при ограничениях:
Отметим основные особенности этой задачи. Во-первых, основной функцирнал нелинеен, следовательно, задача нелинейна. Во-вторых, решением может являться только неотрицательная функция, что означает избавление от некоторых недостатков линейных методов восстановления. Эти обстоятельства определяют основные достоинства теоретико-информационного подхода. Однако решение подобной задачи сопряжено со значительными трудностями (см. гл. 7).
|
1 |
Оглавление
|