Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
13.6. РАСПОЗНАВАНИЕ ОБРАЗОВ ПРИ ПАРАМЕТРИЧЕСКОМ РАЗЛИЧИИ РАСПРЕДЕЛЕНИЙ ВЕРОЯТНОСТЕЙ СВЯЗАННЫХ С НИМИ СИГНАЛОВВ предыдущих параграфах была рассмотрена задача распознавания образов, т. е. классификации некоторых объектов наблюдения, ситуаций, процессов и т. д., на основании наблюдения случайных физических сигналов — носителей информации об этих «образах». При этом предполагалось, что законы распределения вероятностей для наблюдаемых сигналов известны не полностью, а с точностью до совокупности дополнительных параметров «обстановки» и различны в распознаваемых ситуациях. Это различие и являлось принципиальной основой распознавания. Однако практически часто встречается случай, в котором модели сигналов, связанные с описанием соответствующей физики явлений, одинаковы для различных распознаваемых ситуаций и отличаются в разных ситуациях лишь величинами некоторых параметров. Это приводит к построению единого закона распределения для всех сигналов, зависящего помимо неизвестных параметров «обстановки» еще и от информативных параметров, величинами которых и могут различаться наблюдаемые объекты, процессы и пр. Априорные знания о различии законов распределения этих, вообще юворя, случайных информативных параметров являются в данном случае единственной основой распознавания. Так обстоит дело, например, при наблюдении световых или радиолокационных сигналов, полученных от объектов, которые могут иметь одинаковую (возможно, в статистическом смысле) форму, но различные для распознаваемых классов законы распределения для характерных размеров. Так же обстоит дело при медицинской диагностике заболеваний, если законы распределения наблюдаемых величин, таких, как температура тела, вес больного, параметры, фиксируемые при анализе крови, и т. д., зависят от некоторых состояний организма, а не непосредственно от причин, их вызвавших. Законы же распределения упомянутых состояний организма могут различаться при разных болезнях. Можно привести примеры подобных ситуаций, относящиеся и к другим областям. Нас, однако, интересуют в соответствии с общим характером этой книги не столько примеры, сколько общие закономерности и алгоритмы. Получим оптимальный алгоритм распознавания описанных ситуаций, приведем пример его применения, для которого проанализируем эффективность распознавания. 13.6.1. Алгоритм распознаванияПусть наблюдается Во многих практически интересных задачах область изменения параметров Поэтому обозначим Будем считать, что заданы априорные плотности вероятности
для выборки
Здесь, как обычно, При двухальтернативном распознавании в соответствии с (13.1.1) оптимальное правило выбора первой ситуации сводится к выполнению неравенства
и, следовательно, если произведены вычисления плотностей вероятности (13.6.1), никакой задачи, отличной от Однако точные вычисления (13.6.1), особенно при большой размерности параметров применим приближенный метод, неоднократно излагавшийся в гл. 6, 7 для вычисления (13.6.1) либо для вычисления плотности вероятности
и входящей в алгоритм распознавания при применении процедуры оптимизации, предложенной в § 6.5. Здесь Введя оценку по максимуму апостериорной вероятности
можно записать (13.6.4) в виде
где
Пусть точка у находится внутри области
лежит внутри
где
Приближение (13.6.9) основано на разложении членов разложения в ряд, который дает отличное от нуля значение при интегрировании, может быть записано как
где
При выполнении условия, заключающегося в том, что
где
Таким образом, введены требования, при выполнении которых произведение
и минимизация апостериорного риска приводит к следующему очевидному правилу принятия решения в пользу
В частном случае двухальтернативных задач неравенства
или
При соблюдении противоположного неравенства принимается решение 2. Практически часто удобно применять условие (13.6.17) в виде
Обычно зависимость от Таким образом, в некоторых обычно удовлетворяющихся предположениях найдены близкие к оптимальным алгоритмы распознавания. Можно, однако, ввести дальнейшие приближения. Допустим, что точка максимального правдоподобия у, удовлетворяющая условию (13.6.8), относится ко всем областям Найдем условие приближенного совпадения точек
где
Учитывая, что
условием малости
Количественно условие малости определяется исходя из требования, чтобы в точках
При выполнении этого условия и условия, согласно которому
Если при этом
т. е. соблюдаются условия гладкости функций
где множитель В обеих частях неравенства (13.6.16) этот множитель может быть сокращен, в результате чего условие принятия
где В двухальтернативном случае
Таким образом, в сформулированных выше условиях квазиоптимальный алгоритм распознавания двух ситуаций, отличающихся законами распределения некоторой совокупности параметров Легко усмотреть, что полученное решение справедливо также при применении адаптивного байесова подхода, изложенного в § 6.2. В случае узкого по сравнению с размерами областей весьма малы по сравнению с соответствующими величинами для областей, к которым принадлежит В этом случае можно предложить заменить оптимальный алгоритм (13.6.16) алгоритмом (13.6.28), в котором часть величин В случае весьма малых и удаленных от точки
При двухальтернативном распознавании это означает, что правило принятия первой гипотезы принимает вид
Этот алгоритм, отличающийся от оптимального алгоритма (13.6.18) при известных априорных распределениях
|
1 |
Оглавление
|