Главная > Статистический синтез при априорной неопределенности и адаптация информационных систем
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

15.4. МНОГОШАГОВОЕ РАСПОЗНАВАНИЕ ОБЪЕКТОВ, ХАРАКТЕРИСТИКИ КОТОРЫХ ЗАВИСЯТ ОТ НЕИЗВЕСТНЫХ ПАРАМЕТРОВ

Приведем простой пример применения полученных выше результатов, относящийся к задаче распознавания образов. Допустим, что производится распознавание объектов, которые могут относиться

к одному из двух классов. Объекты предъявляются для опознавания по очереди. Общее число предъявляемых объектов Известно, что среди них имеется К объектов первого класса и объектов второго класса. Любой рассматриваемый объект равновероятно может относиться к первому либо ко второму классу.

На каждом шаге процесса распознавания наблюдается некоторая векторная случайная величина (совокупность наблюдаемых параметров, обязанных своим происхождением объекту). Например, при наблюдении объектов с помощью световых сигналов, от них полученных, в состав могут входить измеренные значения координат объекта, средней интенсивности светового сигнала, с ним связанного, протяженности объекта и т. д. Предположим, что величины могут быть представлены в виде

где

вектор шумов, который будем считать гауссовым, обладающим нулевым математическим ожиданием и корреляционной матрицей векторы неизвестных параметров наблюдаемых сигналов; векторы известных функций параметров а, и соответственно.

Таким образом, считаем, что измеренное значение каждой из наблюдаемых величин, на основе которых производится распознавание, состоит из истинного значения, зависящего от совокупности неизвестных параметров и шумовой добавки, отражающей ошибки измерения. Будем считать статистически независимыми между собой, т. е. шумовые добавки при наблюдениях различных объектов независимы.

Если переобозначить таким образом, чтобы означали наблюдаемые величины в тех случаях, когда были установлены при помощи анализа потерь ситуации наблюдаемые величины при то при введенных предположениях

где - плотности вероятности величин в соответствующих ситуациях при заданных величинах параметров

Условие принятия первой гипотезы (15.3.4) принимает при этом вид

где

— оценки максимального правдоподобия, первые из которых получены в предположении наличия на шаге ситуации а вторые — ситуации При больших либо при высокой информативности сигналов добавление к предыдущим наблюдениям мало изменяет оценки параметров Кроме того, часто мало меняются даже при значительных изменениях Поэтому приближенно правило (15.4 3) может быть заменено более простым правилом

где оценки находятся из уравнений правдоподобия, которые в сформулированных условиях, очевидно, принимают вид

— градиенты по составляющим векторов

При наложенных выше условиях плотности вероятности определяются как

и алгоритм (15.4.4) сводится к тому, что объект относится к первому классу, если

Подставляя (15.4.6) в (15.4.5), имеем следующие уравнения для

Векторные уравнения (15.4.8) выражают системы уравнений, получающиеся при вычислении производных по всем компонентам векторов

Для определения правой части неравенства (15.4.7), т. е. порога, сравнение с которым величины в левой части дает основание для принятия первой либо второй гипотезы, запишем прежде всего вероятности

Легко видеть, что при наложенных условиях и определении Я, при помощи (15.4.1)

так что

Смысл (15.4.9) вполне ясен. Получившееся отношение вероятностей определяется отношением числа оставшихся испытаний к оставшемуся числу ситуаций первого рода. Когда это отношение равно единице, ситуаций второго рода быть не может и Находя входящие в (15.3.5), имеем

где априорные плотности вероятности для параметров и , которые предполагаются статистически независимыми; матрицы:

в которых

Так как полученное приближенное решение справедливо при «широких» априорных распределениях практически на всех шагах, кроме, быть может, самых первых,

В большинстве задач рассматриваемого типа асимптотически с ростом числа уже прошедших наблюдений 1-

В результате величина порога

Этот же порог получается при применении процедуры оптимизации § 6.2.

Адаптивность полученного алгоритма распознавания проявляется, во-первых, в зависимости функции наблюдаемых величин, сравниваемой с порогом, от оценок параметров обстановки, полученных в результате обработки всех данных, имеющихся к шагу наблюдений. Во-вторых, эта адаптивность проявляется в зависимости порога от числа ситуаций первого рода (а следовательно, и второго рода), уже проявившихся на предыдущих шагах наблюдений и ставших известными по величинам потерь на этих шагах.

1
Оглавление
email@scask.ru