Главная > Селекция и распознавание на основе локационной информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

6.7.3. ВЕРОЯТНОСТЬ ОШИБКИ ПРИ АДАПТАЦИИ

Показатель точности адаптивных оценок косвенно связан с вероятностью ошибки распознавания. Пусть, например, и всегда известен состав распознаваемой группы, т. е. адаптация идеальна. Тогда при

где — коэффициент Бхаттачария.

Положив, что доля объектов первого класса в группе может колебаться относительно среднего с дисперсией усредним по всем возможным последнее неравенство. Это приведет к зависимости

Определим верхнюю границу для вероятности ошибки адаптациипри

где .

Анализ приведенных зависимостей показывает, что при максимально возможные вероятности ошибок при адаптации меньше, чем при распознавании целей по одной.

Выполнение условия не всегда гарантирует снижение вероятности ошибочного распознавания. Симметричные погрешности относительно вероятности в общем случае не приводят к одинаковому увеличению числа неправильно распознанных объектов. Поэтому кроме косвенной меры эффективности адаптации желательно использовать и непосредственные оценки вероятностей ошибок.

Они могут быть получены в интегральном виде. Так, при и известных законах распределений вероятностей величины и ее оценки справедливо равенство

где — априорно известные зависимости условных вероятностей ошибок от величины оценки вероятности используемой для принятия решений.

Сходным образом могут быть записаны аналитические выражения для средней вероятности ошибки при адаптации тогда, когда

Рассмотрим еще один способ интегральной оценки величины . Будем считать, что а оценка числа объектов первого класса рассчитывается по формуле где — некоторые параметры. В соответствии с правилом идеального наблюдателя объекты будем распознавать, сравнивая отношение правдоподобия с порогом

Сопоставив выражения для запишем условие принятия решения в виде

где — сумма значений функции вычисленных для всех объектов группы, кроме распознаваемого объекта. Преобразование полученного выражения приводит к решающему правилу

Вероятности ошибок соответствующие применению адаптивных алгоритмов, можно оценить следующим образом. Из зависимости, полученной путем замены в (6.22) неравенства равенством, определяется уравнение разделяющей поверхности. Ее форма зависит от параметров . Интегрируя в пределах областей принятия решений функции можно найти условные вероятности ошибок Вероятности ошибок, характеризующие качество адаптации, найдем, усреднив функции по всем возможным при данном размере группы значениям сумм

где — закон распределения вероятностей случайной суммы а запись означает, что интегрирование ведется по области принятия решений в пользу класса

Для отыскания функции представим сумму в виде двух слагаемых где — сумма функций характеризующих все объекты класса в группе, кроме распознаваемого. Если он принадлежит классу сумма содержит слагаемое, а сумма слагаемых,

Распределение вероятностей суммы можно найти путем свертки закона распределения функции столько раз, сколько слагаемых содержит сумма . В свою очередь, функция определяется в результате композиции законов

Очевидно, что вид функции и вероятности ошибок будут зависеть от числа объектов каждого класса в группе и

Если известны законы формирования групп объектов, то вероятности и можно дополнительно усреднить по всем значениям Полученные выражения будут зависеть только от параметров и . Если подставить их в уравнение для средней вероятности ошибки и решить потом систему уравнений

то можно определить пару оптимальных коэффициентов

1
Оглавление
email@scask.ru