Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
4.3. БАЙЕСОВСКИЙ КЛАССИФИКАТОР В СЛУЧАЕ ОБРАЗОВ, ХАРАКТЕРИЗУЮЩИХСЯ НОРМАЛЬНЫМ РАСПРЕДЕЛЕНИЕМЕсли известно или с достаточными основаниями можно считать, что плотности распределения функций правдоподобия
которая полностью определяется двумя параметрами — средним значением определяются как
и
соответственно, где символ Итак, рассмотрим М классов образов, описываемых многомерными плотностями нормального распределения
где каждая плотность распределения полностью определяется вектором средних значений
и
где обозначает оператор математического ожидания, определенный на образах класса Ковариационная матрица С; является симметрической и положительно полуопределенной. Ее диагональный элемент Многомерная плотность нормального распределения полностью определяется Согласно соотношению (4.2.21), решающую функцию для класса
что полностью эквивалентно представлению (4.2.21) с точки зрения качества классификации, поскольку натуральный логарифм — монотонно возрастающая функция. Подстановка выражения (4.3.4) в (4.3.7) приводит к
Поскольку член
Выражения (4.3.8) и (4.3.9) представляют байесовские решающие функции для нормально распределенных образов. Читателю необходимо помнить, что эти решающие функции выводились для случая нулевых потерь при правильной классификации и равенства потерь при всех видах неправильной классификации. Решающие функции, определяемые формулами (4.3.8) и (4.3.9), являются гиперквадриками, поскольку видно, что ни один член выше второго порядка, составленный из компонент образа что наилучшим результатом применения байесовского классификатора к нормально распределенным образам служит построение обобщенных разделяющих поверхностей второго порядка для всех пар классов. Если, однако, совокупность образов действительно распределена нормально, то в среднем никакие поверхности другого типа не обеспечат получение лучших результатов. Если для всех
это выражение представляет множество линейных решающих функций. Если к тому же
Читатель должен узнать в (4.3.11) решающие функции классификатора, действующего по критерию минимума расстояния, для случая единственного эталона класса, причем в роли этого эталона выступает вектор средних значений образов, входящих в соответствующий класс. Из уравнения (4.3.10) следует, что разделяющая граница для классов
Из предшествующего обсуждения очевидно, что при равенстве ковариационных матриц определяемая формулой (4.3.12) разделяющая поверхность линейна относительно переменных, описывающих гиперплоскость. В тех случаях, когда ковариационные матрицы различны, разделяющая поверхность представляется суммой линейных и квадратичных членов, описывающих гиперквадрику. Можно показать, что линейные и квадратичные решающие функции обеспечивают при соответствующем выборе коэффициентов достижение теоретического оптимума не только при работе с плотностью нормального распределения, но и для ряда распределений других типов. Интерес к линейным и квадратичным дискриминантным функциям возникает также в связи с использованием их в качестве аппроксимаций первого и второго порядка произвольных отношений правдоподобия, поскольку при решении целого ряда прикладных задач эти функции являются практическим решением, которое может быть без особых проблем реализовано в виде специализированного устройства или машинной программы.
Рис. 4.3. Образы, использованные в иллюстрирующем примере; границы, их разделяющие, получены с помощью байесовской процедуры. Пример. Рассмотрим образы, изображенные на рис. 4.3. В § 4.6 будет показано, что векторы средних значений и ковариационные матрицы можно оценивать, используя следующие соотношения:
и
где через Применение этих выражений к образам, представленным на рис. 4.3, позволяет установить, что
Так как ковариационные матрицы равны, байесовские решающие функции для данного примера определяются из (4.3.10). Допустив, что
где
Выполнив разложения, приходим к следующим выражениям для решающих функций:
и
Искомая разделяющая поверхность определяется уравнением
Часть этой поверхности изображена на рис. 4.3. Обратите внимание на то, что она эффективно осуществляет дихотомию двух классов. Следует заметить, что хотя в данном случае метод привел к получению очень хороших результатов, байесовское классификационное правило, будучи статистической концепцией, не должно в принципе приводить к получению оптимальных результатов на малых выборках.
|
1 |
Оглавление
|