Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.3. ПРЕОБРАЗОВАНИЯ КЛАСТЕРИЗАЦИИ И УПОРЯДОЧЕНИЕ ПРИЗНАКОВНе все измерения характеристик образа, соответствующие отдельным координатным осям в равной степени важны для определения класса, которому принадлежат сходные образы. При сопоставлении двух образов последовательным сравнением признаков измерениям с меньшей значимостью следует приписать меньшие веса. Назначение весов признаков можно осуществить посредством линейного преобразования, которое обеспечит более благоприятную группировку точек, представляющих образы, в новом пространстве. Рассмотрим векторы образов
где
причем элементы Итак,
Каждый элемент преобразованного вектора образа представляет собой линейную комбинацию элементов исходного вектора образа. В новом пространстве евклидово расстояние между векторами
В тех случаях, когда линейное преобразование сводится к изменению масштабных коэффициентов координатных осей, матрица
где элементы Из материала предыдущего параграфа следует, что в новом пространстве внутреннее расстояние для множества точек, представляющих образы, определяется как
где Случай 1. Ограничение Минимизация
Возьмем частную производную от
где
Итак, весовой коэффициент признака равен
Из (7.3.5) заключаем, что значения коэффициента В данном случае преобразование кластеризации было осуществлено посредством «взвешивания» признаков. Интуитивно понятно, что малая дисперсия Случай 2. Ограничение Минимизация
Взяв частную производную от (7.3.8) по весовому коэффициенту
где
Таким образом, весовой коэффициент признака определяется выражением
значение этого коэффициента обратно пропорционально среднеквадратичному отклонению Формулы (7.3.7) и (7.3.11) определяют матрицу преобразования
то внутреннее расстояние множества в пространстве X минимизируется. Теперь требуется провести второе преобразование
для того, чтобы выделить компоненты, имеющие малую (или большую) дисперсию, обеспечив таким образом возможность провести упорядочение и выбор признаков. Это преобразование превратит ковариационную матрицу точек, представляющих образы в пространстве X, в диагональную. Более того, матрица преобразования А должна быть ортонормированной для того, чтобы расстояния оставались неизменными. Задача заключается в выражении матрицы А посредством собственных векторов известной ковариационной матрицы. Пусть С — ковариационная матрица для точек, представляющих образы в пространстве X, а
и
где
В этом выражении Е — оператор математического ожидания. Ковариационная матрица в пространстве X определяется как
поскольку Подобным же образом можно легко показать, что
Так как матрица А — ортонормированная, то
В таком случае мы приходим к
это выражение представляет преобразование подобия. Хорошо известно, что преобразование подобия дает диагональную матрицу С, если в качестве матрицы Пусть
Матрица А выбирается так, чтобы
и так как собственные векторы образуют ортонормированное множество, то
Воспользовавшись уравнением (7.3.18), можно записать
так как
Матрица А преобразует ковариационную матрицу С в диагональную, элементами которой являются несмещенные оценки выборочной дисперсии. Результаты измерений, которым соответствуют малые дисперсии, более надежны и могут считаться более существенными признаками. Описанная процедура исследования ковариационной матрицы не позволяет связать простой зависимостью собственные векторы матрицы
то
где
Ковариационная матрица после преобразования кластеризации будет иметь вид
Так как все матрицы Соотношения среднеквадратичного расстояния и отношения правдоподобия Здесь устанавливается связь между отношением правдоподобия, рассмотренным в гл. 4, и среднеквадратичным расстоянием; для этого используются преобразования, описанные выше. Рассмотрим плотность нормального распределения
где С — ковариационная матрица, Для исследования ковариационной матрицы осуществляется ортонормирующее преобразование
где строками матрицы А служат нормированные собственные векторы ковариационной матрицы С. Это преобразование облегчает установление связи между отношением правдоподобия и среднеквадратичным расстоянием. После преобразования вектор математического ожидания и ковариационная матрица определяются как
и
соответственно. Пусть
На основе формул (7.3.27) и (7.3.28) получаем
и
Итак, плотность распределения в пространстве X определяется выражением
Это выражение для плотности распределения показывает, что кривыми равной вероятности являются эллипсоиды с центрами в точке т. Направления главных осей совпадают с собственными векторами ковариационной матрицы, а диаметры пропорциональны квадратному корню от соответствующих характеристических чисел или среднеквадратичных отклонений, поскольку
где Среднеквадратичное расстояние, отделяющее точку — произвольный образ
Усреднение проводится но всем матрицы становятся строками матрицы А:
поскольку А — ортоиормироваиная матрица и При выполнении преобразования кластеризации
среднеквадратичное расстояние принимает вид
Выбранная матрица Матрица
Следовательно, среднеквадратичное расстояние определяется выражением
которое после выполнения соответствующих операций можно представить в виде
Поскольку усреднение проводится по всем (7.3.39) можно привести к
где
то формула (7.3.40) превращается в
В таком случае, если опустить константу
и, аналогичным образом, среднеквадратичное расстояние для класса
Исходя из принципа расстояния, решающее правило можно сформулировать в таком виде:
Для образов, подчиняющихся нормальному распределению, плотность распределения или функция правдоподобия для класса
После осуществления ортонормирующего преобразования выражение (7.3.45) принимает вид
Точно так же для класса
Если мы прологарифмируем и опустим постоянные члены, то получим решающие функции
и
В таком случае решающее правило, основанное на этих двух функциях, гласит, что На основе проведенного анализа можно сделать вывод о том, что аппроксимация заданных выборок наблюдений для классов образов плотностями нормального распределения эквивалентна нахождению среднеквадратичных расстояний для соответствующих классов после осуществления преобразования кластеризации над пространством измерений.
|
1 |
Оглавление
|