Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше
Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике
9.3. Вычисление информативных признаков
Задача
анализа яркостной структуры (формы) объекта чаще всего сводится к аппроксимации
ее линейной комбинацией базисных функций. Если функция яркости задана на
целочисленной решетке плоскости, то базисные функции получают путем решения
алгебраической проблемы собственных значений для матриц изображений объектов. В
чем суть этого (и далеко не единственного) подхода?
Пусть
-
-матрица
изображения объекта. Если найдется вектор
, такой, что верно
, то
будет называться собственным
значением матрицы
,
а
-
соответствующий ему собственный вектор. Если матрица
нормальная, т. е.
, то она может быть
представлена в виде
, где
- ортогональная матрица размером
,
- столбцы матрицы
, a
- диагональная матрица с собственными
значениями матрицы
на
диагонали.
Данное спектральное разложение широко используют для распознавания
уникальных «матричных» объектов (заданных, например, элементами матрицы
), посредством
вычисления информативных признаков, которыми служат
собственных значений
[9.8, гл. 2].
Другой
часто используемый на практике тип разложения матриц -
сингулярное разложение (в английской аббревиатуре SVD -
singular value decomposition). Показано, что любую
- матрицу
можно
представить в виде
,
где
- ортогональная
матрица размером
,
-
ортогональная
-матрица,
а
имеет
специальную диагональную форму
,
где
и
- ранг матрицы
. Таким образом, SVD
матрицы
можно
записать в виде
,
где
-
столбцы матрицы
,
а
-
столбцы матрицы
.
Сингулярные значения
записываются как квадратные
корни из ненулевых собственных значений матрицы
, и
их можно использовать для поиска хорошей малоранговой аппроксимации исходной
матрицы, а следовательно, и в качестве информативных признаков «скрытого
образа» объекта.
Коротко
изложим также метод построения информативных признаков в статистическом
варианте путем разложения по собственным векторам ковариационной матрицы
ансамбля
наблюдаемых данных. Пусть дано множество
- матриц изображений объектов
; из них мы можем
сформировать обучающую выборку векторов-признаков
путем «лексикографического»
упорядочения (по столбцам) элементов изображений
. Базисные функции (соответствующие
знаменитому разложению Карунена-Лоэва [9.8, гл. 8]) получаются путем решения
проблемы собственных значений
, где
- ковариационная матрица ансамбля
исходных данных
,
,
где
- ковариация
-й и
-й
компонент векторов
, а
— дисперсия
-й компоненты
вектора измерений
.
- матрица,
составленная из собственных векторов
, а
- диагональная матрица из собственных
значений
.
При
построении информативного набора признаков исходят из частичного разложения
Карунена-Лоэва путем идентификации собственных векторов, соответствующих
наибольшим собственным значениям (выделение «главных компонент»
). Это связано с тем,
что каждый признак наряду с положительным вкладом в разделение несет в себе в
силу ограниченности выборки и шумовую (случайную) составляющую. Если вектор
содержит много неинформативных (или малоинформативных) признаков, то
отношение «сигнал/шум» (в смысле разделения) значительно лучше для группы
высокоинформативных признаков, чем для всей выборки [9.8]. Преобразование
к главным компонентам
имеет вид линейного преобразования
, где
— центрированный вектор признаков
(изображений), а
—
подматрица, составленная из главных собственных векторов. Это преобразование
выделяет малоразмерное подпространство, соответствующее в базисе Карунена-Лоэва
максимальным собственным значениям.