Главная > Основы моделирования и первичная обработка данных
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

10.5.2. Главные компоненты.

Главными компонентами многомерного признака называют систему ортонормированных линейных комбинаций исходных признаков

    (10.22)

где математическое ожидание признака В дальнейшем, если не оговорено противное, будем считать, что данные центрированы так, что При этом линейные комбинации выбираются следующим образом. Среди всех линейных нормированных комбинаций исходных признаков вида (10.22) первая главная компонента обладает наибольшей дисперсией. Геометрически это означает, что первая главная компонента ориентирована вдоль направления наибольшей вытянутости эллипсоида рассеивания исследуемой совокупности. Вторая главная компонента имеет наибольшую дисперсию среди всех линейных преобразований вида (10.22), некоррелированных с перрой компонентой. Она представляет собой проекцию на направление наибольшей вытянутости наблюдений в гиперплоскости, перпендикулярной первой главной компоненте. Третья главная компонента имеет наибольшую дисперсию среди всех линейных комбинаций вида (10.22), некоррелированных с первой и второй главными компонентами, и т. д. Более формально это означает, что набор из q первых главных компонент является оптимальным по критерию

    (10.23)

где — дисперсия главной компоненты; — дисперсия признака

Вычисление коэффициентов главных компонент основано на том факте, что векторы являются собственными (характеристическими) векторами (см. [12, с. 455—459.]) матрицы ковариаций исследуемой совокупности, т. е. удовлетворяют системе уравнений

Соответствующие собственные числа равны дисперсиям главных компонент. Если теперь собственные векторы упорядочить в порядке убывания собственных чисел то первой главной компоненте соответствует собственный вектор с максимальным собственным числом и второй главной компоненте соответствует

собственный вектор со следующим по значению собственным числом и т. д.

Всего существует собственных векторов матрицы и, следовательно, главных компонент. Ковариационная матрица главных компонент будет иметь вид:

Так как преобразование U от исходных признаков к главным компонентам является ортогональным, то имеют место соотношения

т. e. обобщенная дисперсия и сумма дисперсий главных компонент равны обобщенной дисперсии и сумме дисперсий исходных признаков. Следовательно, величина критерия (10.23) для первых q главных компонент равна:

    (10,23)

т. е. равна доле суммарной дисперсии, «объясненной» первыми q главными компонентами. Чем ближе значение этого критерия к 1, тем, можно ожидать, меньшебудет искажена картина взаимного расположения экспериментальных точек при их проектировании на гиперплоскость, натянутую на q первых главных компонент.

Замечание 1. На практике теоретическое значение

2 большей частью неизвестно, поэтому вместо него берут выборочную ковариационную матрицу и говорят о главных компонентах выборки. В том случае, когда из контекста ясно, о каких главных компонентах идет речь, термин «выборочный» мы будем опускать. Принято также термином «главная компонента» называть не только скаляр но и соответствующий ему собственный вектор

Замечание 2. Использование метода главных компонент наиболее естественно и плодотворно, когда все компоненты исследуемого вектора имеют общую физическую природу и соответственно измерены в тех же единицах. В случае когда признаки измеряются в разных единицах, результат может существенно зависеть от выбора масштаба измерения. Поэтому в подобных случаях часто переходят к безразмерным величинам, нормируя . Например, с помощью преобразования , где — дисперсия

Categories

1
Оглавление
email@scask.ru