Главная > Факторный анализ как статистический метод
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Глава 2. ОЦЕНКА ФАКТОРНЫХ НАГРУЗОК МЕТОДОМ МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ

2.1. Введение

В этой главе рассматривается проблема получения эффективных оценок факторных нагрузок и остаточных дисперсий и приводится числовой пример. Выводится также для больших выборок критерий, позволяющий решить, сколько факторов необходимо в каждом практическом случае анализа.

Обсуждение начинается с уже знакомых читателю уравнений (1.1). Эти уравнения постулируют основные предположения факторного анализа о том, что множество наблюденных коррелированных переменных можно описать меныиим числом гипотетических переменных или простых факторов и множеством независимых остатков; основной интерес представляют

2.2. Вывод уравнений для оценок

Как и ранее, предполагаем, что подчиняются многомерному нормальному распределению; их дисперсии и ковариации образуют матрицу Простые факторы предполагаются ортогональными (некоррелированными). Из уравнения (1.1) следует, что через нагрузки и остаточные дисперсии определяются формулами

В матричной записи это может быть записано как

где является матрицей нагрузок и V — диагональная матрица с элементами

Таким образом, основная модель заключается в выборе гипотезы о ковариационной матрице С, а именно: она может быть представлена в виде суммы диагональной матрицы с положительными элементами и матрицы ранга с положительными собственными значениями. Значение, принимаемое для должно быть не слишком большим, иначе эта гипотеза будет тривиальной. Если были бы известны, мы могли бы потребовать лишь но в более обычной ситуации, когда не известны, условие принимает вид (см. § 2.6).

Пусть выборочная ковариационная матрица, элементами которой являются обычные выборочные оценки дисперсий и ковариаций степенями свободы (соответствующая, как правило, выборке размера Наша цель — использовать информацию, заключенную в А, для получения состоятельных и эффективных оценок параметров считая их неизвестными.

Так как нормально распределены, то подчиняются распределению Вишарта и функция максимального правдоподобия (опуская члены, зависящие лишь от числа наблюдений) имеет вид

где элемент строки и столбца Сумма в (2.3) может быть записана так же, как

Для оценки неизвестных параметров применим метод максимального правдоподобия. Будем максимизировать выражение (2.3) по Как упоминалось в гл. 1, трудность возникает при так как тогда в основной модели слишком много -параметров для их однозначного определения. В уравнении (1.1) факторы могут быть заменены любым ортогональным преобразованием их. Это отражается на нагрузках в виде умножения справа на ортогональную матрицу. При любом таком умножении (а значит,

и С) остается неизменной. Это означает, что метод максимального правдоподобия приводит к единственным оценкам но для оценок ведет к уравнениям, которым удовлетворяет бесконечное число решений, одинаково хороших со статистической точки зрения.

В известном смысле эти уравнения определяют лишь -мерное пространство, в котором находятся но не могут определить их направления в этом пространстве. Все, что может сделать статистик в таком случае — это выбрать какое-либо простое частное решение и оставить экспериментатору выбор вращения, кажущегося ему предпочтительнее. Для разработки метода максимального правдоподобия мы выберем таким образом, чтобы матрица

была диагональной. Мы будем пренебрегать возможностью совпадения каких-либо диагональных элементов неравных на самом деле, и предположим, что они расположены в порядке убывания. Это фиксирует за исключением того, что некоторые столбцы могут иметь элементы с противоположными знаками.

Для максимизации приравняем к нулю частные производные по Чтобы получить их, заметим, что частная производная от по есть (Приложение

где обозначает кофактор Частная производная по есть Сумма в (2.3) может быть записана как

Частная производная от этого выражения по имеет вид

где в первой сумме и где обозначает кофактор Воспользовавшись равенством

(приложение , приведем это выражение к виду

Частная производная суммы в (2.3) по равна, очевидно,

Значит, равна

что является элементом строки и столбца матрицы

умноженному на , в то время как равна

что является диагональным элементом матрицы

умноженному на

Следовательно, оценки матрицы нагрузок, V — матрицы остаточных дисперсий и ковариационной матрицы задаются уравнениями

где обозначает матрицу, содержащую только диагональную часть X, и

Матрица

должна быть диагональной. Эти уравнения могут быть значительно упрощены. Для этой дели удобно опустить знак «крышки», так как это не может привести к путанице. Поэтому, пока не будет указано противное, и их элементы будут относиться к оцененным значениям. Умножив сначала равенство (2.4) справа на С, получим

Умножим теперь слева равенство (2.5) на и воспользуемся (2.6). Это дает

Умножая справа на V в этой же форме и используя затем (2.6), таким же образом получим

Значит, для всех или

Уравнение (2.6) все еще должно быть приведено к виду, удобному для практического решения. Мы воспользуемся тождеством

где та же, что и раньше. Это тождество легко проверить, если правую часть умножить на Умножение (2.9) слева на приводит к тождеству

Подставляя это тождество в (2.6), получим уравнение

которое можно привести к эквивалентному виду

или

Из уравнения (2.11) следует, что матрица

равна значит, диагональна.

Categories

1
Оглавление
email@scask.ru