Главная > Факторный анализ как статистический метод
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Глава 2. ОЦЕНКА ФАКТОРНЫХ НАГРУЗОК МЕТОДОМ МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ

2.1. Введение

В этой главе рассматривается проблема получения эффективных оценок факторных нагрузок и остаточных дисперсий и приводится числовой пример. Выводится также для больших выборок критерий, позволяющий решить, сколько факторов необходимо в каждом практическом случае анализа.

Обсуждение начинается с уже знакомых читателю уравнений (1.1). Эти уравнения постулируют основные предположения факторного анализа о том, что множество наблюденных коррелированных переменных можно описать меныиим числом гипотетических переменных или простых факторов и множеством независимых остатков; основной интерес представляют

2.2. Вывод уравнений для оценок

Как и ранее, предполагаем, что подчиняются многомерному нормальному распределению; их дисперсии и ковариации образуют матрицу Простые факторы предполагаются ортогональными (некоррелированными). Из уравнения (1.1) следует, что через нагрузки и остаточные дисперсии определяются формулами

В матричной записи это может быть записано как

где является матрицей нагрузок и V — диагональная матрица с элементами

Таким образом, основная модель заключается в выборе гипотезы о ковариационной матрице С, а именно: она может быть представлена в виде суммы диагональной матрицы с положительными элементами и матрицы ранга с положительными собственными значениями. Значение, принимаемое для должно быть не слишком большим, иначе эта гипотеза будет тривиальной. Если были бы известны, мы могли бы потребовать лишь но в более обычной ситуации, когда не известны, условие принимает вид (см. § 2.6).

Пусть выборочная ковариационная матрица, элементами которой являются обычные выборочные оценки дисперсий и ковариаций степенями свободы (соответствующая, как правило, выборке размера Наша цель — использовать информацию, заключенную в А, для получения состоятельных и эффективных оценок параметров считая их неизвестными.

Так как нормально распределены, то подчиняются распределению Вишарта и функция максимального правдоподобия (опуская члены, зависящие лишь от числа наблюдений) имеет вид

где элемент строки и столбца Сумма в (2.3) может быть записана так же, как

Для оценки неизвестных параметров применим метод максимального правдоподобия. Будем максимизировать выражение (2.3) по Как упоминалось в гл. 1, трудность возникает при так как тогда в основной модели слишком много -параметров для их однозначного определения. В уравнении (1.1) факторы могут быть заменены любым ортогональным преобразованием их. Это отражается на нагрузках в виде умножения справа на ортогональную матрицу. При любом таком умножении (а значит,

и С) остается неизменной. Это означает, что метод максимального правдоподобия приводит к единственным оценкам но для оценок ведет к уравнениям, которым удовлетворяет бесконечное число решений, одинаково хороших со статистической точки зрения.

В известном смысле эти уравнения определяют лишь -мерное пространство, в котором находятся но не могут определить их направления в этом пространстве. Все, что может сделать статистик в таком случае — это выбрать какое-либо простое частное решение и оставить экспериментатору выбор вращения, кажущегося ему предпочтительнее. Для разработки метода максимального правдоподобия мы выберем таким образом, чтобы матрица

была диагональной. Мы будем пренебрегать возможностью совпадения каких-либо диагональных элементов неравных на самом деле, и предположим, что они расположены в порядке убывания. Это фиксирует за исключением того, что некоторые столбцы могут иметь элементы с противоположными знаками.

Для максимизации приравняем к нулю частные производные по Чтобы получить их, заметим, что частная производная от по есть (Приложение

где обозначает кофактор Частная производная по есть Сумма в (2.3) может быть записана как

Частная производная от этого выражения по имеет вид

где в первой сумме и где обозначает кофактор Воспользовавшись равенством

(приложение , приведем это выражение к виду

Частная производная суммы в (2.3) по равна, очевидно,

Значит, равна

что является элементом строки и столбца матрицы

умноженному на , в то время как равна

что является диагональным элементом матрицы

умноженному на

Следовательно, оценки матрицы нагрузок, V — матрицы остаточных дисперсий и ковариационной матрицы задаются уравнениями

где обозначает матрицу, содержащую только диагональную часть X, и

Матрица

должна быть диагональной. Эти уравнения могут быть значительно упрощены. Для этой дели удобно опустить знак «крышки», так как это не может привести к путанице. Поэтому, пока не будет указано противное, и их элементы будут относиться к оцененным значениям. Умножив сначала равенство (2.4) справа на С, получим

Умножим теперь слева равенство (2.5) на и воспользуемся (2.6). Это дает

Умножая справа на V в этой же форме и используя затем (2.6), таким же образом получим

Значит, для всех или

Уравнение (2.6) все еще должно быть приведено к виду, удобному для практического решения. Мы воспользуемся тождеством

где та же, что и раньше. Это тождество легко проверить, если правую часть умножить на Умножение (2.9) слева на приводит к тождеству

Подставляя это тождество в (2.6), получим уравнение

которое можно привести к эквивалентному виду

или

Из уравнения (2.11) следует, что матрица

равна значит, диагональна.

1
Оглавление
email@scask.ru