Главная > Факторный, дискриминантный и кластерный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

ВЫБОРОЧНЫЙ РАЗБРОС И РАЗЛИЧНЫЕ КРИТЕРИИ КАЧЕСТВА ОЦЕНОК

До сих пор мы рассматривали идеализированную ситуацию, когда однофакторная модель точно соответствует данным без разброса, вызванного выборкой. В этой ситуации скрытая модель идентифицируется абсолютно точно. Если же в наблюдениях появляется разброс, связанный с выборкой, зависимости, проявляющиеся в выборке, уже не будут точно соответствовать генеральной совокупности. Даже если однофакторная модель безошибочна для генеральной совокупности, она не будет абсолютно точно воспроизводить корреляции в выборочных данных. Поэтому мы вынуждены ввести критерии близости оценок и истинных значений факторов. Существуют три таких критерия.

Регрессионный анализ

Первый критерий сводится к нахождению оценки (F) значения фактора (F), доставляющей максимум коэффициента корреляции между .

В другом представлении этот критерий сводится к минимизации суммы квадратов отклонений Использование этого критерия обусловливает применение регрессионного анализа. Такой подход возможен, ибо факторный анализ дает значения факторных нагрузок, которые представляют собой корреляции между факторами (подлежащими оцениванию) и наблюдаемыми переменными (выступающими здесь в роли предикторов). При этом корреляции между предикторами являются не чем иным, как наблюдаемыми корреляциями. Эти две последовательности коэффициентов корреляции и представляют исходные данные для решения системы нормальных уравнений. Оценки значений факторов задаются тогда соотношением

где В — матрица факторных нагрузок; -вектор наблюдаемых переменных, a R — корреляционная матрица наблюдаемых переменных. Заметим, что весовые коэффициенты определяются из заранее введенного соотношения (44). Единственное отличие заключается в том, что в выражении (47) используются наблюдаемые значения корреляционной матрицы R, а для модельных данных без ошибок наблюдаемые значения корреляций совпадают с самими корреляциями. В общем случае воспроизводимые моделью корреляции не совпадают с наблюдаемыми. Ожидаемую надежность оценки факторов получаем с помощью выражения (45).

Критерий наименьших квадратов

В однофакторной модели каждая переменная считается взвешенной суммой общих и характерных факторов:

Предположим, что вместо F взята его оценка F. Поскольку критерий наименьших квадратов определяется оценкой F, минимизирующей сумму квадратов:

то получаем следующую оценку:

Отличие (49) и (47) состоит в том, что в (49) входят воспроизведенные в модели корреляции ВВ вместо R. Таким образом, регрессионный анализ и критерий наименьших квадратов приводят к одним и тем же оценкам, когда выборочные корреляции совпадают с корреляциями для генеральной совокупности. В противном случае эти оценки дают отличающиеся друг от друга результаты.

Критерий Бартлетта

Для данного подхода включается в рассмотрение выборочная изменчивость. Если характерную долю дисперсии отнести на счет условных ошибок наблюдений, то лучше уменьшать вес тех переменных, которые имеют большие дисперсии ошибок. Введем следующий критерий:

В результате параметры с меньшими общностями получают и меньший вес. Поэтому для неодинаковых коэффициентов факторных нагрузок оценка шкалы, полученная с помощью критерия Бартлетта, отличается от двух предыдущих:

где — диагональная матрица характерностей. Наличие может рассматриваться как результат взвешивания.

1
Оглавление
email@scask.ru