Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
6.5. Редуцированные оценкиКак было показано в предыдущих параграфах, мультиколлинеарность ведет к увеличению длины оценки. Естественно поэтому вместо обычных оценок, т. е. оценок МНК, рассматривать «укороченные», редуцированные оценки, т. е. оценки с меньшей длиной. В. Джеймс и Ч. Стейн [139] показали, что в случае нормальной случайной выборки в классе всех оценок может быть найдена оценка, которая лучше обычной средней в смысле наименьшего среднего квадрата ошибки. В отличие от средней оценка Джеймса-Стейна является смещенной оценкой. Для регрессии результат Джеймса — Стейна может быть сформулирован следующим образом [181]. Предположим, отклонения регрессии Теорема Джеймса — Стейна [181] 6.4. Для
для всех Очевидно, что при с
поэтому оценку показано в [183], оценка МНК будет наилучшей в классе всех оценок (смещенных и несмещенных). В [181] приведены формулировки теорем более общих, чем теорема Джеймса—Стейна. Оценку МНК возможно подправить и для некоторой части вектора. Так, допустим, Теорему Джеймса-Стейна нетрудно применить для случая Подходящим поворотом осей координат трансформируем модель (6.25) в ортогональную (6.29), при этом
где
В общем виде редуцированную оценку можно записать в виде среднюю сумму квадратов ошибок и матрицу средних квадратов ошибки:
Если Легко показать, что для любого Оценка Джеймса-Стейна является представителем стохастической редуцированной оценки. Обобщенной редуцированной оценкой Л. Мейер и Т. Уиллке [161] называют оценку, которая является линейным преобразованием оценки МНК, т. е.
При использовании обобщенной редуцированной оценки, естественно, возникает вопрос о выборе матрицы преобразования С. Мейер и Уиллке поступают следующим образом. Как известно, при заданном значении суммы квадратов отклонений ридж-оценка минимизирует длину оценки. Аналогичный путь можно предложить для получения матрицы С. Нетрудно проверить, что
Очевидно, обобщенной детерминированной редуцированной оценкой отклонений, с минимальной длиной является ридж-оценка, для которой
Как показали Мейер и Уидлке [161], обобщенной редуцированной оценкой с данной суммой квадратов отклонений (6.44) и минимальным следом
где
Тогда с учетом этого
Как видим, оценка (6.46) есть не что иное, как стохастическая редуцированная оценка, коэффициент редукции Мейер и Уиллке минимизировали след ковариационной матрицы редуцированной оценки. Можно выбрать и другие критерии. Например, в качестве критерия можно взять среднюю сумму квадратов ошибки. Найдем для данных
откуда
Очевидно, для данных
Использовать коэффициент редукции (6.47) на практике невозможно, поскольку он содержит неизвестные параметры. Однако вместо а и ста можно подставить их оценки, например можно положить
что приведет к стохастической редуцированной оценке Между ридж-оценками и редуцированными оценками существует тесная взаимосвязь: ридж-оценки являются частным случаем редуцированных оценок [113]. Действительно, сведем исходную модель к ортогональной (6.29). Для нее обобщенной ридж-оценкой является
где К — диагональная матрица. Обозначим
Обобщенной редуцированной оценкой для (6.29) является Упражнение 6.5(см. скан)
|
1 |
Оглавление
|