Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
6.3. Смещенные оценкиЕсли в классической линейной регрессии предположения
является эффективной в классе несмещенных оценок, линейных по у (теорема Гаусса-Маркова, параграф 1.5). Если к тому же предположить, что отклонения модели-регрессии имеют нормальное распределение, то оценка МНК оказывается эффективной в классе всех несмещенных оценок (линейных и нелинейных). Однако даже если отклонения нормальны, то в некоторых ситуациях оценки МНК становятся нестабильными. Это происходит при сильной сопряженности независимых переменных, т. е. при мультиколлинеарности. Как было показано в параграфе
при Таким образом, задачу оценивания можно сформулировать следующим образом: найти оценку параметров регрессии, которая была бы устойчивой даже при сильной сопряженности независимых переменных, т. е. такую оценку, точность которой не падала бы до нуля при усилении мультиколлинеарности. Ограничимся классом линейных оценок как наиболее простым. Следующим ограничением, связанным с оценкой МНК, является условие несмещенности оценки. Для того чтобы оценка была устойчивой по отношению к мультиколлинеарности, необходимо отказаться от этого условия, т. е. рассматривать и смещенные оценки. Итак, допустим
т. е. ССКО оценки Итак, для того чтобы построить оценки, которые были бы хороши и в случае мультиколлинеарности, необходимо отказаться от условия несмещенности. Таким образом, приходим к более широкому классу линейных оценок (смещенных и несмещенных). Отказ от несмещенности имеет положительные и отрицательные стороны: 1) положительным является то, что возможно найти смещенную оценку, которая является устойчивой относительно сильной сопряженности независимых переменных, т. е. в случае плохо обусловленной матрицы Покажем, что класс линейных оценок с ограниченной ССКО (т.е. класс Теорема 6.1. Класс Доказательство. Достаточность. Пусть
Полагаем Необходимость. Пусть
так как Из теоремы 6.1 следует, что не существует линейной оценки для Итак, займемся отысканием оптимальных оценок в классе Теорема 6.2. В классе Доказательство. Преобразуем выражение (6.13):
Но
Найдем
или
откуда
В последнем выражении обращение матрицы корректно так как матрица
Равенство (6.16) легко проверяется умножением обеих частей на матрицу Используя (6.16), выражение (6.15) перепишем следующим образом:
Таким образом, «оценка», минимизирующая ССКО, зависит
Для окончательного доказательства теоремы предположим, что
Тогда Доказанные теоремы подсказывают нам, что, во-первых, нельзя найти устойчивую относительно мультиколлинеарности оценку для всех Имеется еще один путь обхождения трудностей, связанных с несравнимостью некоторых функций риска, а именно ССКО. Рассмотрим минимаксные оценки (см. параграф 1.4). Начнем с простейшего случая Найдем
Пусть вектор с фиксирован, тогда
Теперь будем минимизировать функцию
Умножим каждое из предыдущих уравнений на
откуда
Подставляя найденное значение в
Соответствующая оценка равна:
Минимаксная оценка (6.20) является ридж-оценкой (см. параграф 6.4). При Как же поступить при наличии мультиколлинеарности? На практике часто идут по следующему пути. Как было показано, наличие мультиколлинеарности ведет к большим дисперсиям некоторых координат вектора оценки МНК. Будем считать, что отклонения регрессии гомоскедастичны и нормально распределены. Тогда, проверяя гипотезы На рис. 6.4 показана оценка МНК для случая
Рис. 6.4. Геометрия оценки автоматического отсева переменных Автоматический отсев переменных предполагает равенство нулю некоторых координат оценки. При этом, вероятно, длина оценки уменьшается, и мы не будем получать больших по абсолютной величине значений оценок. Однако подобная процедура имеет и недостатки. Во-первых, для гарантии того, что употребляемые статистические критерии достаточно эффективны, мы обязаны предположить, что отклонения имеют нормальное распределение или близкое к нему. Во-вторых, процедура приравнивания нулю некоторых координат оценки — весьма грубая. У нас мало уверенности в том, что истинное значение параметра в точности окажется равным нулю. Например, часто в правую часть регрессии входят переменные, которые тесно «коррелируют» между собой. И тем не менее мы не хотим ни одну из переменных выбросить из анализа, поскольку они часто имеют большой физический смысл. Разумеется, одновременно хорошо оценить параметры при этих переменных в силу мультиколлинеарности не удастся. Однако нас вполне устроит более или менее удовлетворительная оценка. В случае же схемы автоматического отсева одна из переменных была бы выброшена из анализа, т. е. нашей оценкой при выброшенной переменной был бы нуль! Далее рассмотрены оценки, которые «смягчают» оценку МНК, не прибегая к экстраординарным мерам — считать оценку некоторой координаты неизвестного вектора нулем, как это делается в схеме автоматического отсева переменных. Все описанные оценки уменьшают длину оценки МНК, таким образом являясь более устойчивым. Мультиколлинеарность не сказывается на точности оценивания
использующая оценку МНК, является вполне удовлетворительной. Действительно,
Будем предполагать
Сумма (6.21) перепишется следующим образом:
Обозначим
Поэтому
Но
Таким образом, даже если Упражнения 6.3(см. скан)
|
1 |
Оглавление
|