Главная > Линейная и нелинейная регрессии
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

5.2. Простейшие методы робастного оценивания регрессии

Допустим возможность присутствия в ряду наблюдений выбросов, т. е. наблюдений, удовлетворяющих исходной регрессии и имеющих большие дисперсии либо вообще неудовлетворяющих исходной модели. И в том и другом шучаях включение таких наблюдений в ряд равноправны) членов выборки приведет к заметному смещение оценок параметров и ухудшению их свойств. Как отмгчает Хюбер [137], даже одно далеко лежащее от общей массы наблюдение может испортить оценку МНК;

более того, выбросы в случае эегрессии приводят к большим искажениям, чем в задаче оценивания параметра положения. Выбросы могут быть результатом нарушения условия эксперимента, неправильного измерения, засорения данных и т. п. В случае оценивания параметров положения наиболее простой способ получения робастных, т. е. устойчивых, оценок заключался в отбрасывании ряда экстремальных значений выборки и оценивании параметра положения по усеченной выборке. Этот метод легко обобщается на случай регрессии. Доля отсечения экстремальных значений не должна быть очень высокой. Разумеется, если все отброшенные наблюдения в действительности оказались выбросами, то эффективность усеченной оценки только возрастет. Однако если среди отброшенных наблюдений есть и «хорошие», т. е. удовлетворяющие гипотезам классической регрессии, то эффективность новой оценки снизится. Простейшим компромиссом здесь может служить отбрасывание тех наблюдений, которые приводят к максимальному и минимальному отклонениям после оценивания МНК. Полезную информацию при этом дает график отклонений регрессии. Возможно мы и ошибемся, если примем некоторые наблюдения за выбросы, однако в любом случае расчет новой регрессии весьма полезен.

Найдем робастную оценку по указанному правилу для регрессии-примера (1.5). В табл. 1.1 приведены отклонения после применения МНК. Максимальное отклонение, равное 4,27, соответствует первому, а минимальное соответствует третьему наблюдению. Подозревая первое и третье наблюдения в выбросах, пересчитаем уравнение регрессии МНК по оставшейся выборке из 13 наблюдений; получим

На рис. 5.3 пунктирной линией показаны отклонения новой регрессии, сплошной — оцененной по МНК. Как видим, в результате отброса экстремальных наблюдений характер отклонений слабо изменился: разброс отклонений уменьшился.

Получение робастных оценок методом исключения выбросов имеет один недостаток. Как было отмечено, оценка МНК резко реагирует на наличие выбросов в исходной информации. Поэтому выявление выбросов с помощью регрессии,

Рис. 5.3. Отклонения регрессии-примера

оцененной методом наименьших квадратов, может привести к тому, что подозреваемые наблюдения окажутся на самом деле «хорошими». Для удовлетворительной «оценки выбросов» необходимо пользоваться оценкой, малочувствительной к ним, т. е. робастной, а ее мы как раз и хотим найти.

Categories

1
Оглавление
email@scask.ru