Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 5. РОБАСТНЫЕ ОЦЕНКИ5.1. Робастные оценки параметра положенияВ условиях нормальной гипотезы метод наименьших квадратов является оптимальным. Отметим характерную особенность нормального распределения — основная масса распределения сосредоточена на конечном интервале
Таким образом, принимая гипотезу нормальности, мы автоматически предполагаем, что основная масса отклонений сосредоточена на некотором интервале. Вероятность большого отклонения при этом весьма мала. В реальной ситуации эта гипотеза является чересчур жесткой. Дело в том, что предполагаемая модель редко является абсолютно точно специфицированной; в частности, наблюдения могут быть засорены. Разумнее поэтому предположить, что отклонения с большей вероятностью могут принимать и большие значения. Это заставляет нас отказаться от распределения с легкими хвостами (в частности, от нормального распределения) и перейти к распределениям с тяжелыми хвостами. Оценки, ориентированные на распределения с легкими хвостами (в частности, оценка МНК), в новой ситуации оказываются далекими от эффективных. В распределениях с тяжелыми хвостами более эффективными будут менее чувствительные оценки, а именно такие, которые не меняют резко своих значений при возникновении больших отклонений (выбросов). Такие оценки будем называть робастньши (от английского слова robust - устойчивый), или устойчивыми. Робастные оценки устойчивы относительно априорного распределения отклонений. Если отклонения не засорены, т. е. вероятность больших отклонений мала, робастные оценки будут менее эффективны, зато если отклонения содержат выбросы, то эти оценки будут малочувствительны к ним, а потому более удовлетворительными. Таким образом, переходя к распределениям с более тяжелыми хвостами, мы теряем в эффективности, но приобретаем в надежности. Соответствующие методы будут менее чувствительны к ошибкам спецификации отклонений регрессии. Специально проблеме робастного (устойчивого) оценивания посвящена книга Б. А. Смоляка и Б. П. Титаренко [62], а также работы [56] и [32]. Чтобы не усложнять проблему робастного оценивания техническими деталями, рассмотрим сначала простейший случай: оценивание параметра положения. Итак, пусть перед нами стоит следующая статистическая задача: наблюдения
Если же Наиболее простой способ нивелировки у состоит в следующем: отбросим минимальное и максимальное наблюдения в выборке
где Обычная средняя также будет неэффективной в случае, когда выбросами. Сильно реагируя на такие выбросы, у будет иметь большую дисперсию. Другой робастной оценкой является медиана. Напомним, что медиана выборки П. Хюбер [136] предложил целый класс робастных оценок
где
Если обозначить
Для того чтобы оценка
Идея заключалась в том, чтобы вклад значений
Рис. 5.1. Функция Хюбера Очевидно, что если
Оценки
Рис. 5.2. Различные функции же исследуется эффективность робастного оценивания для некоторых из вводимых функций. До сих пор мы считали параметр масштаба о известным. В случае когда он неизвестен, минимизируемая сумма (5.1) трансформируется в
где
Помимо Упражнения 5. 1 (см. скан)
|
1 |
Оглавление
|