Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
3.2. Свойства оценки МНКПрежде всего в схеме регрессии
изучим свойства оценки метода наименьших квадратов
Предположение
В фигурных скобках стоит условное Докажем несмещенность оценки МНК. Применяя многомерный аналог формулы (3.3), получим
Легко находится матрица ковариаций оценки МНК:
Формула (3.4) отличается от соответствующей формулы в случае постоянной матрицы X наличием знака математического ожидания. Таким образом, для вычисления матрицы ковариаций оценки МНК в регрессии (3.1) необходимо знание истинного распределения случайных величин
откуда
где знак неравенства понимается в том смысле, что разность между правой и левой частями есть неотрицательно определенная матрица. В качестве иллюстрации рассмотрим следующий пример. Пусть
где
По формуле 130 [7, с. 297] находим окончательно
Итак, дисперсия оценки МНК равна
Перейдем к оптимальным свойствам оценки МНК в смысле ее эффективности. Естествен вопрос: верна ли теорема Гаусса — Маркова для схемы условного математического ожидания (3.1). Полностью ответить на этот вопрос мы не можем. Покажем, что если известны некоторые характеристики случайной матрицы X, то существует линейная несмещенная оценка, которая имеет меньшую матрицу ковариаций, чем оценка МНК. Построение такой оценки начнем со случая
Оценкой МНК для регрессии (3.5) является
Таким образом, Обозначим
Далее нетрудно показать, что
или
где
где
Допустим,
Тогда
откуда
Правая часть выражения (3.7) переписывается следующим образом:
Если
то выражение (3.7) будет отрицательным и оценка Теорема 3.1. Если математическое ожидание
где Замечания: 1. Можно найти непрерывные случайные величины 2. Если найдется такое
Теорема 3.1 без труда переносится на многомерный случай регрессии (3.1). Пусть X — матрица порядка Введем обозначение
Предыдущая теорема может быть перенесена на многомерный случай. Теорема 3.2. Если
где Доказательство теоремы приведено в [25]. Практическое использование теорем 3.1 и 3.2 весьма проблематично, но ценность их в том, что они показывают возможное ухудшение свойств оценки МНК при переходе к модели (3.1). Остановимся на результатах, приведенных в [85]. Вместо класса линейных несмещенных оценок был рассмотрен класс линейных оценок с ограниченной функцией риска (см. параграф 1.4), т. е. с ограниченной матрицей средних квадратов отклонений
где Лемма 3.1. Если
или, что то же самое, Легко проверяется и обратное: если Покажем, почему класс линейных оценок с ограниченной функцией риска уже класса линейных несмещенных оценок. Пусть
для всех
тогда как условие ограниченности функции риска по лемме 3.1 — в виде (3.13). Ясно, что условие (3.13) более сильное. Если оно выполняется, то выполняется и (3.14). На основе (3.13) нетрудно показать, что в более узком классе — классе линейных оценок с ограниченными функциями риска — оценка МНК уже будет оптимальной, что и составляет содержание следующей теоремы. Теорема 3.3. Оценка МНК является эффективной оценкой в классе линейных оценок с ограниченными функциями риска. Доказательство. Пусть
Оптимальной является оценка, которая приводит к минимальной матрице (3.15) при ограничении (3.13) 1. Для фиксированной матрицы X оценке МНК соответствует матрица
следует
Теорема доказана. Нетрудно убедиться, что оценка С помощью некоторых дополнительных предположений в [85] доказывается минимаксность оценки МНК в классе линейных оценок с ограниченной функцией риска. Подведем итоги: оценка МНК в классе линейных несмещенных оценок перестает быть оптимальной в регрессии (3.1). В классе линейных оценок с ограниченной функцией риска оценка МНК продолжает быть оптимальной. Таким образом, если не рассматривать оценок, которые являются весьма плохими для некоторых значений параметров регрессии, то оценка МНК будет эффективной. Коротко остановимся на асимптотических свойствах оценки МНК. Аналогично детерминированному случаю можно показать, что условие Эйкера (1.39) эквивалентно квадратичной сходимости. Теорема 3.4. Предположим,
Доказательство теоремы приведено в параграфе 3.4. Можно было бы найти условия асимптотической нормальности оценки МНК в регрессии (3.1), однако это представляет лишь теоретический интерес. Асимптотическая нормальность далее исследована в частном и важном случае случайной повторной выборки (параграф 3.2). Рассмотрим, как влияет схема условного математического ожидания (3.1) на другие характеристики регрессии. Начнем с коэффициента детерминации. Раньше этот коэффициент терял статистический смысл в силу того, что Далее очевидно, распределение оценки МНК в схеме (3.1) перестает быть нормальным, даже если отклонения нормально распределены. Распределение а зависит от распределения независимых переменных. В схеме регрессии как условного математического ожидания оценка МНК не будет эффективной в классе несмещенных оценок с нормально распределенными отклонениями. Для регрессии (3.1) изменится и критерий отношения правдоподобия. Он будет также зависеть от распределения независимых переменных. Критерии проверок гипотез, разработанные в параграфе 1.10, также не будут равномерно наиболее мощными. Однако очень важно, что доверительные интервалы, построенные для случая, когда матрица X стохастическая, имеют по-прежнему коэффициент доверия Упражнения 3.2(см. скан)
|
1 |
Оглавление
|