Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
3.7. Введение дополнительных регрессоров3.7.7. Общая теорияПредположим, что уже после того, как подобрана модель регрессии
мы хотим включить в нее дополнительные регрессоры
(здесь мы обозначили
Во-вторых, можно уменьшить количество необходимых выкладок, используя те вычисления, которые были проведены в процессе подбора модели. Соответствующие результаты приведены в теореме 3.7. Геометрическое доказательство этой теоремы, допускающее неполноту ранга матрицы X, приведено в разд. 3.8.3. Лемма. Если Доказательство. Пусть
т. е. Теорема 3.7. Пусть
Тогда
Доказательство, (i) Пусть
поскольку
Из (3.29) вытекает, что
(ii) Подставляя (3.31) в (3.30), получаем
так что
Отсюда Имеем
так что
в силу симметричности и идемпотентности матрицы (iv) Из (iii) имеем
(в последнем равенстве мы использовали Прежде всего
Далее, в силу теоремы 1.4
поскольку
(последнее - в силу
(здесь мы опять использовали Из доказанной теоремы вытекает, что, обратив однажды (при подборе первоначальной модели) матрицу не требуется обращать матрицу 3.7.2. Одна дополнительная переменнаяОбозначим столбцы матрицы X символами
Предположим теперь, что мы намерены включить в подобранную модель еще один регрессор, скажем
и матрица легко находится с использованием матрицы Указанный метод включения одной дополнительной переменной впервые подробно рассмотрел Cochran (1938); на случай нескольких переменных его обобщил Quenouille (1950). 3.7.3. Двухшаговый метод наименьших квадратовУтверждения, содержащиеся в теореме 3.7, предполагают следующую последовательность шагов при намерении "расширить" матрицу плана: (1) Вычисляем (2) Для получения
Приравнивая производную
откуда находим искомую оценку наименьших квадратов для у:
(3) Остаточную сумму квадратов (4) Для получения
(5) Коэффициент при Мы называем приведенную процедуру двухшаговым методом наименьших квадратов. Этод метод широко используется в гл. 10 при рассмотрении моделей дисперсионного анализа. Интересно отметить, что указанный двухшаговый метод наименьших квадратов для подбора расширенной модели эквивалентен подбору "ортогонализованной" модели
или (обозначив
Здесь 3.7.4. Остатки в двухшаговой процедуреОстатки для расширенной модели имеют (с учетом (3.37)) вид
где Проведенные только что преобразования лежат в основе рекуррентного алгоритма для подбора моделей дисперсионного анализа регрессиоными методами. Этот алгоритм разработал Wilkinson G. N. (1970) (см. также James, Wilkinson (1971), Rogers, Wilkinson (1974); Pearce и др. (1974)). Основные этапы алгоритма таковы: (1) Вычисление остатков (2) Использование оператора (3) Повторное применение оператора Если столбцы матрицы Полагая, что матрица X образована первыми Упражнения 3g (см. скан)
|
1 |
Оглавление
|