Главная > Линейный регрессионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

11.9. Добавление или удаление определенного регрессора

11.9.1. Добавление регрессора

Предположим, что мы использовали модель регрессии где X — матрица размера и ранга и получили матрицу вектор Введение дополнительного регрессора, скажем равносильно добавлению к X еще одного столбца. Именно, мы приходим к расширенной модели

Если помечать оценки, получаемые методом наименьших квадратов для расширенной модели, подстрочным индексом то в соответствии с разд. 3.7.2 будем иметь

и

где Кроме того, из соотношения (3.28) разд. 3.7.1 имеем

где

Если мы знаем матрицу то, используя приведенные уравнения, можем по крайней мере теоретически получить для расширенной модели непосредственно. Однако для увеличения точности и устойчивости численных расчетов предпочтительнее использовать следующий метод. Положим

При применении преобразований Хаусхольдера, представляемых матрицей нам достаточно всего одного дополнительного преобразования Хаусхольдера [Golub, Styan (1973, с. 264)], скажем порядка чтобы обратить в нуль все последних элементов вектора и привести матрицу (11.58) к верхней треугольной матрице порядка Поскольку ортогональные преобразования не изменяют длины вектора, то где и

Если первый элемент вектора то

и мы можем разрешить эти уравнения относительно путем обратной подстановки. Заметим, что

где первый элемент вектора

Здесь выбирается таким образом, что где ректор определен в (11.58). При этом (см., например

Golub, Styan (1973, с. 255))

и

где равно если и в противном случае. Подставляя эти выражения в формулу для получаем

и

Приведенную теорию интересно увязать с уравнениями (11.55), (11.56) и (11.57). Например, Из соотношений и (11.55) мы должны иметь

Из

и (11.59) получаем

Наконец, из (11.60) имеем

11.9.2. Отбрасывание регрессора

Покажем теперь, как преобразования Гивенса можно использовать для удаления из модели некоторого регрессора. Мы будем игнорировать (т. е. использовать X) и считать для простоты изложения

Для удаления регрессора из модели, представленной матрицей

мы просто опускаем последний столбец матрицы Получаемое при этом увеличение остаточной суммы квадратов равно Если мы хотим удалить еще и то, отбрасывая третий столбец матрицы получаем

Применяя преобразования Гивенса к указанной выше матрице (дополненной векторами можно обратить в нуль элементы и расположенные под диагональю, и привести таким образом матрицу к верхней треугольной матрице порядка 4. Такое приведение можно сопроводить преобразованием третьей и четвертой, а также четвертой и пятой строк матрицы А, так что матрица А примет при этом вид

Если теперь игнорировать третий столбец полученной матрицы, то вектор "приобретет" дополнительный элемент а увеличение остаточной суммы квадратов из-за отбрасывания регрессора будет равно

1
Оглавление
email@scask.ru