Главная > Линейный регрессионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

12.4. Пошаговая регрессия

12.4.1. Описание метода

Метод пошаговой регрессии состоит в том, что на каждом шаге производится либо включение в модель, либо исключение из модели какого-то одного регрессора. В этой процедуре [Efroymson (1960)] мы имеем два F-уровня - назовем На каждом шаге один из регрессоров, скажем исключается, если при его удалении RSS увеличивается на величину, не большую, чем умноженное на значение средней остаточной суммы квадратов Другими словами, -регрессор -исключается на данном шаге, если -отношение для проверки гипотезы в используемой в этот момент модели регрессии не превышает значения Если такому условию удовлетворяет несколько регрессоров, то выбирается тот из них, для которого увеличение RSS оказывается наименьшим (это равносильно наименьшему -отношению). Если указанному условию не удовлетворяет ни один из регрессоров, то в модель включают регрессор, скажем введение которого

уменьшает. RSS на величину, не меньшую, чем умноженное на значение средней остаточной суммы квадратов, подсчитанной после включения в модель. Иначе говоря, регрессор включается на данном шаге в модель, если -отношение для проверки гипотезы в модели, полученной добавлением этого регрессора к модели, рассматриваемой на данном шаге, оказывается не меньшим, чем И опять, если такому условию удовлетворяет несколько регрессоров, то в модель включается тот из них, который обеспечивает наибольшее уменьшение RSS (или, что равносильно, наибольшее -отношение). Процедура начинается с того, что мы подбираем а затем пытаемся ввести в модель какой-нибудь регрессор.

К сожалению, эта процедура приводит к единственному подмножеству и не предлагает альтернативных хороших подмножеств.

12.4.2. Использование выметания

Для введения в модель или выведения из нее какого-либо регрессора можно использовать метод выметания, описанный в разд. 12.4.2. Здесь выметание применяется к расширенной матрице

где корреляционная матрица для всех К регрессоров. Если вымести по произвольному подмножеству ее первых К ведущих элементов, то мы получим новую матрицу

где матрица В, вектор с и число суть не что иное, как матрица, обратная корреляционной матрице, шкалированный вектор коэффициентов регрессии а и значение соответствующие регрессорам, входящим теперь в уравнение. После каждого шага мы вычисляем для каждого большего нижнего допустимого значения. Контролируя величину мы тем самым избегаем включения в модель регрессора, почти линейно зависящего от регрессоров, уже включенных в модель. Элементы вектора соответствующие регрессорам, не содержащимся в уравнении, равны соответствующим элементам вектора с, а остальные элементы векторов и с суть соответственно —а и а. Таким образом, если регрессор входит в уравнение регрессии, то величина равна (или в обозначениях соотношения

(11.51) из разд. и отрицательна, а если регрессор не входит в уравнение, то величина равна и положительна. Для определения того, нужно ли исключать из уравнения какой-нибудь из регрессоров, и если да, то какой именно, мы находим минимальное значение по всем скажем и исключаем регрессор, соответствующий если (ср. с (11.51) при

где

Подобным же образом мы определяем, какой из регрессоров следует включить в модель и нужно ли вообще это делать. Для этого мы находим максимальное значение по всем скажем и если

то вводим в модель регрессор, соответствующий На каждом шаге мы стараемся не исключать переменную, которая была только что введена в модель, и не включать переменную, которая только что была отброшена. Это будет обеспечиваться автоматически, если выбрать

В оригинальном описании приведенного метода Efroymson (1960) рассматривает выметание матрицы

где есть -матрица, состоящая из нулей. На каждом этапе выметания преобразованную матрицу можно разбить точно таким же образом, а именно

где с точностью до ошибок округления . В его методе ведущие элементы матриц выметаются только по одному разу. Выметание ведущего элемента матрицы В включает в модель переменную а выметание ненулевого ведущего элемента матрицы скажем исключает из модели переменную На каждом шаге вектор содержит шкалированные коэффициенты регрессии а модели, оцененной к этому моменту, а

остальные его элементы равны нулю. Матрица также состоит из нулей и из матрицы, обратной к блоку матрицы соответствующему регрессорам, находящимся в рассматриваемой в этот момент модели. Таким образом, и содержат просто "полезные" части вектора с и матрицы В, незашумленные другими ненулевыми элементами.

Поскольку с точностью до знака матрица симметрична, нам достаточно работать только с верхней треугольной матрицей, что сокращает объем вычислений и требуемую память. Вгеаих (1968) приводит соответствующий алгоритм, использующий метод симметричного выметания, описанный в разд. 12.2.2. По его утверждению, для этой модификации можно составить программу, которая в состоянии работать примерно с переменными и требует менее слов памяти, тогда как обычная процедура, использующая матрицу требовала бы при этом более слов памяти.

12.4.3. Метод исключения Гаусса-Жордана

Вместо чвыметания можно использовать метод исключения Жордана, описанный ближе к концу разд. 11.2.1, в котором ведущий элемент нормируется (приводится шкалированием к единице), а остальные элементы этого столбца обращаются в нуль. Этот метод можно применить к матрице в (12.12), так что при этом некоторая заданная подматрица матрицы приведется к единичной в матрице В (соотношение (12.13)), а обратная к ней матрица появится в (и в . В отличие от метода выметания, который обращает подматрицу на своем месте, матрица В уже не содержит ненулевой части матрицы Вектор также не содержит уже вектора —а шкалированных коэффициентов регрессии. Это означает, что представляет теперь максимальное значение отношения по всем не включенным в модель, в то время как является минимальным значением отношения по всем (т. е. по всем содержащимся в модели). Для включения в модель, скажем, регрессора в качестве ведущего используют элемент который делают равным единице. Для исключения же из Модели, например, регрессора в качестве ведущего берется элемент (а не поскольку мы в действительности хотим обратить процедуру Жордана для этой переменной.

Указанная выше модификация метода Efroymson (1960) довольно подробно описана в работе Draper, Smith (1966, разд. 6.8). Используя данные Хальда они приходят в результате к модели которая совпадает с моделью, полученной различными методами в разд. 12.2.3. Основные шаги их вычислений таковы:

(1) Проверка на исключение: исключать здесь нечего.

Проверка на включение новой переменной:

3, 4) равен и значение превышено, так что в модель включается переменная

(2) Проверка на исключение: исключать нечего, так как текущая модель содержит только одну переменную, а она только что была введена в модель.

Проверка на включение новой переменной: 3) равен и значение превышено, так что в модель включается переменная

(3) Проверка на исключение: текущая модель ; исключать можно только переменную так как только что включена в модель, однако значение превышено, так что остается в модели.

Проверка на включение: равен значение превышено, и переменная вводится в модель.

(4) Проверка на исключение: текущий набор равен значение не будет превышено, и исключается из набора.

Проверка на включение: текущий набор поскольку только что исключили из модели, то единственной кандидатурой на включение в модель является переменная однако значение здесь не превышено, и не включается в модель. Поскольку добавить к модели нечего, процесс останавливается. Результирующим набором является

12.4.4. Выбор значений F

При использовании метода пошаговой регрессии мы сталкиваемся с задачей выбора значений и Обычно полагают где некоторая произвольная постоянная. Например, Efroymson (1960) использует для той же самой совокупности данных (Хальда) берут Мы можем действовать и иначе, полагая и где число степеней свободы, соответствующее текущей RSS. Однако такой выбор значений не является, строго говоря, корректным, поскольку на каждом шаге мы ищем максимум или минимум совокупности коррелированных -переменных. Например, чем больше число переменных, из которых производится отбор, тем больше Умах» и, следовательно, тем большим следует ожидать значение при котором производится включение регрессора в модель. Ряд авторов [например, Draper и др. (1971), Pope, Webster (1972)] рассматривали этот вопрос об упорядоченных зависимых -переменных, и кое-что здесь удалось сделать. Forsythe

и др. (1973) рассматривали эту задачу, допуская только включение переменных, и получили критерий перестановок для замены

12.4.5. Другие пошаговые методы

Имеются две, по-видимому, довольно распространенные разновидности пошаговой процедуры. Одна из них — это так называемый метод включения, в котором переменные не исключаются, а только поочередно вводятся в модель с использованием, скажем, -критерия. Вторая — это метод исключения, в котором сначала подбирается полная модель с регрессорами, а затем производится поочередное исключение регрессоров с использованием, скажем, -критерия; в этой процедуре проверка возможности включения регрессоров не производится. К сожалению, эти два метода не обязательно приводят к одной и той же модели. Например, Hamaker (1962), используя данные Хальда, по методу включения получил подмножество а по методу исключения .

Некоторые аргументы за и против этих двух методов подробно рассматривают Mantel (1970) и Beale (1970). Большинство авторов, по-видимому, предпочитает метод исключения (см., например, Draper, Smith (1966, с. 187)), и такое предпочтение подкрепляется анализом, произведенным Kennedy, Bancroft (1971), хотя в их сравнении порядок выбора регрессоров предопределен заранее (как в полиномиальной регрессии). Метод исключения, кроме того, подходит тем статистикам, которые предпочитают видеть в уравнении все регрессоры сразу, дабы "чего-нибудь не пропустить"!

Другие вариаций на тему описаны в Mantel (1970) и Draper, Smith (1966). Однако предпочитать следует, по-видимому, все же пошаговую процедуру с одним очевидным исключением — полиномиальной регрессией.

В заключение стоит отметить, что использовать пошаговую регрессию уместно, когда значение К очень велико (приблизительно когда хотя это зависит от ЭВМ). В противном случае следует использовать методы § 12.2 и 12.3.

1
Оглавление
email@scask.ru