Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
9. МУЛЬТИКОЛЛИНЕАРНОСТЬПри изучении множественной линейной регрессии часто сталкиваются с наличием линейной связи между всеми или некоторыми объясняющими переменными. Это явление называется мультиколлинеарностью. На наш взгляд, впервые на проблему мультиколлинеарности обратил внимание Р. Фриш. Мультиколлинеарность между объясняющими переменными вызывает технические трудности, связанные с уменьшением точности оценивания или даже с невозможностью оценки влияния тех или иных переменных. Причина заключается в том, что вариации в исходных данных перестают быть независимыми и поэтому невозможно выделить воздействие каждой объясняющей переменной в отдельности на зависимую переменную. Продемонстрируем это на простом примере. Пусть исследуется зависимость себестоимости от объема производства и введенных в действие основных фондов. Следует ожидать, что объем производства зависит также от основных фондов. Если мы обе переменные выберем в качестве объясняющих, то, очевидно, коэффициенты регрессии не будут точно отражать зависимость себестоимости от обоих факторов, так как основные фонды оказывают дополнительное влияние на себестоимость через объем производства. Каковы последствия мультиколлинеарности в регрессионном и корреляционном анализе? Прежде чем ответить на этот вопрос, рассмотрим формы ее возникновения. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) форме. Функциональная форма мультиколлинеарности возникает, когда по крайней мере одна из объясняющих переменных связана с другими объясняющими переменными линейным функциональным соотношением. Линейный коэффициент корреляции между этими двумя переменными в таком случае равен +1 или —1. Пусть следует построить уравнение регрессии в виде однозначного решения, если по крайней мере одна из объясняющих переменных может быть представлена в виде линейной комбинации остальных. Однако на практике функциональная форма мультиколлинеарности встречается довольно редко. Значительно чаще мультиколлинеарность проявляется в стохастической форме. Она имеет место, когда по крайней мере между двумя объясняющими переменными существует более или менее сильная корреляция. Система нормальных уравнений тогда хотя и имеет решение (так как определитель матрицы Причина возникновения мультиколлинеарности в экономических явлениях — многообразие объективно существующих соотношений между объясняющими переменными. Это касается регрессии, построенной как на результатах одновременных обследований, так и по данным, полученным из временных рядов. В общем случае во временных рядах имеют дело с трендом, который, во-первых, не требует обязательной для регрессии независимости отдельных наблюдений, а во-вторых, в определенной степени автоматически приводит к регрессии с другими объясняющими переменными, если они обладают такой же тенденцией. Кроме того, следует отметить, что для тех переменных, которые находятся в объективной связи, ошибка прогноза при мультиколлинеарности объясняющих переменных в общем относительно мала, если на время упреждения не изменяются все прочие условия. Теперь перейдем к вопросам установления функциональной и стохастической мультиколлинеарности. Функциональную мультиколлинеарность установить легко, так как получающаяся система нормальных уравнений не имеет однозначного решения. Стохастическую форму мультиколлинеарности мы можем обнаружить с помощью следующих показателей. 1. Для измерения стохастической мультиколлинеарности можно использовать коэффициент множественной детерминации. В разделе 4.6 мы показали, что при отсутствии корреляции между объясняющими переменными, т. е. при отсутствии мультиколлинеарности, коэффициент множественной детерминации равен сумме соответствующих коэффициентов парной детерминации:
где у — зависимая переменная,
Чем меньше эта разность, тем меньше мультиколлинеарность. 2. Другой показатель разработан А. Е. Хорлом
для
является числителем формулы коэффициента парной корреляции между переменными
Если значение 3. В качестве показателя мультиколлинеарности можно также воспользоваться выражением (9.2), разделив его на
Чем больше 4. Известен также показатель мультиколлинеарности, являющийся производным от (9.5). Разделив правую и левую части выражения (9.5) на
Величина а) Исключение переменных. Этот метод заключается в том, что высоко коррелированные объясняющие переменные устраняются из регрессии, и она заново оценивается. Отбор переменных, подлежащих исключению, производится с помощью коэффициентов корреляции. Для этого производится оценка значимости коэффициентов парной корреляции Другой способ исключения переменных был предложен Фарраром и Глаубером. Процедура отбора переменных, подлежащих исключению, состоит из трех этапов. При этом предполагается нормальное распределение остатков. На первом этапе мультиколлинеарность выявляется лишь в общем виде. Для этого строится матрица
Далее для проверки наличия мультиколлинеарности вообще среди объясняющих переменных применяется критерий
имеющая На втором этапе используются коэффициенты детерминации между объясняющими переменными
имеет На третьем этапе исследуется, какая объясняющая переменная порождает мультиколлинеарность, и решается вопрос об ее исключении из анализа. Для этой цели привлекаются коэффициенты частной корреляции
имеющая б) Линейное преобразование переменных. Другой способ уменьшения или устранения мультиколлинеарности заключается в переходе к регрессии приведенной формы путем замены переменных, которым присуща коллинеарность, их линейной комбинацией. Например, следует построить уравнение регрессии в виде Установлено, что переменные в) Исключение тренда. При построении регрессии по данным, полученным из временных рядов, рекомендуется исключить тренд или компенсировать изменение последовательных значений переменных (прирост). Этим достигается соблюдение предпосылок регрессионного анализа — независимость наблюдений и уменьшение мультиколлинеарности. г) Использование предварительной информации. Обычно на основе ранее проведенного регрессионного анализа или в результате экономических исследований уже имеется более или менее точное представление о величине или соотношении двух или нескольких коэффициентов регрессии. Эта предварительная или вневыборочная информация может быть использована исследователем при построении регрессии. В связи с тем что часть оценок, полученных на основе вневыборочных данных, уже имеет достаточно четкую интерпретацию, это облегчает путь обнаружения взаимных влияний изменений различных переменных. д) Пошаговая регрессия. Процедура применения пошаговой регрессии начинается с построения простой регрессии. В анализ последовательно включают по одной объясняющей переменной. На каждом шаге проверяется значимость коэффициентов регрессии и оценивается мультиколлинеарность переменных. Если оценка коэффициента получается незначимой, то переменная исключается и рассматривают другую объясняющую переменную. Если оценка коэффициента регрессии значима, а мультиколлинеарность отсутствует, то в анализ включают следующую переменную. Таким образом, постепенно определяются все составляющие регрессии без нарушения предположения об отсутствии мультиколлинеарности (см. также [105]). е) Метод главных компонент Основная идея заключается в сокращении Числа объясняющих пере менных до наиболее существенно влияющих факторов. Это достигается путем линейного преобразования всех объясняющих переменных Процедура вычислений по методу главных компонент состоит из следующих шагов. Строится матрица, элементами которой являются отклонения результатов наблюдений над
Определяется матрица дисперсий и ковариаций объясняющих переменных
Матрица Главные компоненты
Они должны удовлетворять упомянутому выше требованию: каждый раз выделенная главная компонента должна воспроизводить максимум дисперсии. На неизвестные векторы коэффициентов
(т. е. они должны быть нормированы) и
(т. е. они должны быть некоррелированы). Дисперия главной компоненты
должна принимать наибольшее значение при соблюдении условий (9.15) и (9.16). Для решения проблемы максимизации функции, связанной дополнительными ограничениями, пользуются методом Собственные значения матрицы
где X — множитель Лагранжа,
получим собственные векторы матрицы Так как собственные векторы известны, по (9.14) можно определить главные компоненты. При этом обычно довольствуются меньшим, чем С помощью главных компонент по аналогии с (2.64) оцениваются параметры регрессии
В соответствии с (2.59) вычисляются значения регрессии
При всех своих преимуществах (уменьшение высокой мультиколлинеарности объясняющих переменных) метод главных компонент обладает и недостатками. Во-первых, главным компонентам, как правило, трудно подобрать экономические аналоги. Поэтому вызывает затруднение экономическая интерпретация оценок параметров регрессии, полученных по (9.20). Во-вторых, оценки параметров регрессии получают не по исходным объясняющим переменным, а по главным компонентам. В итоге можно сказать, что метод главных компонент применяется в основном для оценки значений регрессии и для определения прогнозных значений зависимой переменной, что также является целью регрессионного анализа. Кроме этих методов существует еще ряд способов измерения мультиколлинеарности. Так, в конфлюэнтном анализе, разработанном Р. Фришем, проблему мультиколлинеарности пытаются решить графически [46]. Известен также метод собственных значений, который, по нашему мнению, принадлежит Г. Тинтнеру [ 1251. С помощью этого метода устанавливается число линейно-независимых соотношений между объясняющими переменными в предположении, что дисперсия ошибок наблюдения известна. Но эта предпосылка в условиях экономических исследований трудно выполнима. Далее, мультиколлинеарность может быть исследована с помощью гребневого анализа. Проблема мультиколлинеарности на сегодня еще окончательно не решена. Однако, используя различные подходы, мы пытаемся определить наличие мультиколлинеарности, чтобы затем по возможности с помощью того или иного метода ее уменьшить. Если же это не удается, то к оценкам коэффициентов регрессии и значениям регрессии надо относиться с большой осторожностью.
|
1 |
Оглавление
|