Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике 8.5. ПСЕВДОНЕЗАВИСИМАЯ РЕГРЕССИОННАЯ МОДЕЛЬЭта регрессионная модель является обобщением традиционной многомерной регрессионной модели в том смысле, что здесь в левых частях каждого уравнения модели могут стоять разные матрицы X наблюдений за независимыми переменными, или, иными словами, делается допущение, что модель, генерирующая наблюдения, имеет вид
где является -мерным вектор-столбцом наблюдений за зависимой переменной; есть матрица размерности и ранга наблюдений за независимыми переменными, участвующими в уравнении; вектор-столбец коэффициентов уравнения; — -мерный вектор-столбец возмущений уравнения. Например, индекс а уравнение) может относиться к фирме. Таким образом, (8.74) представляет собой модель, состоящую из уравнений для каждой из фирм, причем исследователь располагает наблюдениями за каждой из фирм и каждая фирма имеет свой набор независимых переменных и свой вектор коэффициентов. Для простоты перепишем (8.74) в следующем виде:
где является блочно-диагональной матрицей, структура которой видна из правой части (8.74). Наши допущения о распределении элементов вектора и совпадают с допущениями в традиционной модели, а именно допускается нормальное распределение, причем и
где есть единичная матрица размерности , а — положительно-определенная симметричная матрица размерности . Тогда функция правдоподобия параметров и S имеет вид
где
является симметрической матрицей размерности . Мы будем пользоваться теми же самыми расплывчатыми априорными допущениями относительно параметров, которые были сделаны при анализе информационной многомерной регрессионной модели, а именно
Объединяя (8.77) и (8.79), получим совместную апостериорную ФПВ для параметров модели в виде
где А определена в (8.78). Из (8.80) видно, что условная апостериорная ФПВ для при фиксированной имеет форму ФПВ многомерного нормального распределения с математическим ожиданием
а условная ковариационная матрица имеет вид
Условное математическое ожидание в (8.81) в точности совпадает с обобщенной оценкой наименьших квадратов, полученной Зельнером при изучении системы (8.74) с точки зрения теории выборочных исследований. Для того, чтобы убедиться в справедливости последнего утверждения, умножим обе части (8.75) на некоторую матрицу Н. Получим , где Н является невырожденной матрицей, такой, что Последнее равенство возможно ввиду того, что принимается допущение, согласно которому матрица является положительно-определенной симметрической матрицей. Таким образом, из следует, что Следовательно, преобразованная система удовлетворяет условиям теоремы Гаусса—Маркова; и это означает, что оцениватель метода наименьших квадратов вектора , полученный методами теории выборочных исследований, вида
с ковариационной матрицей
является эффективным в классе линейных оценивателей. Кроме того, учитывая предположения нормальности, из функции правдоподобия (8.77) можно видеть, что оцениватель (8.83) является оценивателем МНП вектора при заданной матрице . Можно легко убедиться в том, что если матрицы X совпадают или являются пропорциональными и/или если является диагональной, то выражения в (8.81) и (8.83) сводятся к векторам оценивателям метода наименьших квадратов единственного уравнения, т. е. относительно (8.83) при этих условиях можно сказать, что Хауа, т. Аналогич ное утверждение можно сделать относительно (8.81). Как уже отмечалось выше, выборочный оцениватель теории выборочных исследований (8.83) идентичен математическому ожиданию условной апостериорной ФПВ вектора при заданной матрице или эквивалентно при заданной матрице . Отметим, однако, что оцениватель теории выборочных исследований (8.83) зависит от матрицы , обычно неизвестной. Для решения этой проблемы Зельнер предложил заменить состоятельной оценкой , полученной с использованием остатков для уравнений, каждое из которых оценивается отдельно с помощью метода наименьших квадратов. Полученный при этом оцениватель равен
т. е. эквивалентен оценивателю, получаемому с помощью байесовского анализа при использовании допущения, что Тогда условное математическое ожидание (8.81) в точности совпадает с оценивателем в (8.85). В случае больших выборок не существенно отличается от и при предположении, что будут получаться удовлетворительные результаты. Однако в случае выборок малого объема лучше получить маргинальную апостериорную ФПВ для и, основываясь на ней, делать необходимые выводы, в меньшей степени полагаясь на условные результаты. Для получения маргинальной апостериорной ФПВ можно использовать свойства ФПВ Уишарта при интегрировании (8.80) по различным элементам матрицы . В результате получим
— совместную апостериорную ФПВ элементов матрицы 0. Хотя это распределение напоминает обобщенное многомерное -распределение Стьюдента, не представляется возможным привести его к этому виду, так как матрицы X разных уравнений различаются. Прежде чем перейти к практическому использованию (8.86), требуется разработка специального аппарата для анализа этой совместной апостериорной ФПВ. Задачу анализа псевдонезависимой регрессионной модели можно рассмотреть и с другой точки зрения, представляя саму модель в виде «ограниченной» традиционной, многомерной модели, т. е. в виде
где ясно представлены нулевые ограничения модели. В случаях, когда матрица имеет полный ранг, можно применить подход, рассмотренный в 8.3 для включения нулевых ограничений в традиционную модель. Однако если мы имеем дело только с главным нормальным членом разложения, то можем заметить, что этот подход равносилен использованию условной апостериорной ФПВ . Таким образом, с некоторой степенью точности приложение результатов (8.81) и (8.82) при условии является удовлетворительным для случая больших выборок. Чтобы проиллюстрировать применение этих результатов теории, основанных на больших выборках, мы рассмотрим данные о ежегодных инвестициях 10 крупнейших корпораций США с 1935 по 1954 г. Для каждой из этих 10 фирм мы строим регрессионное уравнение, которое объясняет их годовые валовые инвестиции в неизменных ценах в терминах двух объясняющих переменных: общей стоимостью проданных на начало года акций и физическим объемом капитала на начало года. Дополнительно мы примем допущение о наличии ненулевого свободного члена в каждом уравнении. Допустим также, что модель, генерирующая данные, является нормальной регрессионной моделью с кажущейся независимостью, т. е. имеет место вид (8.74) при . В табл. 8.1 приведены приближенные значения математических ожиданий апостериорных ФПВ для коэффициентов, которые основаны на условной апостериорной ФПВ . В скобках даны условные средние квадратичные отклонения коэффициентов, равные квадратным корням из диагональных элементов матрицы (8.84). Далее представлены результаты изолированного анализа 10 регрессионных уравнений на основе расплывчатой априорной ФПВ, как и в 4-й главе, в случае множественной регрессионной модели. В таблице даны элементы подсчитанные для данных каждой из фирм; числа в скобках являются корнями квадратными из диагональных элементов . Сравнивая точность, с которой определены коэффициенты, можно видеть, что анализ, Таблица 8.1. Апостериорные математические ожидания и средние квадратичные отклонения коэффициентов уравнений регрессии для инвестиций по десяти фирмам
пользующий все наблюдения, дает более островершинные апостериорные ФПВ для коэффициентов, чем анализ, базирующийся на изолированных данных отдельных фирм для выводов относительно этих коэффициентов. Изолированный анализ, принимающий во внимание только часть данных, не может обеспечить применение информации, относящейся ко всей системе в целом, и эта информация теряется. В качестве меры коррелированности наблюдений в табл. 8.2 приведена выборочная корреляционная матрица возмущений. Можно убедиться, что некоторые из этих коэффициентов корреляции являются существенными и что, следовательно, имеются основания сомневаться в независимости этих наблюдений. Таблица 8.2. Выборочная корреляционная матрица возмущений
|
1 |
Оглавление
|