Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 8. МНОГОМЕРНАЯ РЕГРЕССИОННАЯ МОДЕЛЬВо многих случаях в экономике и других областях мы встречаемся с системой регрессионных уравнений. Более того, во многих случаях возмущения в разных уравнениях коррелированы; например, если мы имеем систему регрессионных зависимостей, относящихся к фирмам из одной и той же отрасли промышленности, то вероятнее всего, что возмущения в регрессионных уравнениях для одной фирмы коррелированы с возмущениями в уравнениях для других фирм Это может иметь место ввиду того, что фирмы из одной и той же отрасли промышленности испытывают общие случайные воздействия. Или если мы имеем систему уравнений типа спроса и предложения, то в этом случае возмущения в различных уравнениях спроса часто могут быть коррелированными. Существенно, чтобы зависимость возмущений была принята во внимание в процессе получения выводов. Если это не будет сделано, то полученные выводы будут весьма ненадежными. В данной главе мы вначале проанализируем традиционную многомерную регрессионную модель. Затем внимание будет направлено на интерпретацию и анализ регрессионной модели, независимость уравнений которой является кажущейся («модель с кажущейся независимостью»). Эта модель является в некоторых отношениях более общей, чем традиционная модель, ее приложения часто описывались в литературе. 8.1. ТРАДИЦИОННАЯ МНОГОМЕРНАЯ РЕГРЕССИОННАЯ МОДЕЛЬМы предполагаем, что
где X есть матрица размерности вектором математического ожидания и положительно-определенной ковариационной матрицей
где символ
где является матрицей оценок метода наименьших квадратов, а
есть матрица, пропорциональная выборочной ковариационной матрице возмущений, мы можем выписать функцию правдоподобия для
Сделаем допущения о скудости априорных знаний относительно параметров, т. е. элементов матрицы Что же касается расплывчатой априорной ФПВ, мы допустим, что элементы матрицы В и соответствующие элементы матрицы
В (8.7) согласно теории инвариантности Джеффриса положим
и
причем в отношении (8.9) мы заметим, что в частном случае при
- априорное предположение, которое мы использовали выше много раз. Интересно также отметить, что если мы обозначим через
Соответственно априорная ФПВ в (8.9) предполагает следующую априорную ФПВ
т. е. расплывчатую априорную ФПВ, использованную Сэвиджем [115], который пришел к тому же результату с помощью несколько иной аргументации, и другими авторами. В дополнение к подходу с точки зрения теории инвариантности Джеффриса, приведшему к (8.12), Гейсер [48] обратил внимание на то, что (8.12) могло бы следовать из принятия в качестве информативной априорной ФПВ для 2-1 ФПВ Уишарта и принятия равным нулю «числа степеней свободы» в этой априорной ФПВ. В отношении расплывчатых априорных ФПВ (8.8) и (8.9) Гейсер [48] также замечает: «Эти ненормированные ФПВ, или весовые функции, по-видимому, могут быть «объяснены» на основе различных правил, например инвариантности, сопряженных семейств, устойчивого оценивания и т. п., или эвристическими аргументами. Хотя их использование здесь не обязательно устраняет других претендентов, которые могут быть рассмотрены в качестве меры незнания, с нашей точки зрения, в настоящее время не существует других, более подходящих или удобных мер. Тот факт, что их применение во многих случаях приводит к тем же самым доверительным областям, что и в классической теории, определенно не является препятствием для их использования, но, более того, в действительности обеспечивает байесовскую интерпретацию этих хорошо разработанных классических процедур». Учитывая сказанное относительно расплывчатых априорных ФПВ (8.8), (8.9) и (8.12), мы объединим их с функцией правдоподобия (8.6), чтобы получить следующую совместную апостериорную ФПВ для параметров:
или
Учитывая (8.13 а), мы можем написать
где
причем
где Из (8.14) видно, что условная апостериорная ФПВ В при заданной 2 является многомерной нормальной ФПВ с вектором математических ожиданий
Она, разумеется, является нормальной с вектором математических ожиданий Маргинальная апостериорная ФПВ
где
т. е. имеет форму обратной гамма-ФПВ. Если мы имеем только одно уравнение регрессии в виде
Из (8.18) видно, что при увеличении Далее, рассматривая (8.17) для случая
где
Результат в (8.20), за исключением изменений числа «степеней свободы», по форме совпадает с результатом, полученным Джеффрисом для выборки из двумерной, нормально распределенной генеральной совокупности. Для того чтобы получить маргинальную апостериорную ФПВ для некоторого отдельного вектора коэффициентов уравнений, скажем, вектора
которая имеет форму ФПВ многомерного дисперсии на главной диагонали. Тогда, если априорная ФПВ выбрана в виде Что касается совместной апостериорной ФПВ всех регрессионных коэффициентов регрессии, представленных матрицей В, то, используя свойства ФПВ Уишарта при интегрировании (8.136) по различным элементам матрицы
откуда следует
так как интеграл в (8.23) в точности равен нормирующей постоянной ФПВ Уишарта и не зависит от параметров В. Совместную ФПВ (8.24) называют «обобщенной многомерной ФПВ Стьюдента». Рассмотрим некоторые свойства этой ФПВ. Во-первых, как мы уже видели, маргинальная апостериорная ФПВ вектора коэффициентов регрессии, скажем, вектора
то каждый из сомножителей в правой части (8.25) может быть выражен в виде многомерной
где
Затем, после некоторых алгебраических преобразований, получим
где
Воспользуемся теоремой Точера [140], которая гласит, что если А является матрицей размерности
С помощью (8.30) и замечая, что
и
Таким образом,
где Пользуясь (8.29) и (8.32), мы можем выписать совместную ФПВ для матрицы В, приведенную в (8.24) в следующем виде:
Определитель матрицы
Известно, что если А и В являются матрицами, размерность каждой из которых теорему на случай, когда А является матрицей размерности
Воспользовавшись этим результатом, мы можем второй определитель в правой части (8.34) представить в виде
Следовательно,
Соответственно ФПВ (8.33) может быть записана в виде
где
и
Из (8.38) видно, что условная ФПВ вектора
где Сомножители в (8.39) в точности соответствуют сомножителям в (8.25). Отсюда становится ясно, что первый сомножитель является маргинальной ФПВ вектора
В качестве второго свойства обобщенной многомерной
Из (8.40) видно, что элементами
Здесь мы выделили полный квадрат относительно
и
т. е. выражение, не зависящее от
Если ФПВ в (8.42) рассматривать как функцию только
где F была определена выше и Обсудим последнее свойство совместной ФПВ матрицы В в (8.24). Гейсер отмечает, что величина
распределена как
где
|
1 |
Оглавление
|