Главная > Байесовские методы в эконометрии
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Глава 5. ОШИБКИ В ПЕРЕМЕННЫХ

Точка зрения, согласно которой экономические данные часто содержат ошибки и присутствие ошибок измерения может серьезно повлиять на результаты анализа, пользуется всеобщим признанием. В свете этого значительные усилия, направленные на развитие методов анализа данных, содержащих ошибки измерения, не должны вызвать удивления. В настоящей главе мы рассмотрим несколько моделей и задач, связанных с ошибками измерения. После анализа нескольких предварительных задач, которые иллюстрируют проблемы, связанные с некоторыми базисными моделями «ошибок в переменных» (МОП), мы рассмотрим классическую МОП. Эта модель может считаться обобщением простой регрессионной модели, исследованной в 3-й главе, учитывающей ошибки как в зависимых, так и в независимых переменных. Две формы МОП, а именно функциональная и структурная, будут исследованы методами наибольшего правдоподобия и байесовским методом. Такое сравнительное изложение в данном случае особенно поучительно, поскольку (читатель в этом в дальнейшем убедится) априорная информация играет важнейшую роль как в подходе с позиций теории выборочных исследований, так и в байесовском подходе.

После анализа классической МОП мы рассмотрим форму этой модели, которая включает специальные допущения о систематической части наблюдаемых переменных, а именно что они могут быть представлены с помощью систематической части уравнений регрессии. Мы покажем, что такой анализ тесно связан с методом оценивания с помощью «инструментальных переменных» параметров МОП. Хотя анализ настоящей главы покрывает только часть проблем, связанных с МОП, это подмножество проблем имеет важное значение для эконометрической практики.

5.1. КЛАССИЧЕСКАЯ МОП: ПРЕДВАРИТЕЛЬНЫЕ ЗАДАЧИ

Прежде чем обратиться к классической МОП, весьма полезно рассмотреть тесно связанную с ней задачу об средних . Пусть независимые наблюдения, выбранные из нормально распределенных генеральных совокупностей, которые имеют одну и ту же дисперсию но различные математические ожидания; иными словами, делается допущение, что есть случайная выборка из нормально распределенной генеральной совокупности с математическим

ожиданием и дисперсией Следует обратить внимание на то, что мы располагаем наблюдениями, а должны оценить неизвестных параметров: выборочных средних Этот простой подсчет наблюдений и параметров уже показывает, что получить оценки всех параметров затруднительно. Мы исследуем природу этого затруднения, которое встречается также для функциональной формы классической МОП, хотя и в несколько более сложном виде.

Функция правдоподобия для задачи об выборочных средних имеет вид

где есть вектор неизвестных выборочных средних, а вектор наблюдений. Дифференцируя логарифм функции правдоподобия по и h и приравнивая частные производные нулю в целях получения оценок метода наибольшего правдоподобия (МНП), мы получаем

и

Таким образом, из (5.2 а), по-видимому, следует, что являются оценками МНП 1 г. Но подстановка этих «оценок МНП» в (5.26) дает, что оценка дисперсии Кендалл и Стьюарт замечают, что это — очевидно абсурдный результат г.

Основным эффектом вышеизложенного «анализа наибольшего правдоподобия» является то, что функция правдоподобия (5.1) не имеет конечного максимума в области допустимых изменений параметров п. В этом легко убедиться путем подстановки (5.2 а) в (5.1), получив т. е. функцию, которая явно не имеет максимума при Альтернативно, если подставить (5.26) в (5.1), мы получим т. е. опять-таки функцию, не имеющую конечного максимума в допустимой области изменений параметров. Таким образом, хотя (5.2 а) есть оценка МНП для при данной конечной дисперсии , а (5.26) - оценка МНП для при данном векторе , (5.2 а) и (5.26) не могут совместно дать оценок МНП для . Далее нетрудно показать, что функция правдоподобия (5.1) не стремится к

пределу при , вследствие чего 0 и у не являются оценками МНП

Интересно приложить к задаче об выборочных средних байесовские методы анализа. Для этой цели мы используем следующие априорные ФПВ:

Объединяя (5.3) и (5.1), получаем следующую апостериорную ФПВ:

Из (5.4) мы заметим, что условная апостериорная ФПВ для при заданном о есть собственная многомерная нормальная ФПВ с вектором математических ожиданий у и ковариационной матрицей . При заданном условная апостериорная ФПВ для а есть собственная обратная гамма-ФПВ. Таким образом, как и в МНП, можно легко получить условные выводы. Однако совместные выводы о не могут быть получены, поскольку (5.4) есть несобственная ФПВ; например, если (5.4) интегрировать по компонентам то в результате получим т. е. несобственную ФПВ в точности того же вида, как и наша расплывчатая априорная ФПВ (5.3). Таким образом, выборочная информация в этой задаче не сообщает нам никаких дополнительных сведений о . С другой стороны, интегрируя (5.4) по а, мы получаем которая тоже является несобственной ФПВ. Очевидно, что выборочной информации не хватает для получения совместных выводов о и компонентах . В то же время при наличии априорной информации об одном или нескольких параметрах, например при заданном можно легко получить выводы о компонентах . Такая априорная информация, скажем , где известно, позволяет нам делать выводы о компонентах .

Крайне важно уяснить себе, что менее точная информация о , т. е. менее точная, чем , также позволяет нам делать выводы о компонентах , например, если мы используем следующую априорную ФПВ:

где априорные параметры, , то апостериорная ФПВ будет иметь вид

т. е. будет собственной ФПВ. Маргинальная апостериорная ФПВ для будет иметь вид

т. e. будет многомерной -ФПВ Стьюдента с вектором математических ожиданий у. Таким образом, даже не принимая допущения о том, что , т. е. известному значению, мы оказались в состоянии включить в модель менее ограничительную априорную информацию, которая позволяет нам делать выводы относительно компонент Однако, интегрируя (5.6) по компонентам мы получаем в результате априорную ФПВ для а. Итак, выборочная информация в этом случае не дает дополнительных сведений о а в нашей задаче.

Перейдем теперь к следующей задаче об выборочных средних, в которой мы располагаем по наблюдений для каждой средней, т. е. наша модель наблюдений имеет вид

где есть -мерный вектор-столбец, все компоненты которого равны единице; есть неизвестная выборочная средняя, вектор-столбец возмущений. Мы принимаем следующие допущения: для т. е. является нулевой матрицей при Кроме того, мы предполагаем, что все компоненты вектора имеют нормальное совместное распределение. Для упрощения нотации мы можем записать

или

где у обозначает вектор левых сторон уравнения (5.9 а); W — блочнодиагональная матрица правых сторон (5.9 а);

Заметим, что в данной постановке задачи мы имеем наблюдений и неизвестных параметров, так что при пит больше 1 мы располагаем большим числом наблюдений, чем число неизвестных параметров, в противоположность ситуации, когда как это было в проанализированном выше случае. Тем не менее, как мы покажем ниже, сохраняется фундаментальное осложнение для применения МНП.

Функция правдоподобия для системы (5.9) имеет вид

где . Поскольку матрица положительно определена, очевидно, что является оценкой МНП. Нетрудно увидеть, что есть выборочная средняя, т. е.

Далее, оценка МНП для есть

ее можно получить, дифференцируя логарифм функции правдоподобия по а и приравнивая производную нулю. Легко убедиться в том, что действительно являются значениями связанными с конечным максимумом функций правдоподобия. Однако, как указывают Нейман и Скотт [92], а также Кендалл и Стьюарт, все же остается некоторая проблема. Дело в том, что оцениватель МНП для имеет смещение, которое не обращается в нуль при и фиксированном , т. е.

Таким образом, при и фиксированном смещение оценивателя МНП не обращается в нуль. Если, например, при любом . Эвристически Кендалл и Стьюарт интерпретируют эту ситуацию как сохранение смещения малой выборки для оценивателя МНП. Заметим, что число неизвестных параметров возрастает с возрастанием п. Действительно, отношение числа параметров к числу наблюдений стремится к , т. е. к 1/2 при . Таким образом, нельзя избавиться от ситуации малой выборки при возрастании в данной задаче.

В качестве частного пути обхода этого дефекта МНП в этой задаче о «ветвящихся параметрах» Кендалл и Стьюарт предлагают ввести поправку на «число степеней свободы» для оценивателя в (5.11). Мы располагаем наблюдениями, а число которые мы должны

оценить, равняется . Поэтому для оценивания остается степеней свободы. Если мы введем определение

то при любом . Ниже мы покажем, что аналогичная проблема «ветвящихся параметров» присутствует и в классической МОП.

Для байесовского анализа модели (5.9) мы используем априорные допущения, заданные (5.3).

Тогда апостериорная ФПВ будет иметь вид

Маргинальная апостериорная ФПВ для есть

или представляет собой собственную многомерную -ФПВ Стьюдента с вектором математических ожиданий и ковариационной матрицей . Надо отметить, что при фиксированном эта ковариационная матрица не стремится к нулевой; иными словами, при и фиксированном маргинальная апостериорная ФПВ для не концентрируется вокруг . Этот байесовский результат аналогичен результату теории выборочных исследований, который заключается в том, что оцениватель МНП компонент имеет дисперсию, не стремящуюся к нулю, когда при фиксированном .

Мы можем получить маргинальную ФПВ для а путем интегрирования (5.14) по компонентам Эта операция дает

где

Заметим, что интегрирование по компонентам вектора 1 автоматически ведет к тому, что показатель а в знаменателе (5.14) уменьшается с до . Это аналогично поправке на число степеней свободы, обсуждавшееся выше в связи с (5.11). Кроме того, из (5.16) мы получаем в качестве апостериорного математического ожидания . Если рассматривать эту величину в качестве оценивателя, то очевидно, что это — состоятельный оцениватель в отличие от (5.11).

Далее мы рассмотрим задачу об выборочных средних при наблюдениях для каждой неизвестной средней, причем одно наблюдение

имеет дисперсию а другое — дисперсию так что наши -мерные вектор-столбцы наблюдений по допущению генерируются следующей моделью:

, т. е. является нулевой матрицей размерности . Мы примем также допущение, что компоненты их и нормально распределены. В условиях этих допущений функция правдоподобия задается следующим образом:

Попытаемся теперь найти оценки МНП. Дифференцируя по и приравнивая производные нулю, мы получаем

и

в качестве значений максимизирующих функцию правдоподобия и зависящих от неизвестного вектора I. Дифференцируя по компонентам , мы получаем

где , в качестве значений максимизирующих функцию правдоподобия и зависящих от К. Очевидно, что есть взвешенная средняя весами в которой являются величины, обратные соответствующим дисперсиям.

Если вектор известен, то могутбыть вычислены оценки (5.19). С другой стороны, если известно К, то с помощью (5.20) могут быть вычислены . Подставляя i вместо в (5.19), получаем для оцениватель Нетрудно, однако, показать что . Иными словами, имеет смещение, которое

не обращается в нуль при Далее, если мы запишем функцию правдоподобия (5.18) в виде

то оцениватель МНП для при заданном Н, выразится как

где компоненты 1 задаются выражением (5.20). Можно непосредственно показать, что математическое ожидание оценивателя (5.22) есть . Снова получается, что смещение оценивателя МНП не обращается в нуль при Это затруднение возникает вследствие игнорирования того факта, что оцениванию подлежат компонент вектора 1; в качестве частного обходного приема можно, конечно, ввести поправку на число степеней свободы для устранения только что обсужденного смещения. Аналогичная проблема возникает в МОП, как это и будет показано ниже.

Возвращаясь к (5.18), мы можем задаться вопросом, возможно ли получение оценивателей МНП для всех параметров модели, т. е. для компонент вектора и двух дисперсий, , если дано наблюдений Интуитивно чувствуется, что это невозможно, ибо каждой неизвестной выборочной средней противостоят только два наблюдения, каждое со своей неизвестной дисперсией. Подставляя (5.20) в (5.19), мы получаем

а для того чтобы оба этих условия выполнялись, нужно, чтобы

но это возможно только при . Таким образом, в общем случае необходимое условие максимума не может быть удовлетворено; функция правдоподобия не существует при , если обе величины неизвестны Ч

Описанное выше затруднение возникает потому, что не идентифицированы. Легче всего это увидеть из рассмотрения распределения . Вектор w имеет нулевое математическое ожидание и ковариационную матрицу где . Существует бесконечное множество значений , которые в сумме дают некоторое конкретное значение невозможно идентифицировать без дополнительной априорной информации,

так как ФПВ для w полностью определяется спецификацией величины

При подходе к данной задаче с байесовских позиций мы принимаем следующую расплывчатую априорную ФПВ:

В этом случае нетрудно показать, что объединение этой априорной ФПВ с функцией правдоподобия (5.18) дает следующую апостериорную ФПВ:

которая является несобственной. Однако условная апостериорная ФПВ для при заданных равно как и условные апостериорные ФПВ для при заданных , будет собственной например, при заданных апостериорная ФПВ для есть следующая собственная нормальная ФПВ:

где есть апостериорное условное математическое ожидание. Элементы ковариационной матрицы соответствующего условного апостериорного распределения не стремятся к нулю с возрастанием .

Для иллюстрации существа проблемы идентифицируемости, связанной с (5.24), мы выделим полный квадрат по g и проинтегрируем по компонентам этого вектора. Операция дает следующий результат:

Множитель появляется из нашей расплывчатой априорной ФПВ, в то время как второй множитель просто соответствует нормальной ФПВ для . Вид этой последней ФПВ показывает, что идентифицировать и невозможно без дополнения информации, представленной нашей априорной расплывчатой ФПВ, новой априорной информацией. Далее, переходя от переменных к переменным и интегрируя по получаем маргинальную

апостериорную ФПВ для X, которая имеет вид просто т. е. является несобственной

Итак, когда как так и неизвестны, возникают затруднения в получении выводов относительно параметров, как в МНП, так и в байесовском подходе. Если, однако, отношение неизвестных дисперсий задано, например то вышеуказанное затруднение исчезает. Действительно, если , то задача сводится к проанализированной ранее, в которой мы располагали двумя наблюдениями на одну неизвестную выборочную среднюю и равными дисперсиями для всех наблюдений. Знание значения X есть априорная информация, позволяющая решить проблему идентифицируемости.

1
Оглавление
email@scask.ru