5.6. СТАТИСТИЧЕСКИЕ ВЫВОДЫ О МОДЕЛЯХ АВТОРЕГРЕССИИ, ОСНОВАННЫЕ НА ТЕОРИИ БОЛЬШИХ ВЫБОРОК
5.6.1. Связь с регрессионными методами
В § 5.4 было показано, что оценки максимального правдоподобия векторов
и дисперсии
получаются при минимизации выражения
и потому формально являются оценками наименьших квадратов. Следствием этого является то, что в этих моделях можно использовать все вычислительные процедуры обычного регрессионного анализа.
В § 5.5 мы показали, что при надлежащим образом выбранных условиях соответствующие оценки
имеют асимптотически нормальное распределение, как и в случае обычной регрессии. Таким образом, при больших выборках (т. е. при больших значениях
эти оценки можно рассматривать как нормально распределенные и использовать при этом процедуры обычного регрессионного анализа. Аппроксимирующее многомерное нормальное распределение статистик
имеет ковариационную матрицу
В свою очередь матрица (2) аппроксимируется матрицей
где
(см. скан)
Обычно, полагая
в модель вводят некоторую константу.
При этом если
исключить из уравнений для оценок, то все используемые суммы квадратов и попарных произведений будут включать отклонения от соответствующих средних. (Мы опустили знак
так как в § 5.6 общий векторный случай не рассматривается.)
Как было замечено в конце § 5.4, элементы каждой диагонали матрицы
различаются только членами, относящимися к началу и концу ряда. Поскольку мы занимаемся теорией больших выборок, то этими «концевыми» эффектами можно пренебречь и использовать матрицу, на диагоналях которой стоят одинаковые элементы. Кроме того, можно изменить и нормировочный множитель
Тогда каждая диагональ, отстоящая на
от главной диагонали, будет состоять из элементов
Если вычитается среднее
то сумма примет вид
Возможны и другие модификации, например
Отметим, что мы располагаем наблюдениями на отрезке от
до