5.6. СТАТИСТИЧЕСКИЕ ВЫВОДЫ О МОДЕЛЯХ АВТОРЕГРЕССИИ, ОСНОВАННЫЕ НА ТЕОРИИ БОЛЬШИХ ВЫБОРОК
5.6.1. Связь с регрессионными методами
В § 5.4 было показано, что оценки максимального правдоподобия векторов и дисперсии получаются при минимизации выражения
и потому формально являются оценками наименьших квадратов. Следствием этого является то, что в этих моделях можно использовать все вычислительные процедуры обычного регрессионного анализа.
В § 5.5 мы показали, что при надлежащим образом выбранных условиях соответствующие оценки имеют асимптотически нормальное распределение, как и в случае обычной регрессии. Таким образом, при больших выборках (т. е. при больших значениях эти оценки можно рассматривать как нормально распределенные и использовать при этом процедуры обычного регрессионного анализа. Аппроксимирующее многомерное нормальное распределение статистик имеет ковариационную матрицу
В свою очередь матрица (2) аппроксимируется матрицей
где
(см. скан)
Обычно, полагая в модель вводят некоторую константу.
При этом если исключить из уравнений для оценок, то все используемые суммы квадратов и попарных произведений будут включать отклонения от соответствующих средних. (Мы опустили знак так как в § 5.6 общий векторный случай не рассматривается.)
Как было замечено в конце § 5.4, элементы каждой диагонали матрицы различаются только членами, относящимися к началу и концу ряда. Поскольку мы занимаемся теорией больших выборок, то этими «концевыми» эффектами можно пренебречь и использовать матрицу, на диагоналях которой стоят одинаковые элементы. Кроме того, можно изменить и нормировочный множитель Тогда каждая диагональ, отстоящая на от главной диагонали, будет состоять из элементов
Если вычитается среднее то сумма примет вид
Возможны и другие модификации, например Отметим, что мы располагаем наблюдениями на отрезке от до