и
Уравнения (7.28) и (7.29) можно сопоставить с (7.19) и (7.20). Поэтому, имея исходную аппроксимацию для
(получаемую, скажем, невзвешенным методом наименьших квадратов), мы можем вычислить соответствующие значения
решить (7.28) и (7.29) и получить новые приближения для
и а затем повторить этот процесс.
Если
велико, то дисперсионная матрица оценок максимального правдоподобия имеет приближенное выражение
где
В последнем выражении второе слагаемое часто бывает мало. Например, если
второе слагаемое в фигурных скобках равно
и им можно пренебречь, если
много меньше чем 1/2. В этом случае дисперсионная матрица для
и приблизительно равна матрице
которая является дисперсионной матрицей для
и зразд. 7.4.1,
Приведенный анализ основан на работе Williams (1959, е. 67-70), но только
следующим различием: мы использовали
вместо о к
вместо
указанной работе
может принимать отрицательные значения).
(b) Метод наименьших квадратов
Этот метод состоит в оценке весов
мощью некоторых исходных оценок для
скажем невзвешенных оценок наименьших квадратов (являющихся несмещенными), и решения уравнений (7.19) и (7.20) с целью получения для
новых оценок. Эти новые оценки можно использовать для пересчета
а затем повторить этот процесс. Williams (1959) считает, что здесь достаточно двух циклов итерации, поскольку для получения точных оценок параметров
вовсе не обязательно иметь слишком точные оценки весов.
Игнорируя тот факт, что оцененные веса
являются случайными величинами, можно считать, что дисперсионная матрица оценок наименьших квадратов приблизительно равна (7.31). Используя теорию разд. 7.4.1, с помощью тех же рассуждений можно получить такие же приближенные критерии и доверительные интервалы, только в качестве
берутся оценки весов, а не сами веса. По этой причине, а также для упрощения вычислений метод наименьших квадратов предпочитают методу максимального правдоподобия.