9.3. Последовательное оценивание
 
Допустим, что нужно провести последовательность экспериментов, и мы хотим заново оценивать параметры по мере того, как поступают результаты каждого эксперимента. 
Многие изученные нами целевые функции состоят из суммы членов, каждый из которых содержит результаты единственного эксперимента. Примерами являются суммы квадратов, взвешенные суммы квадратов, логарифмические функции правдоподобия с известными ковариационными матрицами. Обозначим в таком случае с помощью  слагаемое, соответствующее
 слагаемое, соответствующее  эксперименту, а с помощью (6) — целевую функцию для
 эксперименту, а с помощью (6) — целевую функцию для  экспериментов. Тогда
 экспериментов. Тогда 
 
Отсюда следует, что 
 
 
Если бы мы уже оценили параметры после  эксперимента,
 эксперимента,  мы нашли бы значение
 мы нашли бы значение  которое минимизирует функцию
 которое минимизирует функцию  Мы по лучили бы также матрицу
 Мы по лучили бы также матрицу  которая является аппроксимацией матрицы Гессе от функции
 которая является аппроксимацией матрицы Гессе от функции  при
 при  Аппроксимация функции
 Аппроксимация функции  рядом Тейлора в окрестности точки
 рядом Тейлора в окрестности точки  дается формулой
 дается формулой 
 
Когда получены результаты  эксперимента, мы хотим найти оценку
 эксперимента, мы хотим найти оценку  которая минимизирует функцию
 которая минимизирует функцию  Естественно ожидать, что
 Естественно ожидать, что  будет не очень сильно отличаться от
 будет не очень сильно отличаться от  так что аппроксимация
 так что аппроксимация  еще действительна и ее можно использовать для подстановки в
 еще действительна и ее можно использовать для подстановки в  Вместо минимизации
 Вместо минимизации  мы можем взамен минимизировать функцию
 мы можем взамен минимизировать функцию 
 
Функция  намного проще и вычисляется легче, чем
 намного проще и вычисляется легче, чем  так что за счет такой подстановки можно сэкономить много машинного времени. Конечно, если окажется, что функция
 так что за счет такой подстановки можно сэкономить много машинного времени. Конечно, если окажется, что функция  минимизируется в точке, настолько далеко ушедшей от точки
 минимизируется в точке, настолько далеко ушедшей от точки  что равенство
 что равенство  уже не может быть принято, то нам придется опять вернуться к функции
 уже не может быть принято, то нам придется опять вернуться к функции  Мы используем оценку
 Мы используем оценку  как начальное приближение для минимизации а результат этой минимизации — как начальное приближение для минимизации
 как начальное приближение для минимизации а результат этой минимизации — как начальное приближение для минимизации  если понадобится. Для этой последней минимизации может оказаться достаточно единственной итерации.
 если понадобится. Для этой последней минимизации может оказаться достаточно единственной итерации. 
Если  это взятый с обратным знаком логарифм функций правдоподобия для
 это взятый с обратным знаком логарифм функций правдоподобия для  эксперимента, то формула
 эксперимента, то формула  может рассматриваться как выражение логарифма апостериорной плотности распределения, в котором слагаемое
 может рассматриваться как выражение логарифма апостериорной плотности распределения, в котором слагаемое  играет роль члена, относящегося к логарифму априорной плотности. Он соответствует нормальному распределению параметров
 играет роль члена, относящегося к логарифму априорной плотности. Он соответствует нормальному распределению параметров  со средним
 со средним  и ковариационной матрицей
 и ковариационной матрицей  Это хорошо согласуется с тем фактом (установленным в главе VII), что матрица
 Это хорошо согласуется с тем фактом (установленным в главе VII), что матрица  есть аппроксимация ковариационной матрицы оценок
 есть аппроксимация ковариационной матрицы оценок  и что квадратичная форма
 и что квадратичная форма  равна приблизительно (если не считать аддитивной постоянной) логарифму апостериорного распре деления после
 равна приблизительно (если не считать аддитивной постоянной) логарифму апостериорного распре деления после  экспериментов. Минимизация функции
 экспериментов. Минимизация функции  соот ветствует отысканию моды апостериорного распределения после
 соот ветствует отысканию моды апостериорного распределения после  экспериментов, когда апостериорное распределение после
 экспериментов, когда апостериорное распределение после  экспериментов принимается как априорное распределение.
 экспериментов принимается как априорное распределение. 
Эти результаты можно распространить на тот случай, когда параметры нужно переоценивать только после того, как будут закончены 
 
у дополнительных экспериментов. Здесь 
 
Процедуры последовательного оценивания приобретают особый интерес, когда вычислительная машина планирует, контролирует и анализирует результаты экспериментов поочередно (см. главу X). Численные иллюстрации даны в разделе 9.8.