10.3. Вычисление градиента
Чтобы использовать формулы, приведенные в предыдущем разделе, необходимо иметь выражения для
, градиента предсказания. Количество вычислений, требуемых для вычисления
сильно зависит от структуры модели, и иногда приходится прибегать к численному дифференцированию. В этом разделе будут представлены выражения для некоторых общих структур модели.
Пример 10.1. Структура ARMАХ-модели.
Рассмотрим ARMAX-модель (4.14). Предсказатель задается соотношением
Дифференцируя это выражение по
получаем
Аналогично
и
вектор
определены соотношением (4.20), эти выражения могут быть переписаны более удобным образом в виде
Даким образом, градиент получается посредством обработки вектора регрессии
фильтром
Этот фильтр усгойчив для всех
для которых устойчив предсказатель
Модель черного ящика с одним входом и одним выходом Большинство формул для моделей черного ящика с одним входом и одним выходом будут содержаться в изложении общей модели (4.33). Предсказатель для этой модели задается соотношением (4.35):
Отсюда находим, как в примере 10.1, что
где
используются в смысле определений
Таким образом, градиент
в этом случае также получается обработкой вектора регрессии
(определенного в
линейными фильтрами, хотя различным частям у в общем случае соответствуют различные фильтры. Очевидно, что все введенные здесь фильтры устойчивы для
определенном в лемме 4.1, т. е. для тех же О, для которых устойчивы предсказатели.
В частном случае модели с ошибкой на выходе
(см. также
получаем из
Конечномерные линейные стационарные модели Линейная стационарная конечномерная модель всегда может быть представлена в виде
с соответствующим выбором матриц
и при
Это справедливо для общей модели с одним входом и одним выходом (4.35), для которой
может быть выбран в виде (4.40), а также для общей модели в пространстве состояний (4.83), для которой
Устойчивость предсказателя (10.57) требует, чтобы параметр
принадлежал
Теперь можно продифференцировать уравнение (10.57) относительно 0. Введя
можно записать для некоторых матриц
Нетрудно проверить, что
-матрица
будет содержать матрицу
в каждом своем диагональном блоке и иметь всюду выше этой блочной диагонали нули. Следовательно, свойства устойчивости
совпадают.
Для получения общих алгоритмов удобно использовать (10.61). Очевидно, эти уравнения, как таковые, не будут удобны для практических вычислений градиента, поскольку фильтр имеет порядок
Однако как показали Гупта и Мера [152], размерность подпространства управляемости (10.61) не превышает
независимо от параметризации и от значения 0. Таким образом, объем необходимых в (10.61) вычислений может быть существенно сокращен с помощью соответствующих преобразований.
Наконец заметим, что при использовании методов раздела 10.2, выражения для вычисления
представленные в настоящем разделе, должны применяться на каждой итерации. Это означает, что необходимо прогонять данные от
до
через фильтры тина (10.55) или (10.61) для каждой итерации в (10.41).
Рекуррентные методы задач оценивания по накопленным данным. Идея экономии работы в процедуре минимизации может быть реализована в виде объединения методов раздела 10.2 и 10.3 с тем, чтобы изменять оценку 0 в (10.41) в тот же момент времени, в который вычисляются градиенты ошибки предсказания в (10.61) (т.е. связать идекс
Такие рекуррентные алгоритмы будут развиты в гл. 11 для использования в реальном масштабе времени. Однако они крайне полезны также и для задач оценивания по накопленным данным и представляют собой альтернативу (10.41). Тогда обычно дважды пропускают записанные данные через рекуррентный алгоритм; при этом можно показать, что такая процедура будет иметь те же свойства сходимости, что и (10.41). Дальнейшие подробности см. в работах Льюнга и Седерстрема [262, раздел 7.2] и Солбранда, Алена и Льюнга [379].