Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 7.6. Лилейные акселерантные алгоритмыВ общем случае как оптимальные, так и оптимальные на классе функции потерь не квадратичны и, следовательно, условие оптимальности представляет собой нелинейную систему уравнений относительно оптимального решения. Формируемые на основе условий оптимальности алгоритмы получаются в результате ряда приближений, поэтому акселерантные абсолютно оптимальные на классе алгоритмы в общем случае являются приближенными алгоритмами. И только для объектов с простой помехой, обладающей ограниченной дисперсией (т. е. с плотностью распределения, принадлежащей классу
и
Вспоминая еще, что для оптимальной статической настраиваемой модели (см. § 1.3)
и
получим из (7.5.1), (7.5.2) после очевидных преобразований линейные акселерантные алгоритмы
Здесь фидуциальное распределение считается нормальным с независимыми компонентами, так что в силу (7.4.14) и (7.2.9) начальное значение матрицы
или
Элементы этой диагональной матрицы равны отношению фидуциальных дисперсий к дисперсии помех. Линейные алгоритмы идентификации (7.6.4) — (7.6.6) соответствуют рекуррентной форме метода наименьших квадратов. Как уже было установлено, линейные алгоритмы абсолютно оптимальны при помехе, плотность распределения которой нормальна. Они также абсолютно оптимальны на классе помех с ограниченной дисперсией. Рассмотрим теперь поведение акселерантных линейных алгоритмов при конечных значениях
Обозначая, как обычно, ошибку
выведем уравнение относительно МКО
в силу линейного акселерантного алгоритма (7.6.4), (7.6.5). Алгоритм (7.6.4), учитывая (7.6.9), можно представить в виде
или
Нетрудно найти решение этого векторного линейного разностного уравнения:
Матрица
где
и значит
Отсюда, после умножения слева на
Полагая здесь
Это соотношение позволяет упростить выражение для
Рассмотрим вначале от помехи
Учитывая соотношение (7.6.15) и принимая во внимание независимость
или, после несложных преобразований,
МКО
либо когда
Но при учете фидуциального распределения
Следовательно, вместо (7.6.24) будем иметь
Найдем теперь МКО для этих двух случаев. В первом случае при выборе
Во втором случае, выбирая
Сопоставляя (7.6.28) и (7.6.27), заключаем, что
Из этого неравенства следует, что учет априорной информации об оптимальном решении уменьшает МКО линейных алгоритмов на каждом шаге Для РАР-объектов и АР-объектов с простыми помехами ситуация изменяется. В этих случаях наблюдения
откуда после несложных преобразований получаем
При выполнении условия (7.6.23) или (7.6.24) второе слагаемое здесь обращается в нуль, так что
Из (7.6.32) следует, что матрицы Можно ожидать, что эффект акселеризации, достигаемый соответствующим выбором начальных значений оптимальных на классе алгоритмов. Однако мы пока не владеем формальным доказательством этого факта. Природа эффекта акселеризации, как следует из изложенного выше, состоит в увеличении матрицы
где
|
1 |
Оглавление
|