Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ГЛАВА 3. Абсолютно оптимальные алгоритмы идентификации§ 3.1. Формирование оптимальных и абсолютно оптимальных алгоритмовОптимальные алгоритмы, получаемые Напомним, что при выводе АМКО, изложенном в § 2.2, было использовано приближенное выражение оценки
Как было отмечено ранее (см. (2.1.14)}, при
Произведя в (3.1.1) замену матрицы Гессе изменив обозначение
а значит, и
где, напомним (см. (2.1.6)),
Вычитая (3.1.4) из (3.1.3), получим
Вычислим разность градиентов. Учитывая (3.1.5), находим
При больших
Заменим в правой части этого приближенного равенства неизвестное оптимальное решение с на оценку
Далее, как было уже ранее показано (см. (1.6.31)),
Подставляя в (3.1.6) выражение матрицы Гессе
где
Этот рекуррентный алгоритм получен из уравнения (3.1.3), определяющего оценку
Но рекуррентный алгоритм (3.1.11), (3.1.12) полностью совпадает с оптимальным алгоритмом стохастической аппроксимации (1.7.11), (1.7.12) при фиксированной функции потерь Поскольку максимальная скорость сходимости оптимального алгоритма достигается при оптимальной функции потерь
Для получения абсолютно оптимального алгоритма нужно в оптимальном алгоритме (3.1.11), (3.1.12) произвести замены
и
где
где
Принимая во внимание, что (см. (2.5.7))
находим из (3.1.13) АМКО абсолютно оптимального алгоритма
Правая часть этого равенства совпадает с нижней границей неравенства Крамера — В заключение отметим, что если оптимальные алгоритмы — это алгоритмы стохастической аппроксимации, оптимальные по матрице усиления, то абсолютно оптимальные алгоритмы — это алгоритмы стохастической аппроксимации, оптимальные как по матрице усиления. так и по функции потерь.
|
1 |
Оглавление
|