Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше
Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике
§ 3.4. Вероятностные итеративные методы
Вероятностные итеративные методы тесло
связаны с методом стохастической аппроксимации, который, несмотря па свое
совершеннолетие и большую популярность в статистической журнальной литературе, долгое
время не находил себе настоящего применения для решения технических задач.
Для того чтобы изложить идею вероятностных
итеративных методов, обратимся к условию оптимальности (2.2), которое с учетом
(3.1) теперь можно записать в более подробной и удобной для нас форме:
, (3.2)
где
(3.3)
представляет
собой градиент по
.
В (3.2) нам неизвестен градиент
функционала, т. е. ,
а известны лишь реализации. Оказывается, что при надлежащем выборе
матрицы мы
можем воспользоваться многими разновидностями регулярных методов, заменив в них
градиент функционала реализациями . И этом как раз и
заключена центральная идея вероятностных итеративных методов. Таким образом,
вероятностный алгоритм оптимизации, или, более кратко, алгоритм адаптации,
можно представить в рекуррентной форме:
(3.4)
Алгоритмы
адаптации можно представить в разностной форме
, (3.5)
либо
в суммарной форме
. (3.6)
Легко видеть аналогию между регулярными
алгоритмами (2.4), (2.7), (2.8) и вероятностными алгоритмами (3.4), (3.5), (3.6).
Но в то же время они существенно отличаются друг от друга хотя бы тем, что
теперь при
. (3.7)
Из-за этой особенности приходится
наложить определённые условия на характер , чтобы обеспечить сходимость. Речь об
этих условиях пойдет ниже.
Сейчас же мы, рассматривая алгоритмы
адаптации (3.4) — (3.6) как уравнения некоторой дискретной системы с обратной
связью, построим ее структурную схему.
Рис. 3.1.
Она изображена на рис. 3.1 и отличается
от структурной схемы, соответствующей регулярному алгоритму оптимизации (рис.
2.1), тем, что теперь, помимо воздействия к функциональному преобразователю
приложено внешнее воздействие . При адаптации мы получаем уже
неавтономную систему, в которую извне поступает информация о сигнале . Обработка этой
текущей информации и позволяет компенсировать недостаточность априорной
информации.