Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.2. ДЕТЕРМИНИРОВАННЫЕ СХОДЯЩИЕСЯ АЛГОРИТМЫКак указывалось в гл. 2, задача оценивания может быть сформулирована как задача минимизации ошибки по некоторому критерию. Критерий ошибки должен быть таким, чтобы его величина одинаково зависела от положительных и отрицательных значений ошибки. Такой критерий условно называется критерием четной функции ошибки. Примером подобного критерия моягет служить функционал вида
где При оценивании параметров по настраиваемой модели, как и в случае оптимальных и самонастраивающихся систем, необходимо найти экстремум функции или функционала. Пусть минимизируемый критерий ошибки есть
где
где Функцию ошибок можно разложить в ряд Тейлора в окрестности точки минимума
и величина
положительно определена. Кроме того, в большинстве случаев членами высшего порядка можно пренебречь (в противном случае см. ниже метод з). Следовательно,
После подстановки (5.216) уравнение (5.20) описывает гиперпараболоид (фиг. 5.13). Для исследования сходимости рассматриваемых процедур важно знать поверхности уровня
Фиг. 5.13. собой многомерные эллипсоиды. Прежде чем перейти к обсуждению деталей, приведем пример квадратичной функции ошибок. Пример. Рассмотрю! простой пример довольно грубой аппроксимации. Допустим, что объект описывается следующим дифференциальным уравнением:
где
Эти уравнения можно разрешить явно относительно
Отсюда
Вблизи оптимума
получаем простые формулы
где
Формулу (5.26) можно также переписать в виде
где
Сравнение уравнений (5.27) и (5.216) показывает, что они эквивалентны при
Алгоритмы настройки делятся на поисковые и градиентные. В первом случае не требуется явного выражения для градиента функции ошибок или функции потерь, тогда как во втором случае используется допущение о возможности вычисления градиента. О методах оптимизации см. [2, 3, 7, 13, 18, 27]. Поисковые методы можно разбить на два подкласса: а) Табличные методы. Функция ошибок оценивается в ряде точек пространства параметров, например в узлах регулярной решетки или в случайно выбранных точках. б) Итеративные методы. Эти алгоритмы обеспечивают движение в направлении спуска, указываемом градиентом. Одним из примеров является симплекс-метод, при использовании которого вычисления начинаются с Другой подход связан с использованием методов случайного поиска, когда в каждой точке случайно ищется направление спуска к меньшим значениям функции. Существует много итеративных алгоритмов случайного поиска. Обзор различных методов можно найти в [25]. Случайный поиск особенно удобен, когда число параметров больше 20. Градиентные методы бывают непрерывными и дискретными. Дискретность может быть связана с измерениями и настройкой. Из непрерывных методов чаще всего применяется метод наискорейшего спуска. В этом случае движение происходит по траектории, которая при фиксированной скорости настройки обеспечивает наиболее быстрое уменьшение ошибки. Оказывается, что эта траектория в каждой точке ортогональна к изоповерхностям критерия имеет вид
Уравнение касательной к линии уровня в точке
Вектор
ортогонален к касательной и, следовательно, к линии уровня. В методе наискорейшего спуска настройка параметров производится по формуле
Таким образом, траектория движения в каждой точке ортогональна к линиям уровня
Фиг. 5.14. необходимо как-то ограничить. Если усиление Дискретные методы делятся на методы, в которых параметры настраиваются поочередно, и методы, в которых все параметры настраиваются одновременно. а) Циклическая настройка параметров. Допустим, что
Чем меньше этот угол, тем больше циклов требуется для обеспечения заданной точности. На фиг. 5.14 показана возможная траектория настройки представляют собой «овраги», то настройка может прекратиться при В дальнейшем будут рассматриваться схемы с одновременной настройкой параметров. Более детальный анализ этих схем содержится в работе [20]. б) Метод наискорейшего спуска. Алгоритм настройки имеет вид
где в) Наискорейший спуск с минимизацией вдоль направления движения. В этом случае имеем алгоритм
Здесь
Фиг. 5.15. настройки. Отметим, что соседние участки траектории бязательно ортогональны. Вблизи минимума сходимость может быть медленной. Естественно поставить вопрос: в каких случаях при эллиптических линиях уровня обеспечивается попадание в оптимум за один гааг? В двумерном случае из формулы (5.26) дледует, что
Для попадания в оптимум за один шаг необходимо, чтобы
Равенства Возвращаясь к геометрической интерпретации, отметим, что условия
где А — диагональная матрица собственных значений, а
где
Определим
тогда
В пространстве z поверхности уровня являются сферами (фиг. 5.16). Алгоритм наискорейшего спуска в Фиг. 5.16, (см. скан) пространстве
и в силу того, что
Вторая производная не зависит от г) Метод Ньютона — Рафсона. Алгоритм имеет вид
Из этой формулы вытекает, что в методе Ныотона — Рафсона движение происходит по направлению к центру гиперэллипсоида, так как используется матрица вторых производных в точке Разлагая критерий в ряд Тейлора в окрестности
Минимум достигается в точке
что приводит к уравнению (5.38). Оценивание вторых производных является достаточно трудной задачей, допускающей, правда, некоторые упрощения, когда
Фиг. 5.17. квадратов (5.18). В этом случае
Вблизи минимума д) Метод Гаусса — Ньютона. Алгоритм имеет вид
Легко проверить, что это обычная оценка метода наименьших квадратов, если Метод Гаусса — Ньютона предпочтительнее метода наискорейшего спуска в силу квадратичной сходимости, хотя в отличие от метода наискорейшего спуска сходимость не гарантируется. Поэтому желательна комбинация этих методов, соединяющая их достоинства. Метод Маркуардта удовлетворяет этому условию. е) Метод Маркуардта. Пусть
Тогда
Так как поверхность уровня не является идеальной гиперсферой, разложим
Следовательно, уравнение (5.41) запишется как
Отсюда следует, что
Дальнейший анализ этой формулы показывает, что при
Фиг. 5.18. обращения, особенно когда число параметров велико. Желательно строить обратную матрицу по информации, полученной на итерациях более простых методов. Это приводит к следующему методу. ж) Метод сопряженных градиентов. Заметим, что для удобства сначала формулу (5.216) можно записать как
где
поэтому
Направления
(Заметим, что ортогональные векторы являются сопряжен ными по отношению к единичной матрице.) Положительно определенная матрица А размерности
Модификация метода наискорейшего спуска заменой градиентного направления движения на сопряженное, как мы увидим, обеспечивает достижение минимума за
где
Так как
справедливо также равенство
поскольку
и
Таким образом, на последнем шаге градиент ортогонален ко всем ранее использованным направлениям. Поэтому, когда на очередпом шаге при определении сопряженпого направления
Подстановкой эту гипотезу легко проверить, что дает
Начиная на первом шаге с направления, определяемого градиентом, после Чаще используется алгоритм Дэвидона [81. Как уже отмечалось, идея этого метода состоит в уточнении обратной матрицы
или
Можно доказать, что
и
где
На Все перечисленные методы хорошо применимы для случая почти квадратичных поверхностей, а также, по-видимому, и для многих других гладких поверхностей, в том числе на наборах однородных функций:
где
Многообещающий алгоритм минимизации таких однородных функций основан на следующем методе. з) Метод Якобсона — Оксмана [11]. Идея метода удивительно проста. Предположим, что в точках
Это система Одним из паиболее серьезных тестов для проверки градиентных алгоритмов является так называемый «овраг» Розенброка, определяемый формулой (см. [20])
Фиг. 5.19 (см. скан) (из работы [20]). Эта поверхность изображена на фиг. 5.19. В работе [20] проведено сравнение нескольких алгоритмов, проверенных на ряде разных «оврагов». Примеры. Для того чтобы дать наглядное представление о возможностях различных методов, было предпринято моделирование этих методов на небольшой вычислительной машине. Рассматривались квадратичная функция
и «овраг» Розенброка. Для каждого алгоритма проводилось по 20 итераций. На фиг. 5.20-5.29 представлены результаты, пол ученные при рассмотрении квадратичной функции Поисковые итеративные методыМетод Хука — Дживса [13]. Начальная точка:
Симплекс-метод [3]. Начальная точка:
Фиг. 5.20.
Фиг. 5.21.
Фиг. 5.22.
Фиг. 5.23. Случайный поиск [25]. Начальная точка:
Адаптивный случайный поиск [25]. Начальная точка:
Градиентные методы с дискретной настройкойНаискорейший спуск. Начальная точка:
Фиг. 5.24.
Фиг. 5.25. Наискорейший спуск с минимизацией вдоль направления движения. Начальная точка:
Метод Маркуардта. Начальная точка:
Фиг. 5.26.
Фиг. 5.27.
Метод Флетчера — Пауэлла (см. [18]). Начальная точка:
Метод Дэвидона (см. [4]). Начальная точка:
Фиг. 5.28.
Фиг. 5.29. Метод Якобсона — Оксмана (см. [11]). Начальная точка:
Читателю рекомендуется снова просмотреть все алгоритмы настройки, используя в качестве иллюстраций предыдущие примеры.
|
1 |
Оглавление
|