Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 5.3. Альтернативная адаптация в процессах поисковой оптимизацииРассмотрим структурную адаптацию в процессах поисковой оптимизации [168]. Проблема поисковой оптимизации возникла в связи с необходимостью решения сложных задач типа математического программирования:
возникающих при алгоритмизации процессов управления, принятии оптимальных решений и т. д. Здесь
или конечным множеством, т. е. определять дискретные значения аргумента:
или сочетанием этих ограничений. Возможны и другие формы задания области Сложность решения (5.3.1) для мало-мальски реальных задач заключается прежде всего в том, что функция Задача, таким образом, заключается в отыскании хотя бы одного решения X, удовлетворяющего очевидному условию
Суть поискового метода отыскания X сводится к построению последовательности
которая должна сходиться к достаточно малой окрестности решения X. Алгоритм поиска
где
связывающего два соседних состояния Очевидно, что алгоритм
Каждый из критериев зависит от алгоритма
Таким образом, каждый критерий в (5.3.8) имеет вид
Задача выбора оптимального алгоритма сводится тем самым к задаче оптимизации:
где К — оптимизируемый критерий эффективности алгоритма Введя понятие класса ситуаций
и правило оценки критерия К на этом классе (например, как максимума или среднего на классе), получаем оптимальные алгоритмы поиска. Примерами таких оптимальных алгоритмов являются известные алгоритмы Кифера и Ньютона: первый — для класса одномерных унимодальных функций без случайных помех, заданных на ограниченном интервале, при мини максном критерии оптимальности, связанном с интервалом не определенности в оценке положения экстремума; второй — для класса положительно-определенных квадратичных форм при Однако число подобных оптимальных алгоритмов весьма мало, да и ценность их при решении сложных задач оптимизации сомнительна, так как обычно чрезвычайно трудно определить принадлежность конкретного объекта к тому или иному классу, для которого построен оптимальный алгоритм. Именно это обстоятельство заставляет обращаться к адаптации алгоритмов поиска, т. е. приспосабливать алгоритм на каждом шаге к сложившейся ситуации Представим алгоритм
где Адаптация алгоритма изменения параметров алгоритма С (см. § 3,5, где описаны методы адаптации рабочего шага, объема накопления и параметров распределения случайного шага). Этот вид адаптации имеет ярко выраженный параметрический характер и широко используется при поисковой оптимизации сложных систем. Он хорошо исследован, и его применение не вызывает, как правило, серьезных алгоритмических трудностей [182]. Однако эффект от параметрической адаптации часто бывает не столь высок, как необходимо. Именно это обстоятельство заставляет обращаться к адаптации структуры
решением которой является оптимальная структура Как видно, задача (5.3.14) адаптации структуры является двухуровневой задачей, где на первом уровне решается задача параметрической адаптации (быстрый контур адаптации), а на втором — задача структурной адаптации (медленный контур) (рис. 5.3.1). Это означает, что каждый шаг структурной адаптации должен сопровождаться целым циклом работы контура параметрической адаптации. В противном случае решение, принятое на верхнем уровне, будет недостоверным из-за того, что значение критерия качества данной структуры оказалось неоптимизированным по параметрам этой структуры. Рассмотрим основные возможные подходы к решению задачи структурной адаптации алгоритма поиска. 1. Идентификация ситуации из конечного множества [74, 84, 120] опирается на заранее описанное конечное множество альтернативных ситуаций
типа «яма», «овраг», «долина» и т. д. По выбранному критерию
Рис. 5.3.1. Двухкошурная система адаптации алгоритма поиска. К каждой ситуации соответствует один из альтернативных алгоритмов:
т. е. имеет место определенное соответствие между сложившейся ситуацией и оптимальной структурой алгоритма: 2. Идентификация ситуации из континуального множества. В этом случае каждую ситуацию удобно кодировать вектором
в
Таким образом, имеет место -классовая задача распознавания образов, построенная на основе конечной обучающей выборки
элементы которой получены заранее путем
где Пример [165, 167]. Рассмотрим два алгоритма случайного поиска
с линейной тактикой —
где
— вероятностью того, что случайный шаг окажется удачным, и
— вероятностью того, что шаг в удачном направлении удачен. Если в качестве критерия
При Исходная информация для этой оценки — показатель
Определяющим является либо последний повторный шаг
на каждом шаге поиска, можно оценивать искомые вероятности по следующим рекуррентным формулам:
где Однако предварительная идентификация несвойственна процессам адаптации. Поэтому для структурной адаптации поиска естественно использовать алгоритмы, описанные в § 5.1. 3. Начнем с алгоритмов, реализуемых автоматами с целесообразным поведением (см. п. 5.1.2.1). Приведем примеры реализации различных алгоритмов адаптации поиска [215]. Пусть в моменты времени
которая является аналогом ускорения процесса поиска. Естественно выбрать тот алгоритм, который обеспечивает отрицательное значение этой функции. Тогда под удачей Был проведен ряд модельных экспериментов для исследования такого подхода к альтернативной адаптации алгоритмов поиска [215]. В первой серии экспериментов в качестве алгоритмов оптимизации бьши выбраны два одинаковых алгоритма «с пересчетом» с адаптацией величины рабочего шага [184]:
где В работах [184, 215] было доказано (см. также § 3.5), что Для гладких модельных функций оптимальная величина взять
При начальном условии На рис. 5.3.3 представлены аналогичные данные для В следующем эксперименте изучался разброс двуальтернативных адаптивных алгоритмов. На рис. 5.3.4 представлены результаты расчетов для случая
Рис. 5.3.2. Результаты оптимизации адаптивным двуальтернативным алгоритмом при различных значениях параметра тактности К. Для сравнения приведены результаты работы альтернативных алгоритмов в отдельности (кликните для просмотра скана) вариант адаптивного алгоритма всегда лучше худшего алгоритма Вторая серия экспериментов проводилась с тремя аналогичными алгоритмами случайного поиска. Значения В третьей серии экспериментов рассмотрена совместная работа «реальных» поисковых алгоритмов — метода Давидона—Флетчера—Пауэлла
где Для функций, в которых присутствуют члены второй суммы (5.3.33), метод 4. Рассмотрим теперь эксперименты по использованию стохастического автомата с переменной структурой (см.
Рис. 5.3.5. (см. скан) Результаты экспериментов, — оптимальный — приращение показателя качества на Параметрами альтернативной адаптации являлись: — число К тактов, образующих один этап поиска, за время которого происходит оценка
(в течение одного этапа алгоритм поиска не. изменяется); — параметр — параметр Р сглажи вания в формуле (5.3.34). Результаты экспериментов, осредненные по десяти реализациям, представлены на рис. 5.3.5, где показано поведение десятичного логарифма минимизируемой функции в процессе оптимизации. Параметры алгоритма адаптации были следующими:
Из рисунка видно, что алгоритм поиска со структурной адаптацией всегда лучше худшего в данной ситуации алгоритма. Более того, при удачном выборе параметров адаптации этот алгоритм может работать как лучший (см. рис. 5.3.5, г) или Даже лучше него (см. рис. 5.3.5, в). Дело в том, что алгоритм переключения включает наилучший по критерию быстродействия алгоритм поиска. Но в процессе параметрической адаптации случайно таким наилучшим может оказаться худший в среднем Заметим в заключение параграфа, что использование подобной альтернативной адаптации в пакете программ оптимизации, осуществляющей «переключение» различных программ пакета, позволяет существенно повысить эффективность работы пакета оптимизации, особенно в обстановке значительной неопределенности относительно специфики структуры решаемой задачи.
|
1 |
Оглавление
|