Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
9.9. Грубый метод оптимизацииПредположим, что заданы оценка функции Е, которая является мерой того, насколько хорошо удовлетворяется критерий (Е имеет неотрицательные значения, а уменьшение Введем в машину три массива: первый вычислениям); и третий — массив из Первый этап расчета состоит в вычислении функции Следующий этап расчета состоит в измеиеиии первого параметра Через эти три значения проводим параболу
где
Поэтому минимум имеет место, когда
По трем данным значениям нетрудно определить, что коэффициенты параболы определяются выражениями
где (интервал шага)
В нашем методе поиска исключено Имея временно оптимизированный первый параметр, необходимо пополнить соответствующие значения в трех массивах. Очевидно, что минимум параболы принимается в качестве новой записи начальной до конечной оценки После обработки первого параметра повторяем ту же процедуру для второго, третьего параметров и т. д. по всему входному ряду параметров. В результате получим три новых массива: первый содержит новые оценки для параметров; второй содержит неопределенности, которые отражают, насколько мы отошли от начальных предположений, и третий массив показывает, где достигнуты большие, а где малые улучшения. Следовательно, так как мы продвигаемся вдоль массива, то становятся доступными оценки значений параметров, вычисленные машиной, неопределенности и параметры, от которых можно ожидать наибольшее улучшение. С этой точки зрения мы просматриваем массив с улучшенными данными для определения наибольшего значения параметра и продолжения работы с ним. В результате на каждой стадии вычисления мы стремимся получить примерно одни и тот же порядок величины всех улучшений, записанных в третьем массиве. Вариации параметров, которые приводят к улучшению, показывают чувствительность подгонки параметров. Как только за время вычислительного цикла улучшения станут небольшими, уже нельзя ожидать, что Е достигнет значения меньшего, чем минимум, принятый для исследуемой модели, и дальнейшие вычисления прекращаются. Имеет смысл постепенно увеличивать значения в графе улучшений с тем, чтобы случайная малая величина не помешала последующим наблюдениям в этой графе. Отметим, что этот алгоритм имеет ряд инвариантных свойств. Он быстро исключает начальные значения как позиций, так и неопределенностей и, кроме того, пренебрегает случайным порядком, в котором выбирались параметры задачи. В конце вычисления каждое изменение параметра сказывается на улучшении подбора примерно так же, как и у любого другого параметра. Эта простая процедура оптимизации поясняет некоторые важные вопросы. Во-первых, начинающий склонен ей доверять. Но она хороша только для простых задач. Во-вторых, она показывает, что простая процедура оптимизации может быть несостоятельной. Предположим, например (как это будет сделано в гл. 12), что необходимо снизить максимум пульсаций полинома в некотором интервале. Возможно, что один параметр, скажем к поверхности В-третьих, мощные процедуры оптимизации в местной библиотеке программ стремятся делать «мощными» в одном или более смыслах. Они могут обеспечить быстрое достижение минимума, однако этот факт только экономит машинное время, что не является особо важным для тех людей, которые эпизодически занимаются расчетом цифровых фильтров. Они могут быть мощными в том смысле, что обеспечивают нахождение минимума для широкого класса поверхностей, включая такие, в которых отыскиваемые впадины извилистые и имеют крутые скаты, так что нужно беспрестанно изменять направления поиска. Кроме того, мощность может относиться к способности точно указывать минимум. Это свойство часто бывает иллюзорным. Если минимум острый и легко определяется, то характеристика фильтра будет изменяться значительно при небольших изменениях в величинах параметров (в том числе и из-за округления при уменьшении длины чисел), тогда как, если этот минимум тупой, то даже при неточном определении места истиииого минимума почти любая близкая точка даст примерно такие же хорошие результаты. В конечном счете выбранный пример показывает, что разыскиваемая минимизированная поверхность может иметь «углы» при изменении многих параметров. Следовательно, если несмотря на это оптимизирующая программа местной библиотеки построена в предположении гладкого характера поверхности и подгонки ее с помощью квадратичных членов во всех параметрах, то возможно, что такая программа будет вести себя странно.
|
1 |
Оглавление
|