12.8. Выравнивание кривой ошибок
При применении в задаче минимаксного критерия Чебышева часто достигается такая аппроксимация, что кривая ошибок близка к равноволновой, но не является ею точно. В таких ситуациях, если нужна точно равноволновая кривая ошибок, можно использовать ошибку для нахождения нового приближения, применяя с этой целью петлю обратной связи, чтобы найтн равномерную кривую ошибок («равномерная» означает, что все локальные экстремальные ошибки имеют одинаковую величину, а не то, что все ошибки одинаковы). В зависимости от индивидуальных вкусов используются различные методы. Можно полагать, что это вопрос только процесса оптимизации, вопрос, связанный не с результатами, а с методами их получения. Мы будем исходить из того, что машинное время для среднего потребителя не имеет значения (хотя для специалиста по расчету фильтров оно может быть важно), так что почти любой возможный метод оптимизации может быть пригоден. При применении библиотечных оптимизаторов возникают затруднения с критерием Чебышева-, поскольку поверхность функции «качество приближения» может иметь изломы.
Один из наиболее популярных методов состоит в том, что вычисляются положение и величина каждого экстремального значения, затем каждый параметр, причем только один в данный момент, немного смещается и на кривой ошибок отмечается вызванное этим смещением изменение каждого экстремального значения. Далее составляется система совместных линейных уравнений, чтобы сделать эти ошибки равновеликими, и уравнения решаются относительно соответствующих изменений параметров. Повторяя этот процесс несколько раз, можно получить решение как угодно близкое к равномерному.
Другой метод состоит в том, что записывают примерные положения нулей кривой ошибок, потом их совместно сдвигают для того, чтобы уменьшить самые большие экстремумы на кривой ошибок, и затем двигают их по отдельности с тем, чтобы увеличить меньшие экстремумы. Опять требуется произвести несколько итераций для выравнивания кривой, требуемого для всех практических целей.
Однако следует отметить, что почти любая хорошая программа оптимизации будет способна выровнять кривую при условии, что в нее будет введен соответствующий критерий. Для задач, в которых параметры вводятся линейно, приближение к лучшему решению обычно достигается быстро и надежно, но когда параметры вводятся нелинейно, уже нет гарантии, что в общем случае будет получен единственный минимум, так как вместо этого может оказаться несколько локальных минимумов максимальной ошибки. Единственно, что можно сделать — это найти хорошее правдоподобное начальное значение для первой пробы и получить уверенность, что оно лежит в нужной области минимума. Применение различных начальных функций будет давать представление о величине локальной области минимума; если же все эти функции спадают к одинаковому минимуму, то они (вероятно) относятся к одной и той же впадине.