Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 8. ДРУГИЕ АДАПТИВНЫЕ АЛГОРИТМЫ И СТРУКТУРЫВо введении к гл. 6 отмечалось, что метод наименьших квадратов, несмотря на свою простоту и эффективность, находит ограниченное применение, поскольку его можно использовать в основном для нерекурсивных линейных фильтров. Кроме того, было показано, что этот метод является одним из видов алгоритма наискорейшего спуска, в котором спуск к точке минимума СКО не обязательно осуществляется по самой прямой траектории. В данной главе рассматриваются различные виды алгоритмов, более сложных, чем метод наименьших квадратов, но обладающих явными преимуществами. Сначала вводится алгоритм последовательной регрессии, который является приближением метода Ньютона. При использовании этого алгоритма поиск оптимальных весовых коэффициентов обычно осуществляется по более прямой траектории, чем в методе наискорейшего спуска. Далее применение алгоритма наименьших квадратов распространяется на рекурсивные адаптивные фильтры, т. е. адаптивные фильтры, имеющие полюсы. Эти фильтры, как следует из примера на рис. 7.8, могут иметь неквадратичную рабочую функцию с локальными минимумами и областями неустойчивости, поэтому при использовании для адаптивных рекурсивных фильтров таких градиентных методов, как метод наименьших квадратов, необходимо принимать специальные меры. Помимо поиска минимума СКО по направлению градиента (в методе наискорейшего спуска) и при прямом движении в точку минимума (в методе Ньютона), существует возможность случайного поиска. Поэтому вводится алгоритм случайного поиска, который имеет свои преимущества в случаях, когда рабочая функция не является унимодальной, и в ряде других случаев. Кроме этих алгоритмов в данной главе рассматривается решетчатая структура, представляющая собой основную альтернативу обычной структуре адаптивного линейного сумматора. Ниже показано, что решетчатая структура имеет определенные преимущества по сравнению с обычной. Идеальный алгоритмПрежде чем ввести алгоритм последовательной регрессии, представляющей собой приближение метода Ньютона, рассмотрим адаптивный алгоритм, который является идеальным в том смысле, что характеристики его функционирования не достижимы в практических случаях, но к их реализации можно стремиться. Поэтому идеальный алгоритм является эталоном для сравнения с ним других алгоритмов. Для вывода формулы идеального алгоритма запишем заданный соотношением (4.32) алгоритм Ньютона
Отсюда следует, что при идеальных условиях сходимость к оптимальному вектору весовых коэффициентов осуществляется за один шаг, т. е. при начальном векторе Если нарушено первое из этих условий и Далее, если исключить второе условие и предположить, что вместо градиентного вектора используется его оценка V, то
Теперь алгоритм является идеальным только по третьему условию, т. е. остается только предположение о том, что точно известна матрица
где
Рис. 8.1. Иллюстрация метода Ньютона для двух весовых коэффициентов при Подставляя (8.3) и (8.2), имеем
Теперь это соотношение аналогично соотношению (6.3) для метода наименьших квадратов, за исключением того, что во втором слагаемом есть сомножитель
Этот алгоритм назовем идеальным. Отметим, что единицами измерения величин
Алгоритм (8.5) является идеальным, если предположить, что точно известна матрица
Рис. 8.2. Сравнение метода наименьших квадратов и метода, описываемого выражением (8.5). Рабочая функция задана выражением (6.14) при Выше показано, что при адаптации эта матрица обычно не известна, т. е. X, как правило, нестационарный сигнал, и полагают, что R медленно меняется во времени по неизвестному закону. Помимо этого, алгоритм является идеальным из-за того, что при отсутствии шума траектория изменения весовых коэффициентов для квадратичной рабочей функции является прямой, соединяющей точки В этом смысле даже в условиях шума идеальный алгоритм в общем случае эффективнее метода наименьших квадратов, что видно из рис. 8.2. Кривые на рис. 8.2 также построены для рабочей функции (6.14) при
Элементы
Итак, на рис. 8.2 построены траектории первых 100 итераций для алгоритмов (6.3) и (8.5). Траектория для метода наименьших квадратов почти совпадает с траекторией для метода наискорейшего спуска и в итоге достигает оптимальной точки В обоих случаях траектории на каждой итерации имеют шумовые составляющие из-за шумовой составляющей в оценке градиента, но, как видно, идеальный алгоритм более эффективен.
|
1 |
Оглавление
|