Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Алгоритм последовательной регрессииСравнение идеального алгоритма (8.5) и метода наименьших квадратов (6.3) показывает, что переход от начального вектора W к оптимальному W осуществляется по прямой, а не по траектории наискорейшего спуска из-за того, что известна матрица Именно такой подход использован в алгоритме последовательной регрессии [1, 2], где вычисляется оценка матрицы Используя обозначения формул (7.38) и (7.62), выразим элементы матрицы R через корреляционную функцию входного сигнала
где
Последняя формула более подходит для решения указанной задачи, поскольку позволяет рассматривать адаптивные системы как с одним, так и со многими входами. Вместо того чтобы находить математическое ожидание в (8.22) по всем значениям индекса k, положим, что имеется только конечное число наблюдений сигнала X, например от
Видно, что в процессе адаптации, когда сигнал X является нестационарным, формула (8.23) не дает хорошей оценки матрицы R, так как при больших значениях индекса k эта оценка становится нечувствительной к изменениям матрицы Чтобы исключить этот эффект, рассмотрим следующую функцию:
Из сравнения этой функции с функцией (8.23) видно, что она отличается от
Сумма всех весовых множителей по k итерациям
Поэтому взвешенная оценка матрицы R на
Очевидно, что в предельном случае, когда сигнал X; является стационарным для всех наблюдений, а стремится к 1 в (8.25), а соотношение (8.27) в пределе равно (8.23). Имея оценку R, перейдем к выводу алгоритма последовательной регрессии. При этом для простоты опустим весовой множитель и рассмотрим
Здесь вместо истинных значений, используемых в гл. 2, взяты
Подставляя (8.27) и (8.29) в (8.28) и сокращая весовой множитель, получаем
На основании (8.30) проведем теперь вывод алгоритма последовательной регрессии, котерый аналогичен выводу в [1, 2, 32]. Будем считать, что по оценкам
Это — другая форма записи выражения (8.30), причем в последнем равенстве подставлено полученное из (8.24) соотношение
Далее подставим в (8.31) выражение (2.8) для полезного сигнала
Умножим теперь обе части равенства слева на
Поскольку
При рассмотрении установившегося состояния, когда А является достаточно большим, чтобы можно было пренебречь в (8.35) значением
что является приближением к (8.5). Отметим, что для нестационарных сигналов
Для обеих записей алгоритма последовательной регрессии необходимо иметь возможность на каждой итерации вычислять Умножая обе части (8.32) слева на
или
Разделим теперь обе части равенства на скалярный множитель в круглых скобках и умножим справа на
Подставляя (8.38) в правую часть (8.40), после некоторых преобразований имеем
Соотношение (8.41) описывает итеративный алгоритм вычисления
трижды входит в (8.41), поэтому в данном алгоритме вычисляется первым. Кроме того, знаменатель в (8.41) является скалярной величиной и поэтому вычисляется отдельно. В качестве начального значения
Входной сигнал
Рис. 8.3. Процесс сходимости элементов функции Из (8.41) следует, что если Итак, получены окончательные формулы алгоритма последовательной регрессии. Аналогичным образом этот алгоритм рассматривается в [1, 2, 5, 24], где, как правило, Поэтому можно выбрать некоторое гарантированное значение этого множителя (например, 0,05, наиболее принятое на практике; см. упражнение 14):
Чтобы подчеркнуть, что при переходе от одной итерации к другой нет необходимости сохранять вектор S и величину у, здесь опущен индекс. Вычисление осуществляется по более точной формуле (8.37), S — по формуле (8.42) и
Рис. 8.4. Сравнение алгоритмов последовательной регрессии и наименьших квадратов при На рис. 8.4. показан процесс адаптации по алгоритму последовательной регрессии (8.44). Приведенный пример — тот же, что и на рис. 8.2, поэтому оба графика можно непосредственно сравнивать. Значение
|
1 |
Оглавление
|