Главная > Адаптивная обработка сигналов
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Адаптивная решетка предсказания сигнала

На рис. 8.17 одношаговое устройство предсказания представлено в виде решетчатой структуры, в которой коэффициенты должны быть изменяющимися во времени или адаптивными. Другие решетчатые структуры, приведенные на рис. 8.11 и 8.13, также могут быть (и в действительности являются) адаптивными [26], но адаптивные решетки в основном используют для предсказания сигнала, особенно при обработке речевых сигналов.

Для адаптации решетки на рис. 8.17 следует изменить все коэффициенты к так, чтобы минимизировать СКО предсказания

Однако наилучшим способом [28, 29] является минимизация СКО каждой ячейки вместо коррекции каждого к, при этом из (8.94)

На рис. 8.17 и в (8.94) — ошибки предсказания и измерения. Для обозначения различных среднеквадратических значений этих ошибок запишем аналогично тому, как это сделано в гл. 7, корреляционные функции

Положим теперь, что сигналы в решетке являются стационарными Прежде всего рассмотрим функции . Определяя среднеквадратическое значение (8.94), имеем

Для левой части решетки

Можно показать, что при подстановке (8.98) в (8.96) и (8.97) , тогда и т. д., откуда

Если кг корректируется в каждой ячейке для минимизации ошибки предсказания то из (8.99)

или

(8.100)

Звездочка здесь использована для обозначения оптимального значения Для доказательства того, что к является оптимальным в том смысле, что достигается минимум не только но и СКО предсказания необходимо, использовав рекурсивную формулу (8.76), найти для каждой ячейки оптимум . В [30, 31] получены алгоритмы вычисления оптимальных весовых коэффициентов фильтра. Не повторяя приведенного в этих работах вывода, рассмотрим решетку с двумя ячейками и коэффициентами

Для этой решетки из (8.99) получаем СКО

(8.101)

Отсюда снова можно найти выражение для на основе (8.99) и исходя из общего соотношения

(8.102)

которое, в свою очередь, следует из (8.95). В обоих случаях не являются функциями от поэтому в соответствии с (8.100) можно минимизировать по . При имеем

(8.103)

Теперь необходимо найти значение минимизирующее (8.103). Если находить в соответствии с (8.100), то минимизируется в (8.103), и его производная по должна быть равна нулю. Таким образом, для минимизируемого по производная последнего члена в (8.103) также должна быть равна нулю. (Поскольку максимальное значение не ограничено, решение должно привести к минимуму.) Следовательно, из (8.102)

(8.104)

Таким образом, показано, что в (8.100) является оптимальным весовым коэффициентом, минимизирующим а также . Такой же результат можно получить, если оптимизировать адаптивный линейный сумматор, а затем преобразовать коэффициенты по табл. 8.2, как это делается в упражнениях 24—26.

Отметим, что глобальный минимум в рассмотренном примере достигается только тогда, когда Ко и принимают свои оптимальные значения. Поэтому можно считать, что процесс сходимости в адаптивной решетке проходит примерно от одной ячейки к другой, при этом осуществляется поиск минимизирующего сначала для затем для и т. д. В адаптивном линейном сумматоре такого процесса сходимости не происходит.

Из (8.100) можно вывести алгоритм наименьших квадратов адаптивной решетки для предсказания сигнала.

Для этого найдем оценку градиента СКО , используя, как и ранее, градиент самой квадратической ошибки:

(8.105)

Окончательное выражение получается дифференцированием в (8.94). Далее, как и в (6.3), подставляем оценку градиента в выражение (4.36) для алгоритма наискорейшего спуска и получаем алгоритм наименьших квадратов для решетки:

Значения сигналов вычисляются здесь в соответствии с (8.94). Следует предположить, что не зависящий от времени параметр различен для каждой ячейки согласно [28], где, по существу, приводится тот же алгоритм.

Прежде чем рассматривать применение алгоритма (8.106), остановимся кратко на анализе области значений параметра для каждой ячейки решетки. Полагая, что оценка градиента является точной, подставляем производную от (8.99) в (8.106):

(8.107)

Введем теперь весовой коэффициент который получен преобразованием коэффициента по аналогии с преобразованием вектора V в вектор W (3.29):

(8-108)

Подставляя это выражение, а также (8.100) в (8.107), имеем

(8.109)

Поскольку должны сходиться к нулю, можно заключить, что необходимым условием сходимости является

(8.110)

Для применяемых на практике адаптивных решеток можно вычислить усреднив повеем предшествующим значениям, и тем самым проверить выполнение условия (8.110) для Как и для адаптивного линейного сумматора, эти параметры сходимости определяют как значения ошибки.

На рис. 8.18-8.21 показан пример функционирования устройства предсказания сигнала. Схема устройства представлена на рис. 8.18, где, как и в предыдущих примерах, предсказываемый сигнал является суммой синусоидального колебания и шума. Устройство осуществляет предсказание сигнала вперед на один временной отсчет. Таким образом, производится выделение из синусоидального колебания и подавление непредсказуемой составляющей белого шума . Полагаем, что мощность выходного сигнала равна мощности шума .

Автокорреляционная матрица сигнала определенная ранее выражениями (2.20) и (6.13),

(8.111)

Рис. 8.18. Схема устройства предсказания на один шаг, используемого в качестве примера

Рис. 8.19. Проекция сечений функции и траектория сходимости весовых коэффициентов по алгоритму наименьших квадратов для приведенной на рис. 8.18 адаптивной решетки предсказания при . Траектория содержит 200 итераций

Рис. 8.20. Проекции сечений рабочей функции и траектория сходимости весовых коэффициентов по алгоритму наименьших квадратов, аналогичные приведенным на рис. 8.19, при замене адаптивной решетки на адаптивный трансверсальный фильтр для и нулевых начальных значений весовых коэффициентов. Траектория содержит 300 итераций

Рис. 8.21. Обучающие кривые адаптивного трансверсального устройства предсказания и адаптивной решетки. Приведенные кривые почти одинаковы

В данном примере рассмотрим решетку с двумя ячейками и весовыми коэффициентами . Из (8.98), (8.99) и (8.102) можно получить следующее выражение для рабочей функции:

(8.112)

Очевидно, что эта рабочая функция — квадратичная по каждому весовому коэффициенту, но в отличие от адаптивного трансверсального фильтра проекции сечений графика рабочей функции для фиксированных значений не являются эллиптическими.

На рис. 8.19 построены проекции сечений рабочей функции (8.112) и показана характерная траектория адаптации. Отметим, что, как обсуждалось ранее, является независимым, т. е. для любого значения коэффициент можно независимо характеризовать для поиска его оптимального значения. Эта процедура рассматривается ниже, при этом приняты следующие параметры:

(8.113)

Эти значения удовлетворяют неравенству (8.110), когда (или ). Так же, как и для адаптивного линейного сумматора, в данном случае обычно выбирают значение параметра , равное 0,1 от верхней границы неравенства (8.110). Отметим, что кривая на рис. 8.19 приблизительно совпадает с кривой для метода паискорейшего спуска. В соответствии с (8.99), (8.100) и (8.102) оптимальные значения весовых коэффициентов составляют:

Кривая на рис. 8.19 достигает окрестности оптимальных значений весовых коэффициентов менее чем за 200 итераций.

Для сравнения с примером на рис. 8.19 на рис. 8.20 представлен тот же адаптивный процесс, но здесь вместо адаптивной решетки применен адаптивный трансверсальный фильтр. В этом примере проекции сечений рабочей функции эллиптические. Около точки график рабочей функции достаточно плоский, однако для достижения окрестности точки при необходимо около 300 итераций. Решетчатая структура для предсказания сигнала обладает тем преимуществом, что каждая ячейка имеет свой, отличный от других, параметр сходимости, выбираемый из условия (8.11), и в общем случае это позволяет осуществлять процесс адаптации быстрее, чем для обычного метода наименьших квадратов [34]. (В примерах на рис. 8.19 и 8.20 использована одна и та же случайная последовательность.)

На рис. 8.21 представлены обучающие кривые для обоих видов устройств предсказания. Среднеквадратическая ошибка оценивается здесь усреднением каждого по десяти ближайшим значениям. Для полученных таким образом параметров и одной и той же случайной последовательности обе обучающие кривые почти одинаковы. Отметим, что установившееся значение g примерно равно 0,05.

Поскольку и осуществляется предсказание синусоидального колебания, а относительное среднее значение СКО М в этом случае должно быть равно примерно 4.

Аналогично тому, как это сделано выше для адаптивного линейного сумматора, можно вывести алгоритм последовательной регрессии (т. е. алгоритм, приближенный к методу Ньютона) для адаптивной решетки. Из (8.99) имеем СКО на выходе ячейки решетки:

(8.115)

Найдем производную (8.115) по к, и назовем ее градиентом:

Далее найдем решение уравнения (8.116) для , подставим его в (8.100):

В результате имеем формулу одношагового алгоритма Ньютона, аналогичную равенству (4.30) в гл. 4, поэтому, как и в (8.1), умножим второе слагаемое на . Если теперь заменить в (8.105) градиент на его оценку, то получим формулу алгоритма последовательной регрессии, сравнимую с выведенной выше:

(0)

Для адаптивного линейного сумматора необходима оценка матрицы R, поэтому в данном алгоритме требуется оценка . Для нестационарных условий процесса адаптации вводятся, как и в (8.21), коэффициенты при отсюда оценка

(8.119)

Многократно подставляя (8.119), получаем следующую рекурсивную формулу:

(8.120)

При нулевых начальных условиях и выбранном в соответствии с (8.44) а полный алгоритм последовательной регрессии для решетки

Как и для алгоритма наименьших квадратов (8.106), полагаем, что значения сигналов вычисляются в соответствии с (8.94). В действительности, как видно из (8.106) и (8.121), для решетки алгоритмы наименьших квадратов и последовательной регрессии, по существу, являются одинаковыми, за исключением того, что в (8.121) оценка осуществляется на каждом шаге. На рис. 8.22 показана кривая для алгоритма последовательной регрессии в рассматриваемом примере. Отметим, что здесь кривая несколько ближе к оптимальной, чем на рис. 8.19.

Итак, в данном подразделе рассмотрено использование адаптивной решетки в качестве устройства предсказания. Одним из основных ее приложений являются устройства сжатия речевого сигнала, в которых осуществляется предсказание речевого сигнала с помощью адаптивной решетки, длина которой достаточна для формирования выходного сигнала, близкого к белому шуму [35].

Рис. 8.22. Проекции сечений рабочей функции и траектория сходимости весовых коэффициентов по алгоритму последовательной регрессии для адаптивной решетки предсказания, приведенной на рис. 8.18, при Траектория содержит 200 итераций

Значения коэффициентов решетки записываются с относительно низкой скоростью. Затем для восстановления речевого сигнала по этим коэффициентам строится решетка с передаточной функцией без нулей и изменяющейся во времени структурой (рис. 8.13), управление которой осуществляется формируемыми для нее шумовыми последовательностями. Восстановленный речевой сигнал снимается с выхода решетки без нулей. Основное преимущество применения здесь решетки состоит в том, что она всегда является устойчивой, т. е. нули устройства предсказания и полюсы восстанавливающего устройства находятся внутри круга единичного радиуса при условии, что для

1
Оглавление
email@scask.ru