Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
11.6. Выбор схемы пересчета шагаАлгоритмы рекуррентной идентификации (11.44) и (11.57) в значительной степени определяются своими нерекуррентными прототипами. Вычисление предсказания выводится из соответствующей структуры модели, а вопрос о выборе Направление пересчета. Существуют две основные возможности выбора направления пересчета: 1. Направление Гаусса - Ньютона соответствующее матрице
2. Градиентное направление, соответствующее матрице
или
Выбор между этими двумя направлениями можно охарактеризовать как выбор между скоростью сходимости и сложностью алгоритма. Очевидно, направление Гаусса-Ньютона требует большего числа вычислений. Для пересчета С другой стороны, скорость сходимости для направления Гаусса - Ньютона зачастую может быть значительно больше. Для случая постоянных параметров анализ показывает, что это направление пересчета порождает оценки, асимптотическое распределение которых имеет ковариацию, равную нижней границе Крамера Рао (см. (11.51)) . Для других направлений пересчета это не верно. Заметим, что этот теоретический результат справедлив только для случая стационарной системы. При дрейфе истинных параметров обычно результаты получаются лучше для другого направления пересчета, согласованного с дрейфом параметров, как в (11.67) (см. [42]). Пересчет шага: улучшение свойств адаптации. Важной особенностью рекуррентных алгоритмов, как отмечалось в разделе 11.2, является их способность отслеживать нестационарность системы. Обычно это достигается двумя способами: 1. Выбираем соответствующий профиль забывания
2. Вводим предполагаемую матрицу ковариаций В обоих случаях выбор пересчета шага или усиления в алгоритме является компромиссом между способностью отслеживания и чувствительностью к шуму. Большой коэффициент усиления означает, что алгоритм быстро реагирует на изменения параметров, но в то же время чувствителен к помехам, присутствующим в данных, поскольку они ошибочно интерпретируются как иризнак изменения параметров. Этот компромисс можно обсудить более точно в терминах величин Выбор факторов забывания
константа X всегда выбирается несколько меньше единицы, поэтому
Это означает, что более старые измерения, произведенные
можно назвать постоянной времени забывания в критерии. Если система остается примерно неизменной в течение изменений в динамике и самой динамической системы. Обычно выбирают X в диапазоне между от 0.980 и 0.995. Можно также рассмотреть реакцию на внезапное изменение в истинной системе. Если изменение произошло к шагов назад, отношение текущих к устаревшим членам в критерии равно
Здесь Для системы, подверженной скорее прерывистым и внезапным, чем плавным и медленным изменениям, можно сформулировать принцип адаптивного выбора Выбор коэффициента усиления
Аналогичным образом, мгновенное уменьшение в момент времени Поучительно также обсудить прямые способы выбора коэффициента усиления. Интуитивно ясно, что коэффициент усиления должен отражать относительную информативность текущих наблюдений. Наблюдение, содержащее важную информацию (по сравнению с уже известной) заслуживает большого коэффициента усиления, и наоборот. Этот принцип полезен в различных ситуациях: для стационарной системы относительная важность единичного наблюдения затухает как Учет модели изменения параметров. По аналогии с версией фильтра Калмана (11.29) можно ввести предположение, что истинные параметры изменяются в соответствии с
Если предположить, что дисперсия наблюдений равна вариант общего алгоритма (11.44):
В случае модели линейной регрессии этот алгоритм обеспечивает оптимальный компромисс между способностью отслеживания и чувствительностью к шуму в смысле минимума матрицы ковариаций ошибки апостериорной оценки параметров. (Это непосредственно следует из вывода фильтра Калмана, представленного в оригинальной работе Калмана и Бьюси [207], что также отмечается в работах Бохлипа [54] и Острема и Витенмарка [31].) Однако для других моделей алгоритм (11.67) близок к оптимальному. По поводу эвристического вывода см. задачу Случай, когда параметры подвержены изменениям, которые сами имеют нестационарный характер (т.е. Неизменные системы. Для стационарной системы естественный профиль забывания состоит в выборе
Причина, очевидно, связана с тем, что нельзя злоупотреблять информацией, содержащейся в начальных наблюдениях, и следует, таким образом, ввести в критерий меньший вес для более старых измерений, что приведет к улучшению способа обработки информации (фильтры, соответствующие (11.42) становятся при этом более точными).
|
1 |
Оглавление
|