Главная > Идентификация систем. Теория для пользователя
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

11.6. Выбор схемы пересчета шага

Алгоритмы рекуррентной идентификации (11.44) и (11.57) в значительной степени определяются своими нерекуррентными прототипами. Вычисление предсказания выводится из соответствующей структуры модели, а вопрос о выборе или связан с выбором между методом ошибки предсказания и корреляционным подходом. Остается открытым вопрос о величине изменяющей направление пересчета оценки и определяющей длину шага. В этом разделе обсуждаются некоторые аспекты определения величин и (Для удобства обозначений приводятся выражения для рекуррентного метода ошибки предсказания Результаты для рекуррентного метода псевдолинейной регрессии аналогичны и получаются заменой на

Направление пересчета. Существуют две основные возможности выбора направления пересчета:

1. Направление Гаусса - Ньютона соответствующее матрице аппроксимирующей гессиан исходного критерия идентификации:

2. Градиентное направление, соответствующее матрице пропорциональной единичной матрице:

или

Выбор между этими двумя направлениями можно охарактеризовать как выбор между скоростью сходимости и сложностью алгоритма. Очевидно, направление Гаусса-Ньютона требует большего числа вычислений. Для пересчета как в (см. также раздел требуется осуществить вычислительные операции, число которых пропорционально и которые обычно будут составлять основной объем вычислений в (11.44). Для реализации градиентного направления можно обойтись количеством операций на один пересчет, пропорциональным

С другой стороны, скорость сходимости для направления Гаусса - Ньютона зачастую может быть значительно больше. Для случая постоянных параметров анализ показывает, что это направление пересчета порождает оценки, асимптотическое распределение которых имеет ковариацию, равную нижней границе Крамера Рао (см.

(11.51)) . Для других направлений пересчета это не верно. Заметим, что этот теоретический результат справедлив только для случая стационарной системы. При дрейфе истинных параметров обычно результаты получаются лучше для другого направления пересчета, согласованного с дрейфом параметров, как в (11.67) (см. [42]).

Пересчет шага: улучшение свойств адаптации. Важной особенностью рекуррентных алгоритмов, как отмечалось в разделе 11.2, является их способность отслеживать нестационарность системы. Обычно это достигается двумя способами:

1. Выбираем соответствующий профиль забывания в критерии (11.33) или выбираем подходящий коэффициент усиления в (11.44) или (11.57). Эти два подхода эквивалентны в свете соотношений (11.7), (11.13) или (11.14), которые можно объединить следующим образом:

2. Вводим предполагаемую матрицу ковариаций для изменения параметров за один шаг в Это увеличит матрицу следовательно, вектор коэффициентов усиления

В обоих случаях выбор пересчета шага или усиления в алгоритме является компромиссом между способностью отслеживания и чувствительностью к шуму. Большой коэффициент усиления означает, что алгоритм быстро реагирует на изменения параметров, но в то же время чувствителен к помехам, присутствующим в данных, поскольку они ошибочно интерпретируются как иризнак изменения параметров. Этот компромисс можно обсудить более точно в терминах величин

Выбор факторов забывания Выбор профиля забывания концептуально прост: в результате критерий, но существу, должен содержать те измерения, которые относятся к текущим свойствам системы. Для системы, в которой происходят постоянные изменения, причем стационарным образом, обычно выбирают постоянный фактор забывания:

константа X всегда выбирается несколько меньше единицы, поэтому

Это означает, что более старые измерения, произведенные шагов назад, включаются в критерий с весом, составляющим от веса текущего измерения. Величину

можно назвать постоянной времени забывания в критерии. Если система остается примерно неизменной в течение шагов, то (11.65а) позволяет определить соответствующее значение Поскольку интервал дискретизации обычно отражает естественное значение постоянной времени динамической системы, можно выбрать X из условия соответствия величины отношению постоянных времени

изменений в динамике и самой динамической системы. Обычно выбирают X в диапазоне между от 0.980 и 0.995.

Можно также рассмотреть реакцию на внезапное изменение в истинной системе. Если изменение произошло к шагов назад, отношение текущих к устаревшим членам в критерии равно Следовательно, реакция на одношаговое изменение в системе подобна реакции системы первого порядка с постоянной времени (11.65а). Для неизменной системы, принадлежащей множеству моделей, из задачи следует, что отклонение оценки от истинного значения ведет себя таким образом, что

Здесь истинная дисперсия обновлений. Оба выражения (11.65а) и описывают в формальных терминах содержащийся в X компромисс между способностью к быстрому реагированию и чувствительностью к шуму.

Для системы, подверженной скорее прерывистым и внезапным, чем плавным и медленным изменениям, можно сформулировать принцип адаптивного выбора При обнаружении внезапного изменения в системе следует уменьшить за один шаг до малой величины, вырезая таким образом прошлые наблюдения из критерия, а затем увеличить до значения, близкого к единице. Такие способы адаптивного выбора X обсуждаются, например, в [120] и [159].

Выбор коэффициента усиления Вопрос о выборе коэффициента усиления может быть решен на основе соответствующего выбора фактора забывания с использованием (11.62). Постоянный фактор забывания X приводит в пределе к постоянному значению коэффициента усиления

Аналогичным образом, мгновенное уменьшение в момент времени значения до малой величины и последующее увеличение до единицы соответствует мгновенному увеличению до значения, близкого к 1 (см. (11.62)), и дальнейшему изменению по закону

Поучительно также обсудить прямые способы выбора коэффициента усиления. Интуитивно ясно, что коэффициент усиления должен отражать относительную информативность текущих наблюдений. Наблюдение, содержащее важную информацию (по сравнению с уже известной) заслуживает большого коэффициента усиления, и наоборот. Этот принцип полезен в различных ситуациях: для стационарной системы относительная важность единичного наблюдения затухает как После существенного изменения в динамике системы относительная информативность наблюдений возрастает. Измерение с большой шумовой составляющей имеет меньшую информативность и т.д. См. также задачу

Учет модели изменения параметров. По аналогии с версией фильтра Калмана (11.29) можно ввести предположение, что истинные параметры изменяются в соответствии с

Если предположить, что дисперсия наблюдений равна получим следующий

вариант общего алгоритма (11.44):

В случае модели линейной регрессии этот алгоритм обеспечивает оптимальный компромисс между способностью отслеживания и чувствительностью к шуму в смысле минимума матрицы ковариаций ошибки апостериорной оценки параметров. (Это непосредственно следует из вывода фильтра Калмана, представленного в оригинальной работе Калмана и Бьюси [207], что также отмечается в работах Бохлипа [54] и Острема и Витенмарка [31].) Однако для других моделей алгоритм (11.67) близок к оптимальному. По поводу эвристического вывода см. задачу Тем не менее, этот алгоритм достаточно хорошо работает в тех случаях, когда имеется априорная информация о характере изменения параметров (например, когда известно, что часть параметров изменяется более быстро, чем остальные). Алгоритм полезен еще и тем, что представляет собой оценку дисперсии ошибки оценивания с учетом изменений истинной системы. Для линейной регрессии с нормальными помехами и нормальным дрейфом матрица точно равна матрице ковариаций апостериорного распределения причем среднее значение равно См. также (11.29).

Случай, когда параметры подвержены изменениям, которые сами имеют нестационарный характер (т.е. в (11.66) существенно зависит от может быть рассмотрен путем введения параллельного алгоритма, как описано в [9].

Неизменные системы. Для стационарной системы естественный профиль забывания состоит в выборе или Однако оказывается, что для многих рекуррентных алгоритмов (исключая рекуррентные наименьшие квадраты) скорость сходимости на начальных шагах существенно улучшается при введении фактора забывания, увеличивающегося, скажем, от 0.95 до 1 в течение первых 500 шагов:

Причина, очевидно, связана с тем, что нельзя злоупотреблять информацией, содержащейся в начальных наблюдениях, и следует, таким образом, ввести в критерий меньший вес для более старых измерений, что приведет к улучшению способа обработки информации (фильтры, соответствующие (11.42) становятся при этом более точными).

1
Оглавление
email@scask.ru