в котором неизвестный коэффициент, a - белый шум с известной корреляционной функцией где не зависит от Как известно, этому дифференциальному уравнению соответствует нормальный случайный процесс с экспоненциальной функцией корреляции
причем из-за незнания параметра неизвестно ни время корреляции, ни дисперсия этого процесса.
Пусть данные наблюдения представляют собой последовательность величин где
величины независимы, имеют гауссово распределение и дисперсию а индекс относится к дискретному моменту времени Интегрируя (10.5.28) от до получаем рекуррентное соотношение
где интервал не обязательно мал (так что случайная величина с дисперсией
Рекуррентное соотношение (10.5.31) является точным, при малых значениях оно может быть упрощено так же, как в рассмотренных выше примерах, но в данном случае мы пока не будем этого делать, чтобы проиллюстрировать, что отказ от подобных упрощений исходных рекуррентных соотношений практически не приводит к усложнению рекуррентных соотношений для оценок.
Дополняя неизвестным параметром (3, получим вектор задающий полную совокупность оцениваемых параметров, для которого
Кроме того,
Подставляя эти значения в выражения (10.4.22), получаем систему рекуррентных соотношений, определяющих оценки интересующего нас параметра и неизвестного коэффициента :
Эти рекуррентные соотношения задают алгоритм оценивания переменного параметра определяемого линейным стохастическим уравнением (10.5.28) с неизвестным коэффициентом
Рассмотрим поведение этих рекуррентных соотношений на начальных шагах, полагая, что всякис априорные данные о начальных значениях отсутствуют. С учетом этой полной априорнои неопределенности положим
Равенство означает, что мы допускаем сколь угодно большой разброс значений (конечно, вместо бесконечности можно положить эти элементы матрицы равными каким-либо достаточно большим числам), равенство означает отсутствие статистической взаимосвязи между также соответствует наибольшей степени априорной неопределенности начальных условий.
Подставляя (10.5.39) в рекуррентные соотношения (10.5 37), (10.5.38), будем иметь для первого шага:
и аналогично для второго шага
Начиная со второго шага, все элементы матрицы становятся конечными и алгоритм вырабатывает ненулевые оценки обоих параметров. При дальнейшем увеличении элементы матрицы убывают (при больших как а элемент (по крайней мере при и стабилизируется и стремится к постоянному значению.
На этом примере наглядно видно, что процесс адаптации практически заканчивается за конечное число шагов и может быть оборва» при достижении некоторой, практически удовлетворительной для данной задачи точности оценки «мешающих» параметров, введенных для описания априорной неопределенности. Действительно, из соотношений (10.5.38) следует, что если выполняется приближенное равенство
то очередное и последующие значения элемента матрицы гл могут быть вычислены без обращения к значениям элементов а оценка параметров в первом из рекуррентных соотношений (10.5.37) и. в рекуррентном соотношении для может быть заморожена. Эта возможность является следствием того, что дальнейшее уточнение значения параметра в силу (10.5.42) никакой пользы не принесет с точки зрения возможности увеличения точности оценки значения Таким образом, при выполнении (10.5.42) имеется вполне законная, возможность, начиная с соответствующего шага, перейти от адаптивного алгоритма оценивания определяемого системой рекуррентных соотношений (10.5.37), (10.5.38), к обычному неадаптивному байесову алгоритму оценивания, который включает в себя первое из рекуррентных соотношений (10.5.37) и рекуррентное соотношение для получающееся из (10.5.38) при
Это обстоятельство, конечно, характерно не только для данного примера, но представляет собой общую закономерность. Если вернуться к общим рекуррентным соотношениям (10.4.21), (10.4.22), представить матрицу в виде
и рассмотреть рекуррентное соотношение для подматрицы которое входит в систему рекуррентных соотношений (10.4.22), то при некотором это соотношение становится практически независимым от соотношений для остальных подматриц. Тогда, начиная с этого можно отказаться от уточнения параметров и перейти от полного адаптивного алгоритма оценки к алгоритму с замороженными значениями параметров поскольку дальнейшее их уточнение практически не приводит к увеличению точности оценки Это означает, что после некоторого числа шагов адаптивный алгоритм оценивания совпадает с байесовым, который получается из (10.4.21), (10.4.22)), если, начиная с некоторого в этих соотношениях считать все элементы матрицы кроме элементов подматрицы равными нулю.
Критерием выбора момента перехода с адаптивного на неадаптивный алгоритм оценивания является равенство с заданной степенью приближения матрицы гл вычисленной по полным рекуррентным соотношениям (10.4.22), и матрицы вычисленной, при замене всех элементов матрицы для предыдущего шага, кроме элементов подматрицы нулями. При этом степень приближения к выбирается исходя из допустимого отличия по точности алгоритма с замороженными приближенно оцененными значениями от чисто байесова алгоритма с известными значениями
Возвращаясь снова к рассматриваемому здесь примеру, приведем выражение для ошибки измерения при достаточно больших когда становится справедливым равенство (10.5.42). При этом в случае достигается режим измерения с установившейся ошибкой, дисперсия которой определяется выражением
При и т. е. при большой (по сравнению с дисперсией процесса дисперсии единичного замера из (10.5.44) получается установившееся значение дисперсии ошибки измерения
которое соответствует процессу наблюдения с непрерывным временем, когда - «белый» шум со спектральной плотностью
В заключение, чгобьд показать единство алгоритмов обучения по предварительным данным наблюдения и адаптации в процессе принятия решений, рассмотрим на этом примере случай, когда процесс получения данных начинается с наблюдения значений чистой реализации процесса Пусть для в отличие от (10.5.30)
Это означает, что для этих значений в (10.5.37), (10.5.38) нужно просто положить При этом из (10.5.38) следует:
а рекуррентные соотношения (10.5.37) принимают вид
Фактически вычисления производятся только по второму и по последнему из рекурентных соотношений (10.5.47), в котором заменяете
Начиная с когда определяется согласно (10.5.30) т. е. появляются помехи, маскирующие истинное значение к, осуществляется переход на рекуррентные соотношения (10.5.37), (10 5.38) Если, кроме того, при выполняется соотношение (10 5 42), которое в данном случае благодаря равенствам принимает
то при переходе к рабочим тактам оценки значении по по значениям из (10.5.30) можно Закончить процесс адаптации, (уточнения оценок параметра и произвести оценку значений с помощью байесова неадаптивного алгоритма (при ), который имеет вид
с начальными условиями
Пример показывает, что особой необходимости как-то выделять этап обучения нет Основной алгоритм примера и общие рекуррентные соотношения (10.4.21), (10.4.22) естественно учитывают этот этап простым изменением параметров приведенных рекуррентных соотношений (в данном случае — величины ).