Главная > Линейные оптимальные системы управления
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

4.3.6. МЕТОД ОБНОВЛЕНИЯ

Рассмотрим оптимальную задачу наблюдения в соответствии с определением 4.3 и ее решение, полученное в разд. 4.3.2 — 4.3.4. Здесь мы исследуем интересное свойство процесса

где — оптимальное восстановление состояния в момент t на основе данных, поступивших к моменту Фактически можно доказать, что процесс (4.208) является белым шумом с интенсивностью точно равной интенсивности шума наблюдений Этот процесс называется процессом обновления [85], а указанный термин можно проследить вплоть до работ Винера. Можно считать, что величина несет новую информацию, содержащуюся в так как является вынуждающей переменной, которая совместно с моделью системы образует

оптимальный наблюдатель. Концепция обновления оказывается полезной при анализе теоремы разделения в линейной теории оптимального стохастического управления (гл. 5). Кроме того, эта концепция также применяется в других задачах восстановления состояния, не рассматриваемых в данной книге, в частности в так называемой, задаче оптимального сглаживания [85].

Ограничимся рассмотрением случая, когда шум возбуждающий состояние, и шум наблюдений являются некоррелированными и имеют интенсивности соответственно, где Чтобы доказать, что является белым шумом с интенсивностью вычислим ковариационную матрицу для ее интеграла и покажем, что эта матрица идентична матрице ковариаций интеграла белого шума с интенсивностью

Обозначим через интеграл разности с условием, что

Кроме того, разность

будем считать ошибкой восстановления. Возвращаясь вновь к разд. 4.3.2, получим из уравнений (4.209) и (4.82) следующее дифференциальное уравнение состояния для

где — коэффициент усиления оптимального наблюдателя. Используя теорему 1.52 (разд. 1.11.2), получим следующее матричное дифференциальное уравнение для матрицы дисперсий

с начальным условием

где — матрица дисперсий Разобьем матрицу следующим образом:

Теперь можно переписать матричное дифференциальное уравнение (4.212) в форме

Из уравнения (4.217) можно видеть, что, как и следовало ожидать, где — матрица дисперсий ошибки восстановления. Из выражения (4.105) следует, что в уравнении (4.216) имеем

Таким образом, уравнение (4.216) упрощается:

Это уравнение имеет решение

Тогда уравнение (4.215) также упрощается

так что

Обращаясь снова к теореме 1.52, можно записать ковариационную матрицу для следующим образом:

где — переходная матрица системы

Легко найти, то переходная матрица определяется выражением

где — переходная матрица системы

Ковариационная матрица процесса является (-блоком матрицы которая, как можцо установить, определяется выражением

Это выражение является ковариационной матрицей процесса с некоррелированными приращениями (см. пример 1.29, разд. 1.10.1). Так как процесс является производной процесса то он представляет собой белый с интенсивностью (см. пример .1.33, разд. 1.11.1).

Подытожим полученные результаты в следующем виде.

Теорема 4.7. Рассмотрим решение несингулярной задачи оптимального наблюдения с некоррелированными шумом, возбуждающим состояние, и шумом наблюдений, заданным так же, как в теореме 4.5. Тогда процесс обновления

есть белый шум с интенсивностью

Можно доказать, что эта теорема также справедлива для сингулярной задачи оптимального наблюдения с коррелированными шумом, возбуждающим состояние, и шумом наблюдений.

Categories

1
Оглавление
email@scask.ru