Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.1. МОДЕЛИ, ЛИНЕЙНЫЕ ПО ПАРАМЕТРАМЗадача рекуррентного, или итеративного, оценивания может быть представлена как задача улучшения старой оценки По существу задача состоит в том, чтобы сконструировать такое настраивающее устройство, которое обеспечивало бы близость (в каком-либо смысле) параметров модели и параметров объекта. Снова отметим, что в этом случае оценка Как отмечалось в гл. 4, линейность по параметрам приводит к относительно простым задачам, даже если объект обладает нелинейной динамикой. В этом разделе рассматривается модель следующей структуры:
т. е.
Рекуррентные алгоритмы могут быть разной степени сложности. Здесь они обсуждаются по мере возрастания сложности в следующей последовательности: а) настройка, пропорциональная градиенту; б) метод наименьших квадратов для последовательности наблюдений; в) рекуррентный метод наименьших квадратов; г) стохастическая аппроксимация; Д) принцип сжатых отображений. (кликните для просмотра скана) Настройка, пропорциональная градиентуРассмотрим схему, изображенную на фиг. 7.1, б. Число параметров, которые нужно оценить, известно заранее;
где (см. приложение В)
Среди возможных матриц весовых коэффициентов, как и раньше, Метод наименьших квадратов для последовательности наблюденийВ схеме, изображенной на фиг. 7.1, б, можно оценить вектор разности между параметрами объекта и параметрами модели
т. е. использовать уравнение (6.31) относительное, а не у (см. фиг. 7.1, в). Это означает, что объект и модель частично компенсируют друг друга и оцениваются параметры (кликните для просмотра скана) возникающей в результате компенсации динамической системы. Следовательно,
Отсюда получаем, что
Сравните этот результат с уравнением (7.2). Снова можно положить Если помехи отсутствуют, то можно использовать быстро сходящийся алгоритм настройки, известный под названием «идентификация обучением». В этом случае уравнение (7.3) сводится к виду [6,23]
В работе [12] рассматривается система с квантованным сигналом На практике задачи оценивания решаются в условиях действия аддитивного шума. Для этого случая свойства алгоритма (7.3) проанализированы в работе [39] (см. также [40]). Можно исследовать, как изменяется во времени математическое ожидание оценки. Имея в виду, что
Следовательно,
Поскольку априорная информация о параметрах объекта отсутствует, естественно положить Интересно также рассмотреть изменение во времени ковариации. Пусть для простоты
Если
т. е. линейное уравнение с переменными коэффициентами. В случае аддитивной помехи в форме белого шума второе слагаемое сводится к
Если, кроме того, на вход системы подастся достаточно длипный отрезок реализации белого шума
Снова Из формул (7.4) и (7.5) ясно, что выбор
для всех Реализация процедур оценивания в замкнутом контуре. Следуя работе [40], рассмотрим случаи
а) Этот случай напоминает алгоритм стохастической аппроксимации (см. гл. 5). Из формул (7.5) и (7.7) следует, что при наличии белого шума
и
Это можно видеть, изображая графически последовательные значения элементов ковариационной матрицы векторов Член
может не выполняться. В этом случае экспериментальные результаты обнаруживают сдвиг в сторону увеличения дисперсий (фиг. 7.3). б) Случай
которую можно переписать в виде
Следовательно,
Фиг. 7.3. т. е. оценка является асимптотически несмощенной (фиг. 7.4). Исследуя выражения для ковариаций векторов
Таким образом, в случае постоянного усиления ковариация не стремится к нулю даже на бесконечном интервале наблюдения
Фиг. 7.4.
Фиг. 7.5. Очевидно, что метод В методе «б» и новые и старые наблюдения берутся с одпим весом. В тех случаях, когда параметры меняются медленно (отслеживание параметров), необходимо обеспечить постепенное забывание предыстории. Способы организации такого забывания обсуждаются ниже. Так же как и в гл. 6, можно исследовать, что происходит в связи с различными упрощениями, особенно если устраняется обращение матрицы. Оказывается, что: 1) если 2) если Рекуррентный метод наименьших квадратовИзменим обозначение матрицы входов
Здесь и
или
Отметим, что размер
где
является скаляром. Вводя обозначение
Подстановка выражения (7.18) в (7.20) дает
Здесь
или
Эквивалентность двух последних соотношений можно показать непосредственной подстановкой
Фиг. 7.6. по методу наименьших квадратов; сходимость рекуррентного метода вытекает непосредственно из доказательства состоятельности оценок метода наименьших квадратов. Формулу (7.22) можно записать также в виде
т. е. таким образом, что новая оценка оказывается представленной в виде линейной комбинации старой оценки и оценки, которая основывается только на новых наблюдениях. Весовые коэффициенты в этой линейной комбинации отражают «степень доверия» к различным ее составляющим. Поскольку такое оценивание представляет собой просто рекуррентный вариант процедур с накоплением, рассмотренных в гл. 6, то
Если
(кликните для просмотра скана) Следовательно, Можно показать, что для многих типов входных сигналов матрица
Пример. Этот пример приводится для того, чтобы помочь читателю получить полное и ясное представление о значимости различных компонент новой оценки. Рассмотрим упрощенный вариант одномерной задачи:
Если априорная информация
Интересно сравнить полученный результат с условием сходимости по вероятности алгоритма стохастической аппроксимации (см. разд. 5.4). В качестве упражнения рассмотрим следующий случай. Объект описывается уравнением
Выбрана модель, в которой используется значение оценки, найденное на предыдущем шаге:
Ошибка равна
Для повторения полезно непосредственно вывести соотношения (7.28) и (7.29) (см. также разд. 5.1). Читателю предлагается: 1) написать простую программу для или 2) провести вычисления и Выберите Опираясь непосредственно на результаты этого раздела, можно получить следующие соотношения:
где Более строгое изложение рекуррентного метода наименьших квадратов можно найти в работе [2]. Начальный этап процедуры оценивания. В основу начального этапа рекуррентной процедуры оценивания может быть положено несколько приемов [19]: 1) Использование всей априорной информации
Тогда рекуррентная процедура начинается с 2) Использование I наблюдений для того, чтобы с помощью явного метода определить начальную оценку
После этого можно использовать рекуррентный метод. Недостатком этого способа является необходимость обращения матрицы. 3) Использование
[см. формулы (7.17) и (7.23)]. Точно так же находим
Если
т. е. имеем формулы, полученные явными методами. В этом случае можно использовать рекуррентную процедуру оценивания, начиная с первого наблюдения. Экспоненциальное взвешивание прошлых наблюдений. Как уже отмечалось, приведенные алгоритмы представляют собой рекуррентный вариапт процедур оценивания с накоплением, данных (одношаговых). Это означает, что всем к выборочным значениям, которые используются при оценивании
или
где
Замечая, что весовые коэффициенты, приписываемые прошлым наблюдениям, изменяются как функции Стохастическая аппроксимацияЭтот метод обсуждался в разд. 5.3. Алгоритм может иметь вид
где
На каждом шаге выполняются соотношения
Следовательно, уравнение (7.37) можно переписать в виде
Эта оценка сходится по вероятности к истинным значениям параметров (см. [1,16]). Условиям на
Сравнивая формулы (7.23) и (7.38), замечаем, что единственное отличие их состоит в том, что в формуле (7.38) вместо Принцип сжатых отраженийМетод синтеза рекуррентных алгоритмов предложен в работах [26, 27], где вместо того, чтобы для каждого к решать уравнение
и доказывать, что
Здесь у — вещественное число. Затем доказывается, что последовательность
при некоторых предположениях сходится при к эффективным по сравнению с рекуррентным методом наименьших квадратов. Для того чтобы получить эффективный алгоритм, нужно представить у в виде матрицы. Если
то алгоритм превращается в метод наименьших квадратов. Этот метод можно применять и в более общих задачах. Он действительно был проверен при исследовании объекта, у которого как входной, так и выходной сигналы измеряются с ошибками при условии, что известна ковариационная функция ошибок измерений. Предположение о том, что известна ковариация ошибок измерений, существенно ограничивает практическую применимость метода.
|
1 |
Оглавление
|