Главная > Информационная теория идентификации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

§ 1.7. Оптимальные алгоритмы идентификации

Алгоритмы стохастической аппроксимации (1.6.7) с учетом выражения градиента и (1.4.14) могут быть представлены в виде

Важной характеристикой этих алгоритмов является их асимптотическая скорость сходимости, характеризуемая АМКО . Асимптотическая скорость сходимости существенно зависит от матрицы В. Назовем алгоритм стохастической аппроксимации оптимальным по асимптотической скорости сходимости при ,

Таблица 1.1 (см. скан) Нормированная информационная матрица для простейших объектов


если соответствующая ему минимальна, т. е. если

Здесь и далее такое матричное неравенство означает, что т. е. разность неотрицательно определена. Напомним, что матрицы квадратные и симметричные.

Часто алгоритм (1.7.1) при называется асимптотически оптимальным. Однако поскольку далее оптимальность алгоритмов в каком-либо ином смысле не рассматривается, если это специально не оговорено, то алгоритм (1.7.1) при для краткости и удобства будем называть просто оптимальным.

Исходя из уравнения (1.6.32), найдем матрицу минимизирующую

Положим

где — оптимальная матрица, вариация, А — параметр. Обозначим

Тогда уравнение запишется в виде

Условие минимума АМКО можно представить в виде

Дифференцируя обе части уравнения АМКО (1.7.5) по А и полагая затем получим

Это условие должно выполняться для всех вариаций

Нетрудно видеть, что условие (1.7.7) будет выполняться для любых при обращении в нуль выражений в квадратных скобках. Отсюда находим

Для определения оптимальной матрицы Во подставим в уравнение или, что то же, в уравнение (1.7.5) при тогда после несложных, но несколько громоздких преобразований находим

и значит

Подставляя оптимальную матрицу в алгоритм (1.7.1), получаем оптимальный алгоритм идентификации

где

АМКО этого оптимального алгоритма минимальна и определяется выражением (1.7.10).

Матрица усиления в общем случае зависит от оптимального решения с а также от плотности распределения помех фигурирующей в и дисперсии помех Поэтому, даже если плотность распределения помех и дисперсия известны, оптимальный алгоритм (1.7.11), (1.7.12) реализовать невозможно.

Для обхода этой трудности заменим в нормированной информационной матрице оптимальное решение с его оценкой и образуем матрицу усиления

Тогда мы приходим к реализуемому оптимальному алгоритму

Блок-схема, соответствующая этому реализуемому оптимальному алгоритму, изображена на рис. 1.16.

Рис. 1.16.

Она не автономна и использует текущую информацию наряду с оценкой сигналом обратной связи.

Для образования матрицы усиления в этой блок-схеме необходимо предварительно осуществить операцию обращения нормированной информационной матрицы Для устранения этой громоздкой операции заменим ее выборочной, или эмпирической оценкой

Тогда оценка матрицы усиления запишется в виде

Для того чтобы избежать многократного обращения матриц на каждом шаге воспользуемся леммой об обращении квадратных матриц. Если квадратная матрица имеет вид

где а — скаляр, вектор, постоянная квадратная матрица той же размерности, что то

Полагая

получим из (1.7.16), после замены с оценкой

Начальное значение вместо обычно берут равным скалярной матрице

Таким образом, реализуемый оптимальный алгоритм представится в

где матрица усиления определяется рекуррентным соотношением

В такой форме алгортимы (1.7.22), (1.7.20) вряд ли стоит реализовывать. Дело в том, что член в явной форме в этих алгоритмах не определен. Поэтому важно получить такую форму реализуемых алгоритмов, которая не требовала бы дополнительных пояснений и содержала бы все необходимое для реализации алгоритмов. Для этой цели достаточно воспользоваться определением вектора коэффициентов чувствительности который удовлетворяет разностному уравнению (1.4.26) при замене в нем на оценку :

Производя замену в (1.7.22) и окончательно запишем реализуемый оптимальный алгоритм в виде совокупности трех рекуррентных процедур:

Блок-схема этого реализуемого оптимального алгоритма изображена рис. 1.17. По сравнению с рис. 1.16 она содержит дополнительное устройство формирования оценки матрицы усиления по

Рис. 1.17

наблюдениям возможно, по оценкам Здесь уже появляется матричная связь. Она на блок-схеме обозначена тройными линиями. Заметим также, что в левом верхнем углу блока формирования указана величина входящая в правую часть (1.7.26). Этим обозначением мы будем пользоваться и далее.

Приведенные оптимальные алгоритмы обеспечивают максимальную асимптотическую скорость сходимости оценок, которая может быть достигнута в алгоритмах типа стохастической аппроксимации путем выбора соответствующей матрицы усиления. В отличие от обычных алгоритмов метода стохастической аппроксимации (1.5.7), (1.5.8) формирование оптимальных алгоритмов требует, вообще говоря, знания плотности распределения помехи Для вычисления фигурирующей в величины

(если функция отлична от квадратичной), а в также и дисперсии помехи Это свидетельствует о том, что оптимальность здесь достигается за счет учета в алгоритмах априорной информации о помехе.

Categories

1
Оглавление
email@scask.ru