Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 1.4. Критерий качества идентификации и оптимальное решениеКачество идентификации, как уже упоминалось в § 1.1, определяется средними потерями
где функция потерь
Наиболее распространенные функции потерь — квадратичные, Метод минимизации квадратичного критерия
соответствует широко распространенному методу наименьших квадратов (МНК). Этот метод приводит к решению системы линейных алгебраических уравнений (так называемой системы нормальных уравнений), и поэтому оптимальное решение с минимизирующее функционал (1.4.3), может быть выражено в явной аналитической форме Через корреляционные функции. Минимизация же неквадратичных критериев приводит к необходимости решения нелинейной системы уравнений. В этом случае оптимальное решение с, как правило, может быть найдено лишь приближенно. Найдем условия, определяющие оптимальное решение с. Вудем предполагать, что функция потерь решение
Здесь и далее оператор
является вектор-столбцом,
и
Векторы, фигурирующие в (1.4.4),
и
представляют собой градиенты средних потерь и функции потерь соответственно. Матрицы, фигурирующие в (1.4.5),
представляют собой матрицы Гессе — матрицы вторых производных функции средних потерь и функции потерь соответственно. Частные производные в (1.4.8), (1.4.10) понимаются как обобщенные функции. Матричное неравенство (1.4.5) означает положительную определенность матрицы Гессе средних потерь; оно представляет собой условие идентифицируемости, которое подробно обсуждается ниже. Далее, как правило, мы будем рассматривать лишь тот случай, когда условия оптимальности (1.4.4), (1.4.5) определяют единственное решение с не оговаривая этого каждый раз. Замечая, что
где штрих у означает производную по аргументу
Для оптимальной настраиваемой модели невязка равна (1.3.50)
следовательно,
поэтому условие оптимальности (1.4.4) запишется в виде
Вспоминая, что (см. (1.3.47))
получаем в общем случае
Заменив в условии оптимальности
Этому условию удовлетворяет оптимальное решение
Поэтому из (1.4.18) при
Гак как
Это равенство имеет место для любых четных функций потерь:
Таким образом, оптимальное решение с удовлетворяет условию оптимальности (1.4.18) при любых четных функциях потерь. Иначе говоря, оптимальное решение с инвариантно относительно четных функций потерь. Именно это обстоятельство часто используется для обоснования выбора квадратичной функции потерь как наиболее простой и допускающей часто нахождение оптимального решения или его оценок в аналитической форме. Вектор
или, учитывая (1.4.17),
Здесь Используя уравнение оптимальной настраиваемой модели (1.3.44), которое мы перепишем в виде
и определение вектора наблюдений
Подставляя (1.4.25) в (1.4.23), получим разностное уравнение относительно векторов коэффициентов чувствительности
Это уравнение определяет модель чувствительности. Сопоставляя уравнение оптимальной настраиваемой модели (1.4.24) и уравнение модели чувствительности (1.4.26), заключаем, что уравнения модели чувствительности получаются из уравнения оптимальной настраиваемой модели по простому правилу: выходные величины настраиваемой модели
— на вектор наблюдений
Рис. 1.13 При
и динамическая модель чувствительности вырождается. Вектор коэффициентов чувствительности
Для
где чувствительности
|
1 |
Оглавление
|