Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
15.2. Выбор нормы: робастностьИз формул (9.29)-(9.30) мы знаем, что в рамках метода ошибки предсказания выбор нормы
В соответствии с результатом задачи
Здесь штрихом и двумя штрихами обозначено дифференцирование но Оптимальная норма. Если обратиться к дисперсии, то задача заключается в том, чтобы выбрать функцию Лемма 15.1.
Доказательство. Интегрированием но частям получаем
Теперь из неравенства Коши следует, что
с равенством в том случае, когда
а это доказывает, что норма
обеспечивает достижение минимума в (15.3). Лемма утверждает, что наилучший выбор
что можно рассматривать как подтверждение факта асимптотической эффективности метода максимального правдоподобия. В лемме рассматривается случай стационарной последовательности обновлений
Это следует из того, что формула Неприятной особенностью этих результатов является то, что плотность вероятности Адаптация нормы. В первом варианте вводятся дополнительные параметы а так, чтобы можно было вести настройку нормы Чувствительность оптимальной нормы. Оптимальная нормировка дисперсий иметь очень острый минимум при Пример 15.1. Чувствительность оптимальной нормы. Пусть номинальная плотность
Тогда, опуская постоянную составляющую,
Допустим теперь, что с очень малой вероятностью ошибки предсказания могут принимать некоторое большое значение. Так может быть, в частности, при возникновении сбоев в измерительной технике или системе передачи данных. Такие данные называются выбросами. Итак, предполагается, что ошибка
Это цвет
И дисперсия оказывается в 11 раз больше, хотя в абсолютном выражении вероятности изменились очень незначительно. Робастные нормы. Очевидно, что подобная чувствительность к истинному виду плотности вероятности
По терминологии Хубера такая норма дает минимаксную М-оценку. Задача (15.8) с
Рис. 15.1. Некоторые типичные варианты робастного выбора решение которой зависит только от семейства функций Стандартные семейства Вернемся теперь к примеру, чтобы проверить, насколько с помощью такой нормы Пример 15.1 (продолжение). Пусть
Тогда при
По сравнению с (15.7) дисперсия резко уменьшается. Посмотрим теперь, насколько мы уходим от оптимальности, если бы фактическая плотность вероятности была нормальной:
Цена такого увеличения дисперсии по сравнению с номинальным случаем оправдывается в результате приобретенным иммунитетом к малым изменениям плотности вероятности. Мы может рекомендовать следующую робастную норму
Здесь а - оценка стандартного отклонения ошибок предсказания,
Здесь максимальное абсолютное отклонение Функция влияния. Основной идеей введения робастной нормы является ограничение влияния одиночных наблюдений на получающуюся оценку. Резонно спросить, как изменится оценка, если бы некоторое наблюдение оказалось удаленным. Для оценки по методу наименьших квадратов можно дать точный ответ. Из формулы
где
Таким образом, влияние наблюдения
После некоторых упрощений это выражение оказывается функцией типа функции влияния Хампеля [161]. При обобщении на произвольные нормы и модельные структуры влияние измерения в момент
где
Сравните с (11.52). Если рассматривать робастные нормы
Чисто прагматически имеет смысл критически переоценить величину Обнаружение выбросов. Такие острые выбросы, как на рис. 15.1, и те точечные данные, которые сильно влияют на оценки, часто обнаруживаются на реализации невооруженным взглядом. В грамотных приложениях даже при использовании робастных норм данные, прежде чем они будут применены для идентификации, выводятся на дисплей. Проще всего обнаруживать выбросы по диаграммам невязок Многомерный случай. Матрица ковариации для многомерных систем определяется формулой (9.47). Варианты функции Ковариационная матрица, связанная с квадратичной нормой
Здесь
так что выбор наилучшей нормы требует знания истинной ковариации. Так как в любом случае минимизация (7.29) ведется итеративно, то само собой разумеющимся является следующий рекуррентный алгоритм достижения равенства
где Интересно отметить, впрочем, что критерий
дает ту же асимптотическую матрицу ковариации для
|
1 |
Оглавление
|