Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.5. Ковариационная матрица оценокДопустим, что наша оценка представляет собой точку минимума в пространстве без ограничений для некоторой целевой функции
Допустим, что мы слегка изменили данные, заменив
Раскладывая левую часть
так что приблизительно
где, как обычно, Искомая ковариационная матрица
так что
Величины
где
Если мы предположим, что вектор
Эта формула применяется к любой целевой функции независимо от статистических обоснований для ее выбора. Более специальные результаты можно получить, когда целевая функция зависит только от матрицы моментов
где
При допущениях, подобных тем, какие делались при выводе равенства
Подставляя
Вывод, аналогичный тому, какой дается в приложении Предполагая, что наблюдения имеют стандартное отклонение а, в случае единственного уравнения наименьших квадратов мы имеем:
так что равенство
Его сравнение с равенством
Когда дисперсия Приведем теперь результаты для некоторых функций правдоподобия, которые были рассмотрены в разделе 5.9. 1. Нормальное распределение с известной матрицей В соответствии со строкой 1 табл.
2. Как и в пункте 1, но матрица Для широкого класса оценок максимального правдоподобия с нормальными распределениями мы тогда имеем
Качество такой аппроксимации возрастает по мере того, как дисперсия измерений убывает и достигается лучшее соответствие модели и данных наблюдения. Для оценок максимального правдоподобия без ограничений в большинстве случаев можцр показать
Вычисление требуемого математического ожидания очень утомительно, если только вообще возможно; поэтому мы обычно заменяем математическое ожидание на наиболее вероятное значение, т. е. на значение в точке Приведенные здесь и далее оценки для Как иллюстрируется примерами раздела 7.22, эти колебания могут быть довольно большими даже тогда, когда может быть достигнуто хорошее соответствие модели и данных. Мы сами не будем здесь касаться вычисления выборочных дисперсий для Тот факт, что эти аппроксимации рушатся, когда подгонка модели плоха, не должен нас чрезмерно беспокоить, поскольку в этом случае мы так или иначе не слишком доверяем модели и будем пытаться улучшать либо модель, либо данные. Даже очень грубая аппроксимация для
|
1 |
Оглавление
|