Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 2.3. Предельно возможная скорость сходимости оценокДля несмещенных оценок
где
- МКО (1.6.1) а
— совместная плотность распределения выходов объекта, имеющего вектор параметров с. Чтобы упростить запись, мы не делаем различия в обозначениях случайных величин или процессов Правая часть неравенства Крамера — Рао (2.3.1), определяющая нижнюю границу
Найдем более удобное выражение для информационной матрицы. Совместная плотность распределения
где Поскольку для оптимальной модели невязка при
то выход объекта
где При фиксированных и с, очевидно, фиксированы и наблюдения
где
Дифференцируя (2.3.8) по
Следовательно,
Учитывая независимость помех
Из выражения совместной плотности распределения (2.3.4) следует, что
или, принимая во внимание (2.3.7),
Функция вектора параметров
называется логарифмической функцией правдоподобия. Ее градиент при
Поэтому информационную матрицу, определяющую нижнюю границу МКО, можно записать в виде
Учитывая свойства помехи (1.2.43), (1.2.44) и ее плотности распределения (2.3.11), правую часть равенства (2.3.15) после несложных преобразований можно привести к виду
Здесь матрица
— это нормированная информационная матрица (1.6.26), или, более подробно, (1.6.33). Скалярный же множитель
представляет собой широко известную в статистике фишеровскую информацию. Таким образом, окончательно получаем, что информационная матрица равна произведению числа наблюдений
Следовательно, неравенство Крамера —
или, для матрицы
Но АМКО (2.2.1) есть предел
Правая часть этого неравенства, определяющая предельно возможную скорость сходимости любых несмещенных оценок Примеры фишеровской информации При заданной плотности
|
1 |
Оглавление
|