Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.2. ПОСТРОЕНИЕ ВЫВОДОВ ПО ОМП5.2.1. Интервальное оцениваниеВ этом разделе приведены некоторые основные свойства МП-оценок. Подробное описание их можно найти в книгах [Rao (1972); Сох and Hinkley (1974)]. Пусть в обозначает МП-оценку 0, построенную с помощью данных Аппроксимация 5.1.
где С — ковариационная Частотная интерпретация (5.6) состоит в том, что при плотности Вывод аппроксимации 5.1 с байесовской позиции основан на разложении логарифма правдоподобия в ряд Тейлора около ОМП:
где
По определению
нормального распределения для аппроксимации 5.1 с ковариационной матрицей
которая обратна наблюдаемой информации в 0. Более подробное изложение этих вопросов приведено в [Lindley (1965)]. Частотный вывод аппроксимации 5.1 более сложен. Сначала мы раскладываем
Если остаточный член
Можно показать с помощью центральной предельной теоремы, что в определенных условиях регулярности
называемой ожидаемой информационной матрицей. По одной из форм закона больших чисел
Объединение этих результатов и приводит к аппроксимации 5.1 с ковариационной матрицей
обратной к ожидаемой информационной матрице в В любом случае, полагая С равной
где на практике можно часто заменять 1,96 на 2. Для векторного
где
где Выводы, основанные на аппроксимации 5.1, не только справедливы, если определена На протяжении части II настоящей книги мы сконцентрируем внимание главным образом на больших выборках и постараемся избежать сложностей, связанных с различиями между байесовской и частотной интерпретациями, присущими ситуации, когда выборки малы. Пример 5.11. Экспоненциальная выборка (продолжение примера 5.2). Дважды дифференцируя (5.2) по в, получаем
Вычисляя математическое ожидание по Y, находим
Подставляя вместо
Следовательно, дисперсия Пример 5.12. Одномерная нормальная выборка (продолжение примера 5.1). Дважды дифференцируя (5.1) по и
Обращение этой матрицы дает асимптотические значения вторых моментов: 5.2.2. Проверка гипотез о значении «тета»Согласованность значений в с данными часто характеризуют не эллипсоидами типа (5.8), а уровнями значимости, в особенности когда число
Эта величина — левая часть (5.8), вычисляемая в
С частотной точки зрения уровень значимости при заданном нулевой гипотезы С байесовской точки зрения При справедливости предположения 5.1 асимптотически эквивалентна процедура определения уровня значимости по расстоянию между
где
Рассмотрим более общий случай. Пусть
где
где
Пример 5.13. Одномерная нормальная выборка (продолжение примера 5.1). Допустим, что
где
|
1 |
Оглавление
|