Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
8.2. ОЦЕНИВАНИЕ ВЕКТОРА СРЕДНИХ И КОВАРИАЦИОННОЙ МАТРИЦЫ8.2.1. ЕМ-алгоритм для неполных многомерных нормальных выборокМногие методы многомерного статистического анализа, включая множественную линейную регрессию, анализ главных компонент, дискриминатный анализ и канонический корреляционный анализ, основаны на преобразовании матрицы данных в выборочные средние и матрицу ковариаций переменных. Поэтому эффективное оценивание этих величин для произвольных структур пропусков в данных является очень важной проблемой. В этом разделе мы обсудим МП-оценки среднего и ковариационной матрицы по неполной многомерной нормальной выборке, предполагая, что данные отсутствуют случайно (ОС). Хотя предположение многомерной нормальности выглядит ограничительным, методы, обсуждаемые здесь, могут обеспечить состоятельные оценки при более слабых предположениях об исследуемых распределениях. Кроме того, предположение о нормальности будет в некоторой степени ослаблено при рассмотрении линейной регрессии в разделе 8.4. Робастные МП-оценки среднего и ковариационной матрицы для многомерного Предположим, что мы имеем дело с К-мерной переменной
где Чтобы вывести ЕМ-алгоритм, заметим, что гипотегические полные данные
Пусть на
где
Таким образом, отсутствующие значения у заменяются средними Вычисления на шаге
Бил и Литтл [Beale and Little (1975)] предлагают заменить Остается определить начальные значения параметров. Простейшими являются следующие четыре варианта: 1) использовать решение раздела 3.2 (брать только полные наблюдения); 2) использовать одно из решений по доступным наблюдениям (раздел 3.3); 3) вычислять выборочные среднее и ковариационную матрицу по данным, пропуски в которых заполнены одним из методов раздела 3.4; 4) вычислять средние и дисперсии по присутствующим данным каждой переменной, положив все корреляции равными нулю. Вариант 1 позволяет получить состоятельные оценки параметров, если верно ОПС и присутствует по меньшей мере Связь между МП-оценкой и эффективными формами заполнения пропусков хорошо видна в ЕМ-алгоритме. На шаге ЕМ-алгоритм, описанный выше, был впервые описан в [Orchard and Woodbury (1972)]. Для решения этой проблемы ранее в [Trawin-ski and Bargmann (1964)] был описан метод вкладов, а в [Hartley and Hocking (1971)] в изящной форме были представлены итеративные уравнения. Важным отличием ЕМ-алгоритма от метода вкладов является то, что последний требует обращения информационной матрицы в результате единственного обращения информационной матрицы, вычисленной при окончательном значении оценки 0. Можно выделить три версии ЕМ-алгоритма. В первой хранятся исходные данные [Beale and Little (1975)]. Во второй хранятся сумма по переменной, суммы квадратов и суммы взаимных произведений для каждой матрицы пропусков [Dempster, Laird and Rubin (1977)]. Наиболее предпочтителен по объему памяти и вычислений третий вариант, в котором смешаны обе предыдущие версии. В этой версии сохраняются исходные данные для структур пропусков, которые повторяются менее чем в 8.2.2. Оценивание асимптотической ковариационной матрицы по информационной матрицеЕсли данные ОС, то ожидаемая информационная матрица параметра
Здесь
где
где Матрица Наблюдаемая информационная матрица, которую вычисляют и обращают на каждой итерации алгоритма Ньютона-Рафсона, не является блочно-диагональной по В ЕМ-алгоритме не используется ни наблюдаемая, ни ожидаемая информационная матрица, поэтому если какая-либо из них служит для вычисления стандартных ошибок, ее нужно вычислять и обращать после того, как получены МП-оценки.
|
1 |
Оглавление
|