Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 4. ОШИБКИ В НЕЗАВИСИМЫХ ПЕРЕМЕННЫХ4.1. Постановка задачи. Оценка МНКВ этой главе обобщается классическая регрессия на случай, когда независимые переменные измеряются сшибкой. В принципе случайные отклонения в независимых переменных можно трактовать шире, однако в любом случае эти отклонения должны удовлетворять определенным требованиям. Важное место в классической регрессии (независимые переменные детерминированы) занимают регрессии планируемого эксперимента. Основным требованием к ним является, как уже указывалось в начале книги, отсутствие ошибок измерения управляемых, т. е. независимых переменных. На практике они чаще всего все же существуют. Система предположений в схеме с ошибками в независимых переменных такова. Существуют истинные значения переменных (они детерминированы)
где
Поскольку
Первое уравнение в (4.3) означает, что измерения Вообще говоря, некоторые из переменных могут измеряться без ошибок, например если эти переменные — функции номера эксперимента или наблюдения; тогда Для иллюстрации продолжим рассмотрение примера, начатого в параграфе 1.1. Будем считать, что если все другие условия эксперимента фиксированы, а
Другими словами, нам известна формула реакции и известен закон взаимодействия веществ с точностью до неизвестных параметров «Функциональность» уравнения (4.1) на первый взгляд может привести к мысли, что изложенная схема пригодна только для функциональных же зависимостей, т. е. зависимостей, встречающихся только в естественнонаучных дисциплинах. На самом деле это не так. Перепишем уравнение (4.1) в более привычном виде:
Оно очень похоже на уравнения регрессий, с которыми мы работали до сих пор. При этом Схема Переходя к математическому ожиданию в (4.1), получим
где
где
где
Схему (4.4) не надо путать со схемой условного математического ожидания, рассмотренной в предыдущей главе. Различие вытекает из того факта, что вектор отклонений
В силу независимости
что противоречит схеме регрессии как условного математического ожидания (3.1). По наблюдениям
В классической регрессии оценка МНК была несмещенной, линейно эффективной в классе несмещенных оценок и при некоторых условиях состоятельной. Покажем, что в схеме с ошибками в независимых наблюдениях эти свойства оценки пропадают. Начнем с несмещенности. Строго доказать смещенность оценки (4.8) затруднительно. Относительно смещечности оценки МНК, приведем следующие соображения. Пгрепишем (4.8) следующим образом:
но
где Оценка МНК не будет состоятельной даже при весьма сильных предположениях. Покажем, что если матрица X сильно регулярна, оценка МНК не будет состоятельна. Распишем (4.8) следующим образом:
Рассмотрим первый предел по вероятности:
По предположению
Легко показать, что в условиях сильной регулярности из закона больших чисел следует
где
Второй предел по вероятности
Из закона больших чисел следует, что первые три слагаемых в последнем выражении равны нулю, таким образом
окончательно
становится спорным. Теперь
Рис. 4.1. Минимизация отклонений для разных направлений Регрессия, оцененная минимизацией суммы квадратов расстояний от точек выборки до прямой, или в общем случае плоскости, называется ортогональной Перейдем к общему случаю. Поскольку
где
причем регрессии удобнее пользоваться другой нормировкой вектора
Можно было бы оставить условие Лемма 4.1. Пусть в
где вектор
Доказательство хеммы несложно, его можно провести с помощью множителей Лагранжа. Принцип ортогональной регрессии заключается в минимизации суммарных квадратов расстояний от точек выборки, т. е.
Минимизируем
Ее производные пор, равны:
или в матричном виде:
Для того чтобы последнее уравнение имело решение относительно
при этом значение
но
Минимальное значение квадратичной формы будет наблюдаться, если в качестве
Возвращаясь к старым обозначениям, можно найти оценку ортогональной регрессии параметра а:
Рассмотрим геометрический смысл ортогональной регрессии. Для простоты остановимся на случае
Матрица VV задает характеристический эллипсоид
Величина у определяет размеры характеристического эллипсоида. Каждый эллипсоид из семейства эллипсом. Очевидно, ортогональная регрессия есть диаметр эллипса, сопряженный направлению х. в., отвечающего минимальному Длина отрезка
Рис. 4.2. Ортогональная регрессия и регрессии, сопряженные данному направлению для Регрессия у на х делит отрезок В качестве примера рассмотрим регрессию (1.5). Допустим, данные табл. 1.1 есть результаты измерений величин
Ошибга измерения делают эту зависимость стохастической. Перепишем (4.21) в виде (4.15), т. е.
Для рассматривать
Ниже приведены характеристические векторы и числа этой матрицы в порядке их убывания:
Выбираем последний вектор, отвечающий
Оценка а ортогональной регрессии равна:
Итак, зависимость (4.21), оцененная методом ортогональной регрессии, равна;
Универсальным методом оценивания параметров является метод максимального правдоподобия. К каким оценкам приведет этот метод, если применить его к задаче (4.15), (4.16)? Применение ММП еще отчетливее позволит понять трудности оценивания в модели с ошибками в независимых переменных. Упражнения 4.2(см. скан)
|
1 |
Оглавление
|