Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ПРИЛОЖЕНИЕ П4.1. ЛИНЕЙНАЯ ТЕОРИЯ НАИМЕНЬШИХ КВАДРАТОВВыборочные ошибки с минимальной среднеквадратичной ошибкой. В этом разделе содержатся доказательства некоторых общих результатов линейной теории наименьших квадратов. Частными случаями этих результатов являются результаты, упоминавшиеся в разд. 4.3. Предполагается, что модель эксперимента имеет вид
или в матричной форме
где векторы-столбцы
соответственно,
есть матрица наборов значений, принимаемых Если нам даны наблюденные в
Дифференцирование (П4.1.3) по 0 и приравнивание производных нулю дает следующие линейные уравнения для этих оценок:
Критерий (П4.1.3) может быть обоснован с двух точек зрения. а) Используя (3.1.19) и (П4.1.2) и предполагая, что ошибки имеют многомерное нормальное распределение с матрицей ковариаций V, получаем, что логарифмическая функция правдоподобия для параметров б) Предположим, что в (П4.1.4) выборочные оценки 0 заменены на соответствующие оценки 0. Тогда обобщенный принцип наименьших квадратов утверждает, что оценки 0 таковы, что средний квадрат разности двух линейных комбинаций
и
принимает свое минимальное значение. Следовательно, произвольная линейная функция от параметров оценивается с минимальной среднеквадратичной ошибкой. Доказательство обобщенного принципа наименьших квадратов. Чтобы доказать, что оценки наименьших квадратов, получаемые из (П4.1.4), минимизируют среднеквадратичную ошибку между
Из (П4.1.2) получаем
Далее, так как У, имеют ту же самую матрицу ковариаций, что и
Отсюда среднеквадратичная ошибка оценки
Если теперь линейная комбинация
Это эквивалентно нахождению безусловного минимума квадратичной формы
где
Решая (П4.1.5) и (П4.1.6) относительно и 1, получаем
и
Отсюда оценка линейной комбинации
Но из (П4.1.4) получаем, что это выражение в точности совпадаете
где
Пример. Чтобы проиллюстрировать применение формулы (П4.1.7), рассмотрим простой двухпараметрический вариант модели (04.1.1):
и предположим, что ошибки
т. е.
где суммирование всюду производится от Отсюда выборочные оценки наименьших квадратов имеют вид
Для ортогональной параметризации разд. 4.3.4, а именно для
матричное уравнение
Отсюда выборочные оценки наименьших квадратов равны
Матрица ковариаций оценок. Чтобы оценить точность выборочных оценок параметров, нужно вычислить матрицу ковариаций соответствующих оценок. Диагональные элементы этой матрицы дают дисперсии каждой из оценок, а недиагональные элементы дают ковариации каждой пары оценок. Мы имеем
и, воспользовавшись (П3.1.2), получаем
Отсюда матрица ковариаций оценок равна
Если
Для приводившегося выше примера с двухпараметрической моделью имеем
так что
Следовательно,
Для ортогональной параметризации
так что
Следовательно,
Ранее было показано, что оценки наименьших квадратов минимизируют среднеквадратичную ошибку (т. е. дисперсию, так как оценки несмещенные) линейной функции Так как
то отсюда следует, что оценки наименьших квадратов минимизируют определитель Оценивание остаточной дисперсии. Эта задача в ее наиболее общей постановке включала бы оценивание всех элементов матрицы ковариаций ошибок V. В этом разделе мы рассмотрим лишь частный случай Пусть
которая сводится для случая
Подставив выборочные оценки
но так как, согласно
и, заменяя
Заменяя выборочные оценки в
так что
является несмещенной оценкой
как и получалось в разд. 4.3.2. Для двухпараметрического случая равенство
и для ортогонального двухпараметрического случая
С помощью рассуждений, аналогичных рассуждениям, использовавшимся в разд. 4.2.3, можно показать, что оценка, имеющая Доверительные области. Чтобы вывести доверительные области для
Отсюда
Из нормальных уравнений (П4.1.4) следует, что два последних члена тождественно равны нулю. Исчезновение этих членов со смешанными произведениями обусловлено тем, что векторы
Предполагая, что ошибки распределены нормально, получаем отсюда, что нормальных случайных величин и, следовательно, является случайной величиной
распределена, как
Заменяя 0 на 0 в Подставляя
в случае когда Для одного параметра
что является другой записью доверительного интервала (4.3.11), так как
Это сводится к неравенству
которое представляет собой уравнение эллипса на плоскости Для ортогональной двухпараметрической модели (П4.1.15) сводится к
что также является уравнением эллипса на плоскости Вывод доверительных областей непосредственно по контурам, образуемым линиями уровня суммы квадратов. В нелинейных задачах невозможно вывести явные выражения для выборочных оценок наименьших квадратов и матрицы
Используя те же рассуждения, что и при выводе (П4.1.14), получаем, что случайная величина
распределена, как
является Дисперсия прогноза. Если для предсказания отклика в будущем эксперименте используется модель (П4.1.1), то значение прогнозируемой величины будет иметь вид
так как
где мы использовали
Отсюда
ЛИТЕРАТУРА (см. скан)
|
1 |
Оглавление
|