Главная > Нелинейное оценивание параметров
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

7.21. Метод наименьших квадратов для единственного уравнения

Дадим теперь интерпретацию результатов раздела 5.21 в свете методов, описанных в этой главе. Напомним, что решение по методу наименьших квадратов для модели и данных из табл. 5.2 имеет вид

В соответствии с мы можем представить функцию приближенно с помощью выражения

Насколько хороша такая аппроксимация? На рис. 7.3 мы даем сравнение контуров истинной целевой функции с контурами по аппроксимации выражением Мы показываем также границу области, в которой приближенное значение имеет ошибку не более 5%. Мы находим, что в пределах области имеет место превосходное согласие между истинными и приближенными значениями, и в некоторой зоне это согласие распространяется за пределы этой области.

Собственные значения и собственные векторы матрицы равны:

Соответственно выражение можно записать в каноническом виде:

где

Рис. 7.3. Контуры целевой функции. Контуры функции квадратическая аппроксимация; граница области -ной ошибки

Если мы выберем то область безразличия определяется (приближенно) неравенством

Когда сохраняет постоянное нулевое значение, это соответствует интервалу

а при сохраняющем постоянное нулевое значение,

Поэтому параметр (малая ось эллипса определен относительно хорошо, но параметр (большая ось эллипса) оказывается плохо определенным. На рис. 7.3 оси не перпендикулярны одна к другой, поскольку параметры представлены в различных шкалах.

Чтобы оценить ковариационную матрицу оценок, мы используем равенство но сперва мы должны оценить дисперсию Остаточная сумма квадратов равна и

Стандартные отклонения для оценок отдельных параметров равны: Коэффициент корреляции между оценками

Главные компоненты совпадают, конечно, с величинами и Их дисперсии равны соответственно

И опять мы видим, что. величина является хорошо определенной, а хуже определенной.

Для вычисления шкалированных главных компонент мы определяем шкалу каждого параметра так, чтобы они имели единичное стандартное отклонение, т. е. мы полагаем, по определению,

Ковариационная матрица вектора есть просто корреляционная матрица вектора 0, т. е.

собственные значения и собственные векторы которой (в координатных осях равны

Чтобы представить векторы в координатных осях 0, мы должны сделать обратное шкалирование, т. е.

Поэтому величина

имеет дисперсию 1,981214, а величина

имеет дисперсию 0,018786, и эти величины не коррелируют.

Чтобы получить 95%-ную доверительную область для параметров мы применим статистику

Верхнее критическое значение -распределения с 2 и 13 степенями свободы и для уровня значимости 0,05 равно, в соответствии с таблицами, 3,81. Поэтому уравнение нашей доверительной области имеет вид

Сравнение с показывает, что эта область ограничена контуром

Согласно рис. 7.3 этот контур частично выходит за область, где выражение дает надежное приближение. Однако тот факт, что точный контур лежит внутри приближенного, подсказывает, что последний из них мог бы быть осторожной оценкой для доверительной области.

Таблица 7.1 (см. скан) Остатки для оценки

Наконец, изучим остатки, приведенные в табл. 7.1 и на рис. 7.4. Беглый взгляд на рисунок подсказывает, что остатки при значительно меньше, чем остатки при Т = 200 и Т = 300. F-критерий для отношения суммы квадратов последних десяти остэткоемк сумме квадратов первых пяти остатков указывает на значимое различие даже при -ном доверительном уровне.

Рис. 7,4. Остатки (метод наименьших квадратов)

С этой задачей мы будем иметь дело в дальнейшем, в главе IX, хотя эта незначительная группа данных, вероятно, и не заслуживает дальнейшего анализа.

Categories

1
Оглавление
email@scask.ru