Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Приложение II. Некоторые статистические методы линейной регрессииЦель этого приложения двоякая: первая — напомнить о статистических методах как о теоретическом фундаменте части II этой книги, вторая - рассмотрение методов, алгоритмов, теоретического анализа и статистических свойств оценок линейной регрессии как прототипов более сложных структур, обсуждаемых в части II. Это приложение можно рассматривать, таким образом, как предварительное ознакомление с идеями и анализом, максимально свободными от технических деталей. Приложение составлено так, что его можно читать независимо от остальной части книги (и наоборот). 11.1. Линейные регрессии и оценка МНКЛинейные регрессии относятся к наиболее часто употребляемым в статистике, а метод наименьших квадратов уходит корнями в классическую работу Гаусса 1809 года [128]. Эти методы изложены во многих учебниках, из которых упомянем книги Рао [335, гл. 4], Дрейпера и Смита [101] и Дениела и Вуда [90]. Понятие регрессии. Статистическая теория регрессии связана с задачей предсказания величины у на основе информации, полученной при измерении других величин системы (в данное время)
Задача состоит в нахождении функции регрессоров
была мала (т.е. чтобы
Хорошо известно, что функция
Эта функция известна также как функция регрессии или регрессия у на Другой подход состоит в поиске функции Линейные регрессии. Если свойства величину и неизвестны, определить функцию регрессии
Обозначая вектор
(11.3) можно переписать в виде
Замечание. Конечно, можно также рассмотреть близкую функцию
Однако, расширяя регрессоры константой Оценки наименьших квадратов. Обычно мы не располагаем точной априорной информацией относительно соотношения между
Используя эти данные, можно заменить дисперсию
В линейном случае
и теперь в удобно выбирать как аргумент, минимизирующий
Это - оценка наименьших квадратов. В качестве функции предсказания, основанного на предыдущих наблюдениях, можно, таким образом, использовать
Отметим, что этот метод выбора в имеет смысл независимо от того, рассматриваем ли мы задачу в рамках стохастического подхода. Параметр в является величиной, дающей наилучшее предсказание по полученным данным. Эту прагматическую интериретацию оценки наименьших квадратов дал еще ее автор К.Ф. Гаусс: В заключение принцип, по которому сумма квадратов разностей между наблюдаемыми и вычисляемыми величинами должна быть минимальна, может рассматриваться следующим образом независимо от исчисления вероятностей [128]. Важной чертой
доставляет глобальный минимум функции
Формирование матрицы. Иногда выражения
и
Тогда критерий
Нормальные уравнения принимают вид
а оценка
В (11.15) можно выделить псевдообратную к
Таким образом, уравнение
Геометрическая интерпретация. Решению наименьших квадратов можно дать геометрическую интерпретацию, которая полезна для определения некоторых свойств. Положим
и рассмотрим
Рис. II.]. Оптимальное среднеквадратическос решение как ортогональная проекция Пусть Обозначим эту проекцию
Это значит, что
и, поскольку
Отсюда
что в матричной форме имеет вид Взвешенные наименьшие квадраты. В критерии
Это может иметь две причины. 1. Наблюдения у могут быть различной надежности. Некоторые наблюдения могут, например, содержать большие возмущения и, следовательно, должны иметь меньшие веса. (11.20) 2. Наблюдения могут быть изменяющейся информативности. Возможно, нет уверенности, что линейная модель имеет место во всей области изменения Наблюдение, относящееся к такой подозрительной области, даже если оно точное, должно, следовательно, иметь меньший вес. (11.21) Обозначив диагональную матрицу
критерий (11.19) можно переписать в виде
Нетрудно проверить, что минимум достигается при значении аргумента
По некоторым причинам можно также использовать критерий (11.23) для произвольной симметрической, положительно определенной матрицы
где
Элементы этих матриц равны
Таким образом, имеем
Следовательно, влияние общей нормы Невязки и ошибки предсказания. Разность
представляет собой ошибку, соответствующую значению в. Будем называть эту ошибку ошибкой предсказания, соответствующей параметру в. Вектор ошибок предсказания равен
а критерии (11.7) и (11.23) являются квадратичными нормами этого вектора. Нормы; Будем называть
невязками (остатками), связанными с моделью Рассмотрим теперь дня простоты случай
а предсказание выходной величины
Из геометрической интерпретации известно, что Ем и
что также можно записать в виде
показывающем, каким образом сумма квадратов наблюдений расщепляется на суммы квадратов предсказаний
и невязок
Идеальной представляется ситуация, когда по предсказанным значениям выходной величины ум можно описать и изменение большей части действительных выходных величин. Отношение
является мерой доли общего изменения у, описываемого регрессией. Оно известно как множественный коэффициент корреляции (квадратичный) и часто выражается в процентах. Иногда прежде, чем вычислять Качество оценки параметров. Чтобы исследовать свойства оценки
где
можно записать (11.39) как
Подставляя это выражение в
где
что в случае
Это выражение для ошибки по параметру имеет чисто алгебраическую природу и справедливо для произвольных последовательностей
где использовано обозначение (2.62). Если матрица (0) обратима (это соответствует предположению, что последовательность регрессорами и возмущением), то Для того чтобы можно было сказать большее относительно свойств
|
1 |
Оглавление
|