Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Часть первая. ЛИНЕЙНАЯ РЕГРЕССИЯ КАК БЕЗУСЛОВНОЕ МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕГлава 1. КЛАССИЧЕСКАЯ РЕГРЕССИЯ. СВОЙСТВА ОЦЕНКИ МНК1.1. Основные предположения. Оценка МНКРассмотрим случайную величину, характеризующую некоторое явление. Обозначим эту величину у, а последова, тсльность отдельных ее значений Однако из-за влияния различных неучтенных факторов, а также воздействия случайности и помех наблюдения у будут в большей или меньшей мере отклоняться от линейной зависимости. В силу этого зависимость у от
В уравнении (1.1), которое в дальнейшем будем называть регрессией, существенно упрощаются, если воспользоваться матричной записью уравнения (1.1):
Здесь у — вектор зависимой переменной размерности
Классический регрессионный анализ базируется на еле, дующих предположениях, определяющих требования к параметрам ее, случайным отклонениям Предположение А. На вектор неизвестных параметров регрессии (1.1) не наложено ограничений. Это значит, что Предположение Предположение В. Математическое ожидание Предположение
Предположение Предположение Эти предположения (они подробно обсуждаются в следующем параграфе) дают возможность исследовать свойства и статистическое содержание получаемых оценок вектора параметров ее. В дальнейшем выдвинутые предположения мы будем последовательно ослаблять. Так, в параграфе 2.3 рассмотрен случай, когда на вектор неизвестных параметров ее наложены линейные ограничения. В параграфе 2.1 рассмотрена ситуация коррелируемых отклонений, имеющих разные дисперсии. Главы 3 и 4 книги посвящены изучению регрессии при случайной матрице По предположению Уравнение (1.1) содержит значения неизвестных параметров
где а — вектор оценок параметров; Для оценивания неизвестного вектора параметров а воспользуемся методом наименьших квадратов Согласно этому методу минимизируется сумма квадратов отклонений
Оценкой метода наименьших квадратов в линейной множественной регрессии называют вектор, минимизирующий сумму квадратов отклонений. Для нахождения минимума этой суммы продифференцируем (1.3) по
Если матрица наблюдений независимых переменных X имеет полный ранг, т. е.
Оценка (1.4) является оценкой метода наименьших квадратов. Теорема 1.1. Если предположение Доказательство. Дважды дифференцируя сумму квадратов отклонений Геометрически Иначе говоря, оценка МНК всегда существует, однако если образует целое семейство оценок. Формула (1.4) для нахождения оценок в этом случае неприменима (обобщение формулы (1.4) на случай Рис. 1.1. (см. скан) Геометрическая интерпретация минимизации суммы квадратов отклонений, Для иллюстрации модели регрессии обратимся к примеру. При подборе данных для примера учитывалось основное требование классического регрессионного анализа: детерминируемость независимых переменных (предположение Д). Допустим, имеются три независимые переменные (факторы), воздействующие на зависимую переменную. Для большей конкретности рассмотрим химический эксперимент. Предположим, нас интересует результат реакции некоторого вещества Очевидно, что схема линейной регрессии применима к разным ситуациям в различных областях практики. Например, прирост массы скота Данные регрессионного анализа могут представлять собой временные ряды; они могут быть также элементами пространственно-структурной выборки. Так, у может быть числом дорожно-транспортных происшествий за определенный год по районам, Вернемся к примеру с химическим экспериментом. Введем обозначения: Остальные условия проведения экспериментов остаются неизменными: количество вещества Предположим, выход реакции, количество вещества зависимостью типа (1.1). Таким образом, имеется уравнение регрессии
где Оценим параметры регрессии (1.5) с помощью МНК, используя информацию, приведенную в табл. 1.1. По результатам 15 экспериментов получим следующие вектор
Пнхшшм необходимые для оценивания а значения
(см. скан) После того как получена оценка МНК, можно перейти к интерпретации регрессии. В регрессии (1.5) при фиксированных
Рис. 1.2. Графики исходных значений Таким образом, если в приведенном примере температуру проведения реакции и количество катализатора зафиксировать и изменять только количество вещества Однако такое толкование коэффициентов регрессии допустимо в весьма ограниченных пределах. В самом деле, пусть необходимых составляющих). Уравнение регрессии, как правило, имеет смысл только в том диапазоне значений
Рис. 1.3. Истинная зависимость у от Вполне вероятно, модель (1.5) нелинейна вне охваченного диапазона значений Упражнения 1.1(см. скан) (см. скан)
|
1 |
Оглавление
|