Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.3. Линейные регрессии и метод наименьших квадратовЛинейные регрессии. В разделах 4.2 и 5.2 было установлено, что структуры линейных регрессионных моделей очень полезны при описании основных линейных и нелинейных систем. Линейная регрессия использует предсказатель (5.34)
который линеен по в. Здесь
В (7.31) Линейная регрессия является стандартным направлением исследований в статистике. Основные свойства читатель может найти в Приложении II. Однако настоящий раздел может быть прочитан независимо от Приложения II. Критерий наименьших квадратов. С учетом (7.31) ошибка предсказания принимает вид
и критериальная функция из (7.10), (7.11) при
Это - критерий наименьших квадратов для линейной регрессии (7.31). Уникальным свойством этого критерия является его квадратичность по в, получающаяся в результате линейной параметризации и квадратичности критерия. Следовательно, минимум может быть найден аналитически при условии, что существует указанная обратная матрица:
- оценка метода наименьших квадратов (МНК) (см. задачу Введем
и
В случае
и аналогичные суммы произведений Свойства оценок МНК. Метод наименьших квадратов представляет собой частный случай метода идентификации по ошибке предсказания (7.12). Анализ его свойств, таким образом, охватывается общим рассмотрением в гл. 8 и 9. Однако, полезно провести здесь эвристическое исследование оценки МНК. Предположим, что наблюдаемые данные генерируются в соответствии с уравнением
для некоторой последовательности
Желаемые свойства 1. Оценка близка к 2. Оценка стремится в пределе к Заметим прежде всего, что если и о (О в (7.37) малы по сравнению с
будет мал, и, таким образом,
при
Аналогично при слабых предположениях с вероятностью
(Ср. с теоремой 2.3.) Таким образом
при условии, что R не вырождена. Следовательно, для того чтобы оценка МНК была состоятельна, т. е. чтобы (i) R невырождена. Это будет иметь место, например, если (ii) h = 0. Это будет выполняться, если либо (iia) либо (iib) входная последовательность Если В случаях
сходится по распределению к нормально распределенной случайной величине с нулевым средним и матрицей ковариации Взвешенные наименьшие квадраты. Так же, как и в (7.18) и (7.19), в критерии наименьших квадратов различным измерениям могут быть назначены различные веса:
или
Выражение получающейся при этом оценки полностью аналогично (7.34):
Многомерный случай. Если выходная переменная
Он порождает оценку
В случае, когда мы используем конкретную параметризацию (4.53) с матричным
критерий наименьших квадратов принимает вид
а оценка
(см. задачу Цветной шум Метод наименьших квадратов имеет много преимуществ, наиболее важным из которых является возможность эффективного и однозначного нахождения глобального минимума критерия (7.33) (других локальных минимумов, кроме глобального, не существует). Его основной недостаток относится к асимптотическим свойствам, отмеченным ранее: если в разностном уравнении
ошибка
где Известные свойства шума. Если в (7.48) и (7.49)
Применяя фильтр
где
Поскольку Модели высокого порядка. Допустим, что шум
или
Применение МНК к (7.54) с порядками
оценивается правильно. В [28] этот подход был назван МНК с повторением. См. также [367] и [387].
|
1 |
Оглавление
|