Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Часть третья. НЕЛИНЕЙНАЯ РЕГРЕССИЯГлава 7. ЧИСЛЕННОЕ НАХОЖДЕНИЕ ОЦЕНКИ МНК7.1. Основные определения. Постановка задачиОсновным предположением рассматриваемых до сих пор взаимосвязей было предположение линейности входящих параметров. Теперь мы откажемся от него и будем рассматривать нелинейные регрессии. По аналогии с (1.1) нелинейную регрессию можно записать в следующем виде:
В уравнении (7.1) по-прежнему Вместо (7.1) удобнее пользоваться другой тождественной записью нелинейной регрессии:
где Число типов нелинейных регрессий, встречающихся в практике расчетов, так велико, что мы не будем даже пытаться описывать их. Заметим лишь, что часто можно встретить регрессии, линейные в логарифмах, для которых
где
Класс (7.3) содержит также производственные функции Кобба-Дугласа
Продолжим пример с регрессией результатов химического эксперимента (параграф 1.1). Вместо линейной зависимости между переменными (1.5) теперь будет нелинейная. Допустим, зависимость между
или в виде (7.3):
где Функции Основным методом оценивания в линейной регрессии является метод наименьших квадратов. Принцип минимизации суммы квадратов отклонений легко обобщается и на нелинейную регрессию. Под оценкой МНК нелинейной регрессии (7.2) будем понимать то значение вектора а
принимает минимальное значение, т. е. оценка МНК есть
Нетрудно показать, что если отклонения нормальны, т. е.
Максимизация плотности В линейной регрессии минимизируется аналогичная сумма квадратов отклонений. Однако в линейном случае минимум
Рис. 7.1. Возможные графики суммы квадратов отклонений: а) оценка МНК неединствеина, На практике чаще бывает удобнее найти минимум Более того, оценка МНК для нелинейной регрессии вообще может не существовать; таким образом, запись (7.7) в некоторых случаях является некорректной. Для примера рассмотрим нелинейную регрессию
Инфимум функции (7.8) равен нулю. Он не достигается ни в одной точке, так как В нелинейной регрессии может существовать несколь ко оценок МНК, приводящих к одному и тому же значению суммы квадратов отклонений (рис. 7.1). По определению оценка МНК отвечает глобальному минимуму суммы квадратов отклонений. На практике случай, показанный на рис. 7.1, а, встречается редко. Как правило, имеем ситуацию, изображенную на рис. 7.1, б, где
Рис. 7.2. Геометрия МНК нелинейной регрессии, Распознать, какое из значений оценок является ложным, а какое — истинным, довольно затруднительно. Эта проблема подробно обсуждается в параграфе 7.6. Остановимся на геометрическом смысле оценки МНК в нелинейной регрессии. Совокупность функций-регрессий
Для того чтобы найти оценку МНК, необходимо совершить обратную операцию: по заданному значению образа отображения Обратное отображение к Найдем условия, при которых регрессия (7.3) с функциями, линейными в логарифмах, идентифицируема. Пусть «1, «2 в
Ясно, что (7.9) влечет равенство Упражнения 7.1(см. скан) (см. скан)
|
1 |
Оглавление
|