Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.4. Метод Левенберга-МарквардтаСуть этого широко используемого метода проста. При минимизации по методу Ньютона-Гаусса мы требовали невырожденность матрицы
где Рассмотрим условия сходимости процесса (7.30). Воспользуемся теоремой 7.2. Условие (7.23), очевидно, выполняется. В методе Левенберга Обозначим
Свойства этой поправки при изменении параметра Поскольку (7.30) является ридж-оценкой линеаризованной регрессии (7.18), оценка (7.30) дает минимальную сумму квадратов отклонений регрессии (7.18) в классе оценок с фиксированной длиной (см. параграф 6.4). Теорема 7.3. а) длина вектора поправки б) в) Доказательство этой теоремы дано в параграфе 7.8. Суть теоремы заключается в том, что, варьируя значением Д. Марквардт [158] предложил другую поправку для корректировки матрицы
где Остановимся теперь на стратегии выбора Градиентный метод хорошо работает в начале итерационного процесса, т. е. когда начальное приближение находится на достаточном расстоянии от минимизирующего вектора. Наоборот, метод Ньютона-Гаусса, как правило, быстро сходится в случае, когда приближение лежит в непосредственной близости к оценке МНК. Поэтому алгоритм, который на первых итерациях работал бы как градиентный метод, а в конце итерационного процесса — как метод Ньютона-Гаусса, вобрал бы в себя лучшие характеристики обоих процессов. При надлежащем выборе 1) на нулевом шаге полагаем 2) на а) если б) если В [22] приведена программа на Алголе метода Марквардта с описанной процедурой выбора Предложенная процедура выбора Для примера рассмотрим оценивание регрессии (7.5). В качестве Остановимся теперь на сравнении методов Ньютона-Гаусса и Хартли и методов Левенберга-Марквардта. Как показывает практика расчетов, методы второй группы являются более «осторожными». Для регрессий, в которых нелинейности не очень велики (к таким, в частности, относятся регрессии, линейные в логарифмах), методы Ньютона-Гаусса и Хартли сходятся быстрее методов второй Таблица 7.1 (см. скан) группы. Для регрессий же с высокой степенью нелинейности более предпочтительными оказываются методы второй группы. При этом их скорость сходимости невысока, зато методы Ньютона-Гаусса и Хартли вовсе расходятся. Иногда ни один из описанных методов не приводит к оценке МНК. В частности, сходимость часто отсутствует в регрессиях с функцией
которая представляет собой производственную функцию с постоянной эластичностью замены [12]. Остановимся на вопросе окончания процесса счета. Практически счет может быть остановлен, когда выполняются следующие условия: а) поправка вектора б) градиент Таким образом, при произвольно выбранных числах
На практике значения Большое значение для скорости сходимости процессов минимизации имеет выбор начального вектора параметров. В [123], например, предлагается следующая общая процедура: из
Решение этой системы примем в качестве начального приближения процесса минимизации. Однако такой метод имеет существенный недостаток. Решение системы (7.33) требует привлечения нелинейных итерационных методов, если В том случае, когда начальное приближение не может быть найдено какими-либо способами, можно предложить следующую процедуру. Часто даже если регрессии не сводятся к линейным с помощью некоторого преобразования, можно найти такую трансформацию регрессии, в которой основная часть параметров становится линейной. Так, если число нелинейных параметров после преобразования не больше двух, то, задаваясь сеткой для этих параметров, обычным МНК оцениваем остальные линейные параметры и в качестве начального приближения выберем то значение, которое приводит к минимальному Упражнения 7.4(см. скан)
|
1 |
Оглавление
|