Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.3. Метод Ньютона-Гаусса и его модификацииСпецифический вид суммы квадратов отклонений позволяет построить методы минимизации, более эффективные, чем общие методы. Основой является метод Ньютона — Гаусса. Найдем первые и вторые производные суммы квадратов отклонений:
Значения а) нелинейная регрессия (7.2) имеет невысокий порядок нелинейности: вторые производные б) гессиан С учетом условий а) и б) приближенно можно считать Общий метод минимизации, метод Ньютона, предлагает двигаться из данного начального приближения
где
Вычислив следующее значение приближения
Формула (7.17) может быть получена также из других соображений. Пусть приближение
В матричном виде это равенство может быть переписано как
поэтому регрессия (7.2) линеаризуется
или
Применяя МНК к линеаризованной регрессии (7.18), найдем следующее значение вектора приближения:
которое совпадает с ранее полученным (7.17). Метод Ньютона-Гаусса является в некотором смысле интерполяцией градиентного метода и метода Ньютона. Действительно, как и в градиентном методе, здесь вычисляются только первые производные; таким образом, время, затрачиваемое на одну итерацию, не намного больше, чем в градиентном методе (как правило, время, необходимое на обращение и перемножение матриц, намного меньше, чем на вычисление значения функций или их производных). Этот метод близок и к методу Ньютона, так как по смыслу является его приближением. В нем отсутствует существенный недостаток метода Ньютона — если в последнем матрица вторых производных должна быть положительно определена, то в методе Ньютона — Гаусса матрица Длина шага в методе Ньютона-Гаусса (7.17) равна единице. Метод будет более гибким, если длину шага сделать переменной. Таким образом может быть построен модифицированный метод Ньютона-Гаусса:
Значение коэффициента
Приведем теорему, с помощью которой можно легко получать условия сходимостей тех или иных методов. Прежде всего заметим, что любой итерационный метод минимизации функций задается неким отображением
где выбрано тем или иным образом. В оптимальном случае
Теорема 7.2. Пусть функция Предположим, итерационный процесс, задаваемый отображением
Тогда, если
где Доказательство теоремы приводится в параграфе 7.81. Сделаем некоторые замечания. Очевидно, в силу условий теоремы множество
Поскольку мы не делали предположений о выпуклости функции, постольку нельзя доказать, что пределом последовательности итераций служит точка, обращающая Далее, из доказательства теоремы следует, что если С помощью теоремы 7.2 легко проверяется сходимость различных методов. Для примера рассмотрим градиентный метод. Здесь
или Выясним условия сходимости итерационных методов минимизации суммы квадратов отклонений. Начнем с метода Ньютона-Гаусса (7.17). В [17] предлагаются условия сходимости метода Ньютона-Гаусса, однако они трудно проверяемы и завышены. Как и ранее, будем считать, что матрица
В методе Ньютона — Гаусса
Тогда, как легко показать,
Но
т. е. в качестве Так же, как в градиентном методе, для существования
Можно показать, что
поэтому условие (7.26) переписывается как
На основе (7.27) можно сделать вывод: если нелинейные регрессии «не очень нелинейны»
где а — оценка МНК, минимизирующая Не представляет труда выяснение условий сходимости модифицированного метода Ньютона-Гаусса (7.19). Если
где
X. Хартли [121] для выбора и
Как известно, парабола
При приближении к оценке МНК, как правило, Выбор Рассмотрим теперь отыскание оценки МНК для функций регрессий, линейных в логарифмах
Очевидно, если Упражнение 7.3(см. скан)
|
1 |
Оглавление
|