Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

3.6. Эвристические методы обучения сети

Помимо алгоритмов обучения, реализующих апробированные методы оптимизации нелинейной целевой функции (такие, как методы переменной метрики, Левенберга-Марквардта либо сопряженных градиентов), создано огромное количество алгоритмов эвристического типа, представляющих собой в основном модификацию методов наискорейшего спуска или сопряженных градиентов. Подобные модификации широко известных алгоритмов связаны с внесением в них некоторых изменений, ускоряющих (по мнению авторов) процесс обучения. Как правило, такие методы не имеют серьезного теоретического обоснования, особенно это относится к процедуре подбора управляющих параметров. Однако в таких алгоритмах реализуется личный опыт работы авторов с нейронными сетями. К наиболее известным эвристическим алгоритмам относится Quickprop С. Фальмана [33] (использованный среди прочих и в программе а также RPROP М. Ридмиллера и X. Брауна [133], реализованный в программе SNNS [178].

3.6.1. Алгоритм Quickprop

Quickprop содержит элементы, предотвращающие зацикливание в точке неглубокого локального минимума, возникающего в результате работы нейрона на фазе насыщения сигмоидальной кривой, где из-за близости к нулю производной функции активации процесс обучения практически прекращается.

Вес на шаге алгоритма изменяется согласно правилу

Первое слагаемое соответствует оригинальному алгоритму наискорейшего спуска, последнее слагаемое, - фактору момента, а средний член предназначен для минимизации абсолютных значений весов. Коэффициент у, имеющий обычно малую величину (типовое значение ), - это фактор, приводящий к уменьшению весов вплоть до возможного разрыва соответствующих взвешенных связей. Константа это коэффициент обучения, который в данном алгоритме может иметь ненулевое значение (как правило, на старте процесса обучения, когда либо когда или нулевое значение - в противном случае.

Важную роль в алгоритме Quickprop играет фактор момента, который адаптируется к текущим результатам процесса обучения. В соответствии с алгоритмом Фальмана коэффициент момента подбирается индивидуально для каждого веса по правилу

причем

Константа - это максимальное значение коэффициента момента, которая по предложению Фальмана принимается равной

Также известна упрощенная версия алгоритма в которой значения весов изменяются в соответствии с правилом

где нем уменьшено количество управляющих параметров и упрощена сама формула уточнения значений весов. Согласно представленным в [159] результатам эффективность модифицированного алгоритма сравнима с оригинальным алгоритмом Фальмана.

3.6.2. Алгоритм RPROP

Другой простой эвристический алгоритм, демонстрирующий высокую эффективность обучения, - это алгоритм М. Ридмиллера и X. Брауна, называемый RPROP (англ.: Resilient back PROPagation) [133, 178]. В этом алгоритме при уточнении весов учитывается только знак градиентной составляющей, а ее значение игнорируется:

Коэффициент обучения подбирается индивидуально для каждого веса с учетом изменения значения градиента:

где - константы: Минимальное и максимальное значения коэффициента обучения обозначены соответственно и для алгоритма RPROP они составляют и Функция принимает значение, равное знаку градиента.

Алгоритм RPROP, в котором игнорируется информация о значении градиента, позволяет значительно ускорить процесс обучения в тех случаях, когда угол наклона целевой функции невелик. В соответствии со стратегией подбора весов, если на двух последовательных шагах знак градиента не изменяется, предусматривается увеличение коэффициента обучения. Если же знак градиента изменяется, то коэффициент обучения уменьшается.

1
Оглавление
email@scask.ru