Главная > Нейронные сети для обработки информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

8.2.2. Алгоритм обучения сети RMLP

Сеть RMLP адаптируется с применением градиентного алгоритма обучения. и в ситуации с однонаправленной сетью, рассчитывается градиент целевой функции относительно каждого веса. Для упрощения будем рассматривать сеть с одним выходным нейроном. В этом случае целевую функцию в момент можно определить в виде

Дифференцируя эту функцию относительно произвольного веса выходного слоя сети, получаем:

С учетом зависимостей (8.2) - (8.5) получаем

где Производная равна 1 только при равна 0 во всех остальных случаях. С учетом этого факта

причем

С учетом зависимостей (8.6) - (8.10) получаем

Рекуррентная формула (8.11) позволяет рассчитать значение производной в произвольный момент времени по ее значениям в предыдущие моменты.

Она связывает значения производных в момент со значениями тех же функций в моменты . Можно предположить, что начальные шачения производных от сигналов перед началом обучения равны, т.е.

При использовании в процессе обучения метода наискорейшего спуска иаптация весов выходного слоя определяется формулой

Актуализация весов скрытого слоя Происходит аналогичным образом. После расчета производной сигнала относительно веса де скрытого слоя получаем здесь означает дельту Кронекера)

Следовательно, формула, определяющая адаптацию веса скрытого слоя, при использовании метода наискорейшего спуска принимает вид

В окончательном виде алгоритм общения сети RMLP можно сформулировать следующим образом.

1. Выполнить инициализацию случайным способом весов нейронов скрытого и выходного слоев.

2. Для каждого момента при заданном возбуждении в виде вектора х рассчитать состояние всех нейронов сети в соответствии с формулами (8.2) - (8.5).

3. С помощью зависимостей (8.11) и (8.13) определить значения производных и Для всех значений соответствующих весам сети с изначально выбранной структурой.

4. Актуализировать веса в соответствии с формулами (8.12) и (8.14), после чего вернуться к настоящего алгоритма.

Представленный алгоритм функционирует в режиме “онлайн”, принимая поступающие входные данные и соответствующие им значения ожидаемого вектора и оперативно корректируя значения весов.

Categories

1
Оглавление
email@scask.ru