Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.1.4. Использование алгоритма обратного распространения ошибки
Поскольку обсуждаемая нами
структура представляет собой многослойную сеть и, как уже отмечалось, алгоритм
обратного распространения ошибки можно обобщить на любую сеть с прямым
распространением сигнала, то ничто не препятствует тому, чтобы предлагаемый модуль
нечеткого управления обучать также, как и обычную нейронную сеть. Для этого
потребуется обучающая выборка в виде пар
была
минимальной. Значение выходного сигнала Допустим, что количество правил Начнем с весов
где
В формуле (5.14), задающей меру погрешности, содержится выходной сигнал системы (модуля управления). Представим уравнение (5.13) в виде
Легко заметить, что значение
Исключение зависимости (5.17). При подстановке выражения (5.14) в формулу (5.17) получаем выражение
Поскольку эталонный сигнал
Применяя формулу для расчета производной от сложной функции, получаем
С учетом того, что
Отдельные веса сети независимы друг от друга, поэтому
Следовательно,
И окончательно
При подстановке полученной
формулы в выражение (5.15), определяющее способ модификации веса
который с учетом выведенных выше зависимостей представляется в виде
Для упрощения записи в
приведенной формуле зависимость отдельных ее параметров от номера итерации Аналогично рассчитываются
остальные параметры:
где
Исключение зависимости (5.20). Так же как и в случае с формулой (5.17), будем основываться на уравнении, определяющем производную от меры погрешности
С учетом того, что от параметра
Поскольку
После подстановки вместо
В результате замены
и далее
а также
После этого
что в итоге приводит к формуле
При подстановке равенства (5.20)
в выражение (5.19), получаем алгоритм обучения для параметра
где
При использовании такой же
методики можно получить алгоритм обучения для параметра
Представленные зависимости
(5.18), (5.21) и (5.22) определяют способ модификации весов и параметров на
основе алгоритма обратного распространения ошибки. На первом этапе входной
вектор Заметим, что во всех формулах
фигурирует «нормализованная» погрешность Алгоритм обучения обсуждаемой сети представлен на рис. 5.2 в виде блок-схемы. В принципе, он не требует дополнительных комментариев, можно добавить лишь несколько слов о принятых на этом рисунке упрощениях.
Рис. 52. Алгоритм обучения модуля нечеткого управления, заданного выражением (5.13). Во-первых, как определить, насколько корректно обучена сеть? Для этого созданы различные методы, и одним из простейших считается расчет значения средней погрешности для всех эпох (epoch) с последующим сравнением результата с некоторым заданным значением. Напомним, что эпохой называется количество итераций, равное числу пар векторов входных и эталонных сигналов (т.е. один цикл предъявления обучающей выборки). Во-вторых, на схеме предполагается, что обучающие эталоны предъявляются строго последовательно. В принципе, для простейших сетей это не имеет особого значения, однако в общем случае выдвигается условие, чтобы в рамках каждой эпохи данные выбирались случайным образом. Программная реализация приведенного алгоритма не представляет проблему даже для начинающего программиста. Однако следует помнить очень важное правило: на каждом шаге вначале рассчитываются поправки для всех весов в каждом слое, и только после этого корректируются значения самих весов. Следует обратить внимание на то,
что в формулах для расчета очередных значений параметров
|
1 |
Оглавление
|