Макеты страниц
3.4.2. Алгоритмы обучения и использования нечетких нейронных сетейОпишем типовой подход к построению алгоритмов обучения и использования нечетких нейронных сетей. Предположим, что нечеткой нейронной сетью должно быть реализовано (неизвестное) отображение:
при наличии обучающего множества:
Для моделирования неизвестного отображения
где Степень истинности
(можно использовать и другие представления для моделирования логического оператора Выход нечеткой системы определяется в соответствии с центроидным методом (дискретный вариант):
Введение функции ошибки для
позволяет, далее, как в обычных нейронных сетях использовать градиентный метод для подстройки параметров заданных предикатных правил. Так, величины
где Более детально алгоритм настройки рассмотрим на примере системы, включающей два правила:
при этом предполагается, что нечеткие понятия А, («малый») и
характеризующиеся параметрами Степени истинности правил определяются в данном случае соотношениями:
а выход системы - выражением:
Предположим, что имеется обучающее множество Требуется: осуществить такую настройку параметров системы Решение. Для данного случая функция ошибки может быть записана в форме:
Используя далее тот же подход, как и при выводе алгоритма обратного распространения ошибки (см. разд. 1.4), запишем:
Аналогичным образом могут быть получены выражения для коррекции коэффициентов
Рис. 3.16. Симметричные функции принадлежности Конечные выражения являются достаточно громоздкими, но могут быть упрощены в случае, если функции принадлежности имеют вид:
Данные функции характеризуются всего двумя параметрами (а и Ь), в определенном смысле являются симметричными (рис. 3.16) и удовлетворяют уравнению:
Заметим, что из последнего и ранее полученных уравнений следует:
Последующие выкладки таковы:
где
и
где
Приведенные выкладки, как представляется, полностью иллюстрируют идеи алгоритмов обучения и использования нечеткой нейронной сети. Рассмотрим другой пример нечеткой системы, имеющей следующую базу знаний:
где
Для определения выходной переменной используется алгоритм вывода Tsukamoto (см. разд. 3.2), в соответствии с которым: • подсчитываются значения истинности предпосылок для каждого правила:
Рис. 3.17 Иллюстрация алгоритма вывода Tsukamoto в нечеткой нейронной сети
где • для каждого правила определяются частные выходы
• находится общий выход системы
Изложенный процесс иллюстрируется рис. 3 17.
Рис. 3.18 Структура нечеткой нейронной сети (архитектура ANFIS) Нечеткая нейронная сеть, реализующая приведенный механизм вывода, представлена на рис 3 18 Заметим, что сети с подобной архитектурой в англоязычной литературе получили название ANFIS (Adaptive Neuro-Fuzzy Inference System) Данная сеть может быть описана следующим образом • Слой 1 Выходы нейронов этого слоя представляют собой значения функций принадлежности при конкретных (заданных) значениях входов • Слой 2 Выходами нейронов этого слоя являются степени истинности предпосылок каждого правила базы знаний системы, вычисляемые по формулам
Все нейроны слоя обозначены буквой Т, что означает, что они могут реализовывать произвольную • Слой 3 Нейроны этого слоя вычисляют величины
• Слой 4 Нейроны данного слоя выполняют операции
• Слой 5. Единственный нейрон этого слоя вычисляет выход сети:
Корректировка параметров системы для функций принадлежности
где Соответствующие выражения могут быть получены и для остальных коэффициентов: Генерация нечетких правилМожно выделить два подхода к модификации топологии нечеткой нейронной сети на этапах обучения и использования. Первый, традиционный подход основан на введении дополнительных продукционных правил в базу знаний системы. При этом следует учитывать непротиворечивость ее пополнения. Другой подход предполагает генерацию новых продукционных правил, не противоречащих правилам из базы знаний системы, исходя из анализа экспериментальных данных об объекте на основе предложенной одним из авторов книги процедуры, которая рассмотрена ниже. Предположим, что исследуемый объект имеет
где Предположим далее, что на объекте может быть реализован эксперимент, заключающийся в регистрации
Алгоритм построения системы может быть теперь описан следующим образом. ШАГ 1. Из Такое представление, очевидно, эквивалентно набору продукционных правил вида:
ШАГ 2. Для каждой новой экспериментальной точки
где
Л - параметр функций. ШАГ 3. Проверяется неравенство:
где При выполнении неравенства база знаний системы пополняется путем расширения матрицы ШАГ 4. Проверяется правило останова. В данном варианте алгоритма построение модели считается законченным, если в соответствии с шагами 2 и 3 перебраны все Если не все экспериментальные точки использованы, то осуществляется переход к шагу 2, в противном случае - останов. В процессе реализации алгоритма параметры
Рис. 3.19 Нечеткая нейронная сеть для решения задач классификации При использовании системы заданными считаются матрица Нетрудно видеть, что описанный алгоритм, в сущности, соответствует упрощенному алгоритму нечеткого логического вывода (см. разд. 3.2), но отличается от последнего тем, что база знаний не остается фиксированной, а модернизируется по мере поступления экспериментальных данных Причем непротиворечивость нового продукционного правила относительно набора правил из базы знаний гарантируется предложенной процедурой ее пополнения.
|
1 |
Оглавление
|