Главная > Нейронные сети для обработки информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

12.2. Структура сети Ванга-Менделя

Если использовать в качестве основы дальнейших рассуждений выражение (11.35), вытекающее из модели вывода Мамдани-Заде, можно получить структуру нечеткой сети (рис. 12.2), определенную Л.Вангом и Дж.Менделем [160].

Это четырехслойная структура, в которой первый слой выполняет фуззификацию входных переменных, второй - агрегирование значений активации условия, третий (линейный) - агрегирование М правил вывода (первый нейрон) и генерацию нормализующего сигнала (второй нейрон), тогда как состоящий из одного нейрона выходной слой осуществляет нормализацию, формируя выходной сигнал Только первый и третий слои являются параметрическими. В первом слое это параметры функции фуззификации , а в третьем слое - веса , интерпретируемые как центр с функции принадлежности следствия нечеткого правила вывода. Представленная на рис. 12.2 сетевая структура реализует функцию аппроксимации (11.34), которую с учетом введенных обозначений можно записать в виде

Рис. 12.2. (см. скан) Структура нечеткой нейронной сети Ванга-Менделя

Следует отметить большое сходство структур обеих нечетких сетей. Части, определяющие условие - первый и второй слои - у них идентичны, поскольку они соответствуют компонентам правил вывода одинаково представляемым и в модели Мамдани-Заде, и в модели TSK. Различия наблюдаются в представлении компонентов “THEN В сети TSK результат представляется полиномом первого порядка. В сети Ванга-Менделя результат представляется константой которую можно рассматривать как полином нулевого порядка, определяющий центр функции принадлежности следствия. Таким образом, с функциональной точки зрения сеть Ванга-Менделя подобна сети TSK, а точнее - является ее частным случаем.

Задача обеих сетей (TSK и Ванга-Менделя) состоит в таком отображении пар данных чтобы ожидаемое значение, соответствующее входному вектору х, формировалось выходной функцией сети Несмотря на то, что приведенные рассуждения касаются сетей с одним выходным нейроном, они могут быть обобщены на случай систем с несколькими выходами.

Обучение нечетких сетей, так же как и классических сетей, может проводиться либо по алгоритму с учителем, основанному на минимизации целевой функции, задаваемой, как правило, с использованием эвклидовой нормы как

где обозначено количество обучающих пар либо по алгоритму самоорганизации, согласно которому выполняется группирование (кластеризация) данных.

Categories

1
Оглавление
email@scask.ru