Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

12.5. Адаптивный алгоритм самоорганизации нечеткой сети

Представленный в предыдущем подразделе алгоритм самоорганизации требует априорного знания количества центров (нечетких нейронов), которые будут предоставлять данные. С этой точки зрения наиболее универсальным представляется адаптивный алгоритм, автоматически добавляющий новые центры в режиме онлайн в зависимости от распределения входных данных х.

Адаптивный алгоритм был сформулирован только для гауссовской функции с использованием обобщенной модели Ванга-Менделя [160]. В результате его реализации определяются: количество центров и их расположение в части, соответствующей условиям (множество векторов и заключениям (множество скалярных ожидаемых значений Этот алгоритм можно описать следующим образом.

1. При старте с первой пары данных создается первый кластер с центром Принимается, что и что мощность множества Пусть обозначает предельное эвклидово расстояние между вектором х и центром, при котором данные будут трактоваться как принадлежащие к созданному кластеру. Для сохранения общности решения принимается, что в момент начала обучения существует М кластеров с центрами и соответствующие им значения и .

2. После считывания обучающей пары рассчитываются расстояния между вектором и всеми существующими центрами для Допустим, что ближайший центр — это с. В таком случае в зависимости от значения может возникнуть одна из двух ситуаций:

• если то создается новый кластер причем Параметры созданных до этого кластеров не изменяются, т. е. для . Количество кластеров М увеличивается на ;

• если то данные включаются в кластер, параметры которого следует уточнить в соответствии с формулами [60]:

В другой версии алгоритма фиксируется положение центров после

инициализации, и их координаты уже не изменяются. Во многих случаях такой прием улучшает результаты адаптации.

3. После уточнения параметров нечеткой системы функция, аппроксимирующая входные данные системы, определяется в виде

тогда как остальные кластеры не изменяются, т. е. при для .

При повторении перечисленных этапов алгоритма до с уточнением каждый раз значения М пространство данных разделяется на М кластеров, при этом мощность каждого из них определяется как центр - как а значение приписанной ему накопленной функции - как

Этот алгоритм называется самоорганизующимся, поскольку разделение пространства данных на кластеры происходит самостоятельно и без участия человека, в соответствии с заданным значением порога При малом значении количество кластеров возрастает, в результате чего аппроксимация данных становится более точной, однако это достигается за счет более сложной функции и увеличения объема необходимых вычислений при одновременном ухудшении обобщающих свойств сети. Если значение слишком велико, то вычислительная сложность уменьшается, однако возрастает погрешность аппроксимации. При подборе оптимальной величины порога должен соблюдаться компромисс между точностью отображения и вычислительной сложностью. Как правило, оптимальное значение подбирается методом проб и ошибок с использованием вычислительных экспериментов.

На рис. 12.13 представлены результаты аппроксимации кривой

нечеткой сетью с самоорганизацией при использовании адаптивного алгоритма обучения. Рис. 12.13 а иллюстрирует результаты, полученные при величине порога , а рис. 12.136 соответствует порогу Пунктирная линия обозначает ожидаемые значения, а непрерывная линия — фактические значения, сгенерированные нейронной моделью. Алгоритм сам подбирал количество нейронов, отвечающее установленному значению порога . В первом случае зафиксированное алгоритмом количество нейронов было равно 12, а во втором - 19. Для обучения использовались только 500 первых реализаций сигнала. Оставшиеся 500 значений применялись исключительно для тестирования.

Рис. 12.13. (см. скан) Пример отображения данных иечеткой сетью с самоорганизацией при использовании адаптивного алгоритма обучения: а) порог ; б) порог

Следует обратить внимание, что алгоритм самоорганизации нечеткой сети позволяет одновременно определять как параметры сети, так и ее структуру (количество нейронов скрытого слоя). Его реализация подобна модели Ванга-Менделя, описываемой формулой (12.7), в которой можно выделить центры соответствующие множеству векторов х, и коэффициенты связанные с положением центров через последовательность заданных функций . В связи с накопительным характером формирования параметров (формула (12.48)), в знаменателе выражения (12.51) суммирование производится с весами отражающими количество уточнений параметров конкретных групп данных (размерность кластера).

1
Оглавление
email@scask.ru