Главная > Нейронные сети для обработки информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

12.4.5. Сеть с нечеткой самоорганизацией в гибридной структуре

При практической реализации систем с нечеткой самоорганизацией возникает необходимость преобразовать коэффициенты принадлежности в требуемую форму представления выходного вектора. При реконструкции только вектора х достаточно простого взвешенного суммирования центров в соответствии с формулой (12.47). При более сложных операциях преобразования сигналов сеть с нечеткой самоорганизацией используется в качестве одного из компонентов более общей сетевой структуры. Наиболее известный пример - это гибридная сеть, обобщенная структура которой приведена на рис. 9.13. Уточненная структура гибридной нечеткой сети изображена на рис. 12.6.

Рис. 12.6. Структура гибридной нечеткой сети

Гибридная сеть объединяет в себе сеть с нечеткой самоорганизацией, выполняющей функции препроцессора, и многослойный (обычно двухслойный) персептрон (MLP) в качестве постпроцессора.

Выходы самоорганизующегося слоя используются в качестве входов многослойного персептрона. Если на вход сети подается вектор то на выходе слоя с самоорганизацией формируется вектор и, состоящий из коэффициентов принадлежности х к конкретным центрам: щк(х)]т. Конкретные компоненты рассчитываются в соответствии с универсальной формулой (12.43). Они удовлетворяют условию нормализации для каждого вектора

Количество входов персептронной компоненты гибридной сети равно количеству самоорганизующихся нейронов. Количество скрытых слоев и число нейронов в этих слоях может быть, в принципе, произвольным, хотя обычно для восстановления данных с требуемой точностью достаточно одного слоя. Размерность выходного слоя MLP (т.е. количество сигналов составляющих фактический выходной вектор зависит от размерности заданного вектора сопряженного с входным вектором

На практике гибридная сеть, как правило, более эффективна, чем одиночная сеть с нечеткой самоорганизацией и чем самостоятельный многослойный персептрон. Этот вывод следует из факта, что при использовании гибридной сети задача разделяется на два независимых этапа, реализуемых отдельно друг от друга. На этапе самоорганизации пространство входных данных разделяется на кластеры, при этом количество кластеров (самоорганизующихся нейронов) может быть произвольным и определяться условиями решаемой задачи. Многослойный персептрон приписывает каждой группе кластеров соответствующий ей ожидаемый результат. Например, при решении задачи классификации это может выглядеть как отнесение к одному конкретному классу нескольких кластеров данных.

С учетом ярко выраженной двухкомпонентной структуры гибридной сети для ее обучения применяется алгоритм, состоящий из двух этапов. На первом из них проводится обучение самоорганизующегося слоя, состоящее в подборе позиций центров, представляющих данные. Для этого можно применять как алгоритм C-means, так и алгоритм Густафсона-Кесселя. По завершении первого этапа, когда стабилизировались значения коэффициентов принадлежности всех векторов, представляющих входные сигналы для многослойного персептрона, начинается второй этап обучения. На нем значения параметров самоорганизующейся части сети остаются неизменными, а уточняются только веса нейронов персептронной компоненты. Это обычное обучение многослойного персептрона, для которого входом является множество коэффициентов принадлежности вектора х к центрам самоорганизующегося слоя. В зависимости от типа решаемой задачи выходом сети может быть код класса, к которому принадлежит входной вектор х, либо ожидаемое значение выходного вектора, соответствующего вектору По завершении второго

этапа обучения веса замораживаются, и сеть становится готовой к функционированию в режиме эксплуатации (в котором на нее подаются только входные векторы х без соответствующих им векторов

Функционирование гибридной нечеткой сети проиллюстрируем на примере задачи классификации трехмерных данных, принадлежащих к трем частично пересекающимся классам. Распределение этих данных представлено на рис. 12.7.

Рис. 12.7. Распределение тестовых трехмерных данных для решения задачи классификации

Количество данных, относящихся к разным классам, различно. В первом классе содержится 600 векторов х, обозначенных точками. Второй класс составляют 100 векторов, обозначенных звездочками, а в третий класс входят 300 векторов, обозначенных знаком В ходе вычислительного эксперимента классы кодировались в двоичной системе (1 означала принадлежность к классу, отсутствие принадлежности). По количеству классов размерность выходного вектора равна 3. Решение задачи при использовании обычного классификатора Кохонена либо сети с нечеткой самоорганизацией малоэффективно, поскольку количество выходных нейронов должно быть равно числу классов, т.е. трем, что существенно обедняет архитектуру сети, а вследствие частичного пересечения классов будет просто нецелесообразным.

Применение гибридной нечеткой сети со структурой 10-10-8-3 (10 самоорганизующихся нейронов и многослойный персептрон со структурой 10-8-3) дало хорошие результаты классификации. На 1000 тестовых данных, не участвовавших в обучении, получено только 6 ошибочных решений об отнесении к конкретным классам (эффективность классификации составила 99,4%). Для сравнения самостоятельный многослойный персептрон при классификации допустил 11 ошибок (эффективность 98,9%), а одиночная сеть с нечеткой самоорганизацией - 51 ошибку (эффективность 94,9%).

Categories

1
Оглавление
email@scask.ru