Макеты страниц
2.6. Сети адаптивной резонансной теорииФеномен памяти человека исследован явно недостаточно. Среди классов памяти (генетической, врожденной и прижизненной), наибольший интерес для специалистов в области искусственных нейронных сетей представляет исследование прижизненной памяти, обеспечивающей возможность приспособления организма к окружающей среде путем накопления информации в процессе обучения, функционирования, самоорганизации. Один из самых интересных вопросов заключается в следующем: каким образом память сохраняет пластичность, т. е. способность к восприятию новых образов, оставаясь при этом устойчивой к разрушению ранее запомненных образов. И что является стимулом для запоминания новой информации. Решение проблемы стабильности-пластичности для различных парадигм нейронных сетей решается по-разному. Так, в случае фиксированного набора обучающих векторов они могут предъявляться циклически, нейтрализуя необратимый характер модификаций весов в результате обучения новому образу. Для сетей с обратным распространением при существенном изменении весов зачастую требуется полное переобучение. Кроме того, на практике сети может быть никогда не предъявлен один и тот же обучающий вектор дважды. Поэтому сеть будет непрерывно изменять веса, характеризуясь временной нестабильностью. Для решения задач векторной классификации Карпентером и Гроссбергом предложен класс нейронных сетей, реализующих модели адаптивной резонансной теории (APT) (ART-1, ART-2 и ARTMAP), сохраняющих пластичность для запоминания новых образов и, в то же время, предотвращающих изменение ранее запомненных образов. Для иллюстрации основных положений адаптивной резонансной теории рассмотрим далее сеть APT (ART-1) для классификации двоичных векторов, заметив, что такая нейронная сеть может классифицировать также и непрерывные векторы (ART-2). На рис. 2.11 показана структура сети APT, состоящая из блока сравнения, блока распознавания, схемы определения сходства векторов, а также из двух вспомогательных схем ИЛИ 1 и ИЛИ 2. Нейроны слоя сравнения блока сравнения осуществляют функцию мажоритарного срабатывания по правилу «2 из 3» (выход нейрона равен единице только в том случае, если, как минимум, два из трех его входов равны единице). В блоке распознавания осуществляется классификация входных векторов. Слой нейронов распознавания этого блока состоит из нейронов с весовыми векторами Схема определения сходства векторов определяет степень сходства между векторами X и Y. В случае если степень отличия в соответствии с выбранным критерием сходства превышает некоторый заданный порог, этой схемой вырабатывается сигнал сброса возбужденного нейрона в слое распознавания. Рассмотрим основные этапы функционирования сети APT. Инициализация. До начала обучения случайным образом устанавливаются значения весовых векторов
Рис. 2.11. Структура нейронной сети, реализующей адаптивную резонансную теорию
где Такая установка этих весов гарантирует, что несвязанные нейроны не будут возбуждены более, нежели обученные нейроны в слое распознавания. Значения всех компонентов весовых векторов Значение параметра сходства Обучение. Процесс обучения АРТ-сетей является обучением без учителя. Различают два вида обучения АРТ-сетей: медленное и быстрое. При медленном обучении входной вектор предъявляется на вход сети кратковременно, и весовые коэффициенты не достигают своих асимптотических значений в результате одного предъявления. В этом случае значения весов определяются статистическими характеристиками всех входных векторов, а не характеристиками отдельного входного вектора. Динамика процесса медленного обучения описывается дифференциальными уравнениями. В случае рассматриваемого ниже быстрого обучения входной вектор устанавливается на входе сети на достаточно длительный интервал времени, что позволяет весовым коэффициентам В ходе обучения входные векторы последовательно подаются на входы сети, и весовые векторы IV изменяются таким образом, чтобы сходные векторы активизировали соответствующие нейроны слоя распознавания. Веса вычисляются по следующему правилу:
где Компоненты вектора весов V, связанные с новым запоминаемым образом, изменяются таким образом, что Распознавание. В исходном положении на выходе схемы ИЛИ 2 установлен уровень нуля, обнуляющий выходы всех нейронов распознающего слоя. Затем на вход сети подается ненулевой вектор X, устанавливающий уровень единицы на выходе схемы ИЛИ 2. Таким образом, обеспечивается прохождение входного вектора X на выходы нейронов слоя сравнения без изменений, т. е. Далее для каждого состояние, т. е. «резонирует», тормозя остальные нейроны этого слоя, которые установятся в нуль. Сравнение. Единица с выхода Обратная связь от ненулевого вектора Другими словами, целью обратной связи от нейронов слоя распознавания является установка компонентов выходного вектора У в нуль в случае, если входной вектор X не соответствует хранимому образу, т. е. если векторы X и Z не имеют совпадающих компонентов. Процедура определения сходства, осуществляемая схемой определения сходства векторов, заключается в определении отношения При существенном отличии векторов X и Z выходной вектор Y будет содержать много нулей в компонентах, где вектор X содержит единицы. Это означает, что установленный вектор Z не является искомым, и возбужденный нейрон в слое распознавания должен быть заторможен схемой определения сходства векторов. Процедура торможения заключается в установке в нуль выхода возбужденного нейрона в процессе текущей классификации. Поиск. В случае совпадения или удовлетворения условий близости векторов X и Y процесс классификации завершается. Признаком этого является отсутствие на выходе схемы определения сходства векторов сигнала торможения (сброса) возбужденного в текущем цикле классификации нейрона слоя распознавания. В противном случае осуществляется поиск среди других запомненных образов для определения наиболее близкого к входному. При торможении возбужденного нейрона вектор Процесс повторяется до тех пор, пока не будет найден запомненный образ, степень близости с которым у вектора X не меньше заданной. В этом случае осуществляется цикл дополнительного обучения с целью модификации весовых векторов Если определено, что ни один из запомненных векторов не соответствует входному, то вводится новый С целью ускорения процесса поиска вычисление сверток входного вектора с весовыми векторами Характеристики АРТ-сетей: • быстрый доступ к предварительно запомненным образам, обусловленный тем, что после стабилизации процесса обучения предъявление одного из обучающих векторов (или вектора с существенными характеристиками категории) будет активизировать требуемый нейрон слоя распознавания без поиска; • устойчивость процесса поиска, так как после возбуждения одного нейрона не будет возбуждений других нейронов в распознающем слое без сигнала с выхода схемы определения сходства векторов; • конечность процесса обучения, обусловленная стабильным набором весов; повторяющиеся последовательности обучающих векторов не будут приводить к циклическому изменению весов. В заключение отметим, что АРТ-сети организованы по принципу подобия с биологическими прототипами, а процессы, происходящие в них, подобно механизмам мозга, позволяют решить проблему стабильности-пластичности. Недостатком АРТ-сетей является недостаточная надежность сохранения информации. Так, в случае «потери» одного образа разрушается вся память.
|
1 |
Оглавление
|