Раздел 10. СЕТИ С САМООРГАНИЗАЦИЕЙ КОРРЕЛЯЦИОННОГО ТИПА
Другой важный класс сетей с самоорганизацией составляют сети, в процессе обучения которых используется информация о зависимостях между сигналами. Эти сети называются корреляционными, или хеббовскими. В процессе обучения они выявляют значимые корреляционные зависимости между сигналами, подстраиваясь под них путем адаптации значений синаптических весов.
В этом разделе будут обсуждаться различные аспекты самоорганизации на основе обобщенных правил Хебба. Мы представим два вида хеббовских сетей: сеть, выполняющую декомпозицию данных по главным компонентам, называемую сетью РСА (англ.: Principal Component Analysis - анализ главных компонентов), и сеть, декомпозирующую обучающие данные на независимые компоненты, называемую сетью ICA (англ.: Independent Component Analysis -анализ независимых компонентов). Обе сети по своей природе линейны (линейны как сами нейроны, так и межнейронные связи), хотя алгоритмы обучения имеют нелинейный характер.
10.1. Энергетическая функция корреляционных сетей
Применение основного правила Хебба связано с использованием модели линейного нейрона, в соответствии с которой выходной сигнал
нейрона равен взвешенной сумме входных сигналов:
В этой модели используется вектор
дополненный нулевым компонентом
обозначающим поляризацию. В соответствии с постулатом Хебба изменение веса нейрона после предъявления вектора
производится по формуле
где
являются определенными константами,
- коэффициент обучения. С учетом всего множества обучающих выборок изменение значений весов сети во времени может быть выражено обобщенной формулой [46]
в которой
— это определенные константы, связанные с
и с
, тогда как С - это усредненная ковариация активности
нейронов, определяемая в виде
Константой
обозначено усредненное значение входных выборок по
компоненту усредненного вектора х, где
Если принять, что изменения весов производятся в соответствии с правилом максимального уменьшения значения энергетической функции Е сети, получаем
После решения этого дифференциального уравнения получаем энергетическую функцию в виде [46]
где
Энергетическая функция содержит два слагаемых:
. Первый элемент определяет вариацию
активности
нейрона; так как
Второе слагаемое можно отождествить
штрафной компонентой энергетической функции, иначе называемой в теории оптимизации стоимостной или целевой функцией. При зафиксированные значениях весов функция Е будет принимать минимальные значения тогда, копи вариация
будет максимальной. В связи с этим обучение по Хеббу приводит
такой организации нейронов (подбором их весов), которая максимизирует
вариацию активности нейронов при определенном ограничении значений их весов. Поскольку в общем случае эти весовые ограничения не уточняются, функция может иметь несколько локальных максимумов.