Главная > Нейронные сети для обработки информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

5.3.2. Вероятностный алгоритм подбора параметров радиальных функций

Требования к количеству скрытых нейронов можно смягчить применением сети типа HRBF, реализующей радиальное отображение с использованием взвешенной эвклидовой метрики. Коэффициенты масштабирующей матрицы связанные с соответствующими компонентами вектора х, определяющими радиальную функцию (см. рис. 5.4), представляют собой еще одну группу параметров, подлежащих подбору и облегчающих аппроксимацию обучающих данных радиальной сетью. За счет увеличения количества подбираемых параметров требуемая точность может быть достигнута сетью HRBF при меньшем числе нейронов. На рис. 5.7 представлена примерная зависимость (в процентах) величины погрешности классификации -мерных обучающих данных, представляющих 3 класса, от количества скрытых нейронов [154] для радиальной сети RBF (кривая, обозначенная ) и для сети HRBF с диагональной матрицей (нижняя кривая на рисунке). Кроме заметного снижения уровня погрешности классификации, в используемой в данном примере сети HRBF количество скрытых нейронов было снижено со 160 (сеть RBF) до 110 (сеть HRBF).

Оптимальные значения центров и коэффициентов для каждой базисной функции могут быть подобраны с помощью модифицированного алгоритма, изменяющего одновременно и характеристики центров, и матрицу

Рис. 5.7. Иллюстрация влияния архитектуры сетей RBF и HRBF на эффективность классификации при различном количестве радиальных нейронов

Одним из таких алгоритмов, разработанных для сети HRBF с диагональной масштабирующей матрицей является вероятностный алгоритм, предложенный в работе [154]. При равномерном распределении обучающих данных и при использовании диагональной масштабирующей матрицы процесс адаптации центров и элементов матрицы описывается рекуррентными соотношениями

где — обозначает изменяющийся во времени коэффициент обучения, а - константа, подбираемая из интервала [0, 1] (чаще всего значение лежит в пределах [0,5 - 0,8]). В представляемом методе радиальная функция определяется в виде

где Ее значение соответствует условной вероятности того, что вектор х принадлежит к кластеру с центром При таком определении матрицы она связана с масштабирующей матрицей используемой в сети HRBF на рис. 5.4, соотношением

Если обе матрицы имеют диагональную структуру, то

В зависимостях (5.25) и (5.26) на каждом этапе выполнения алгоритма одновременно происходит адаптация и центров, и матрицы весов причем уточняются параметры всех радиальных функций сети. Это существенно отличает описываемый метод от адаптивных зависимостей, реализуемых в описанном в предыдущем подразделе алгоритме К - усреднений, в соответствии с которым уточнялось значение только одного центра - победителя в конкурентной борьбе. Представленные формулы могут применяться и для сети RBF при условии, что и что в соответствии с выражением (5.25) уточняются параметры только центра, имеющего наибольшее значение функции

Categories

1
Оглавление
email@scask.ru