Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

12.4.3. Алгоритм разностного группирования

Алгоритм разностного группирования данных - это модификация предыдущего алгоритма, в которой обучающие векторы х, рассматриваются в качестве потенциальных центров Пиковая функция в этом алгоритме задается в виде

Значение коэффициента определяет сферу соседства. На значение существенным образом влияют только те векторы которые расположены в пределах этой сферы. При большой плотности точек вокруг х, - (потенциального центра) значение функции велико. Напротив, малое ее значение свидетельствует о том, что в окрестности находится незначительное количество данных. Такая точка считается “неудачным” кандидатом в центры. После расчета значений пиковой функции для каждой точки отбирается вектор х, для которого мера плотности оказалась наибольшей. Именно эта точка становится первым отобранным центром Выбор следующего центра возможен после исключения предыдущего и всех точек, лежащих в его окрестности. Так же, как и в методе пикового группирования, пиковая функция переопределяется в виде

При новом определении функции коэффициент обозначает новое значение константы, задающей сферу соседства очередного центра. Обычно соблюдается условие Пиковая функция принимает нулевое значение при и близка к нулю в ближайшей окрестности этой точки.

После модификации значений пиковой функции отыскивается следующая точка х, для которой величина оказывается максимальной. Эта точка становится следующим центром Процесс поиска очередного центра возобновляется после исключения компонентов, соответствующих уже отобранным точкам. Инициализация завершается в момент фиксации всех центров, предусмотренных начальными условиями.

В соответствии с описанным алгоритмом происходит самоорганизация множества векторов состоящая в нахождении оптимальных значений

центров, представляющих множество данных с минимальной погрешностью. Если мы имеем дело с множеством обучающих данных в виде пар векторов так, как это происходит при обучении с учителем, то для нахождения центров, соответствующих множеству векторов достаточно сформировать расширенную версию векторов х в форме

Процесс группирования, проводимый с предъявлением расширенных векторов позволяет определить также расширенные версии центров Если принять во внимание, что размерность каждого нового центра равна сумме размерностей векторов х и то в описании этого центра можно легко выделить часть соответствующую векторам х (первые компонентов), и остаток соответствующий вектору Таким образом можно получить центры как входных переменных, так ожидаемых выходных значений

для . В случае применения нечетких правил с одним выходом векторы сводятся к скалярным величинам и соответственно. Таким образом, при использовании правила вывода Ванга-Менделя процесс самоорганизации позволяет восстановить функцию аппроксимирующую множество данных для . В частности, при введенных выше обозначениях формула (12.7) принимает вид:

Согласно которому все центры подбираются оптимальным образом. При этом остальные параметры менее критичные для сходимости алгоритма, могут эффективно подбираться гибридным методом при небольшом количестве итераций. Конечно, итерационный процесс при реализации гибридного метода охватывает также и расчеты координат центров, однако с учетом их удачного начального размещения изменения, вносимые в процессе обучения, обычно оказываются очень незначительными.

1
Оглавление
email@scask.ru