Главная > Нечеткие множества в моделях управления и искусственного интеллекта
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

§ 8.4. Алгоритмы обучения

Известно, что обучающиеся системы улучшают свое функционирование в процессе работы, модифицируя свою структуру или значения параметров [26]. Предложено большое число способов описания и построения обучающихся систем. Все они предполагают решение следующих задач: выбор измерений (свойств, рецепторов) [12]; поиск отображения пространства рецепторов в пространство признаков, которые осуществляют вырожденное отображение объектов [17]; поиск критерия отбора признаков.

Причем в разных задачах для получения хороших признаков могут понадобиться разные критерии отбора [4, 5]. При обучении необходимо отвлечься от различий внутри класса, сосредоточить внимание на отличии одного класса от другого и на сходстве внутри классов [4]. Необходим достаточный уровень начальной организации обучающейся системы. Для сложной структурной информации необходима многоуровневая обучающаяся система [14].

Следует выделить следующие группы нечетких алгоритмов обучения: обучающийся нечеткий автомат, обучение на основе условной нечеткой меры; адаптивный нечеткий логический регулятор; обучение при лингвистическом описании предпочтений.

Рекуррентные соотношения в алгоритмах первых двух групп позволяют получать функцию принадлежности исследуемого понятия на множестве заранее известных элементов. В третьей группе алгоритм обучения осуществляет модификацию нечетких логических правил для удержания управляемого процесса в допустимых границах. В четвертой группе нечеткий алгоритм обучения осуществляет поиск вырожденного отображения пространства свойств в пространство полезных признаков и модификацию на их основе описания предпочтения.

8.4.1. Обучающийся нечеткий автомат.

В [54] предлагается печеткий автомат в качестве модели обучающейся системы. Рассматривается автомат с четким входом и зависимым от времени нечетким отношением перехода Пусть -нечеткое состояние автомата в момент времени на конечном множестве состояний — оценка значения . Состояние автомата в момент времени определяется шах-min композицией:

или аналогично с min-max композицией. Обучение направлено на изменение нечеткой матрицы переходов:

где Константа определяет скорость обучения. Начало работы автомата возможно без априорной информации или 1, а также с априорной информацией Величина зависит от оценки функционирования автомата. Доказано, что имеет место сходимость матрицы переходов, независимо от того, есть ли априорная информация (т. е. может быть любым значением из интервала [0, 1])

Описанная модель в [27] используется для выделения оптимальных стратегий в игре двух автоматов с нулевой суммой,

а в [54] — для классификации образцов. На рис. 8.3 изображена модель классификации образов. Роль входа и выхода можно кратко объяснить следующим образом. Во время каждого интервала времени классификатор образов получает новый образец х из неизвестной внешней среды.

Рис. 8.3. Модель классификации образов

Далее х обрабатывается в рецепторе, из которого поступает как в блок «обучаемый» (или «студент»), так и в блок «учитель» для оценки. Критерий оценки должен быть выбран так, чтобы его минимизация или максимизация отражала свойства классификации (классов образов). Поэтому, благодаря естественному распределению образов, критерий может быть включен в систему, чтобы служить в качестве учителя для классификатора. Модель обучения формируется следующим образом. Предполагается, что классификатор имеет в распоряжении множество дискриминантных функций нескольких переменных. Система адаптируется к лучшему решению. Лучшее решение выделяет множество дискриминантных функций, которые дают минимум нераспознавания среди множества дискриминантных функций для данного множества образцов.

Близкая модель обучения предложена в [34, 18, 19, 29]. Моделируется поиск глобального экстремума функции:

— область определения целевой функции делится на некоторое число подобластей (форма подобластей постоянно меняется) и описывается некоторым множеством точек;

— каждой точке приписывается состояние автомата, причем функция принадлежности в каждом состоянии указывает степень близости к оптимуму;

— выбирается состояние с максимальным значением функции принадлежности (эта точка называется кандидатом);

— формируется новая подобласть из точек, окружающих кандидата (размер подобласти растет, когда значения целевой функции в точке кандидата меньше чем в других точках подобласти, и уменьшается в противоположном случае);

— когда подобласть пересекается с некоторой другой, или две точки-кандидаты находятся в одной подобласти, то подобласти разделяются, если степень разделения большая, или объединяются, если степень разделения малая;

— точки-кандидаты выбираются на этапе локального поиска в подобласти, затем во всей области среди точек-кандидатов ищется глобальная оптимальная точка;

— глобальный и локальный поиск осуществляется поочередно.

Алгоритм поиска глобального экстремума приведен на рис. 8.4.

Рис. 8.4. Блок-схема алгоритма поиска глобального эстремума

Пусть — множество состояний, V — выходной универсум, — функция выхода (функция принадлежности, указывающая степень оптимума в состоянии -текущее значение целевой функции, — среднее значение

Используется следующий алгоритм изменения функций перехода и выхода в случае глобального поиска:

если то попытка успешна и

если то попытка неудачна и

где — гарантирует сходимость.

В случае локального поиска:

если то

если

Приложение описапного алгоритма к проблемам ядерной энергетики описано в [46] к структурной идентификации — в [49].

Categories

1
Оглавление
email@scask.ru