Главная > Нечеткие множества в моделях управления и искусственного интеллекта
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

8.4.2. Обучение на основе условной нечеткой меры.

В [47, 50] описывается модель обучения, использующая понятия нечеткой меры и нечеткого интеграла.

Пусть — множество причин (входов) и — множество результатов. Если — функция из X в интервал [0, 1], — нечеткая мера на X, то

где

Задача состоит в оценке (уточнении) причин по нечеткой информации.

Пусть — нечеткая мера на связана с условной нечеткой мерой

Предполагается следующая интерпретация вводимых мер: оценивает степень нечеткости утверждения «один из элементов X был причиной», оценивает степепь нечеткости утверждения «один из элементов А является результатом благодаря причине характеризует степень нечеткости утверждения: — действительный результат».

Пусть описывает точность информации А, тогда по определению

откуда следует, что

где

Метод обучения должен быть таким, чтобы при получении информации А нечеткая мера менялась таким образом, чтобы возрастала. Предположим, что удовлетворяет -правилу. Пусть является убывающей, тогда

где При этих условиях существует I:

Обучение может быть осуществлено увеличением тех значений нечеткой меры которые увеличивают и уменьшением тех значений меры которые не увеличивают Можно показать, что на величину влияют только такие что . Следовательно, алгоритм обучения следующий:

Параметр регулирует скорость обучения, т. е. скорость сходимости Чем меньше а, тем сильнее изменяется . В приведенном алгоритме нет необходимости увеличивать больше, чем на так как большее увеличение не влияет на Приведем некоторые свойства модели обучения.

Свойство 8.4. Если повторно поступает одна и та же информация, то имеет место следующее:

а) новое больше старого и новое меньше старого следовательно, новая мера не меньше старой меры и новая мера:

б) при предположении сходится к сходится для

Свойство 8.5. Если поступает одна и та же информация повторно: для всех у, то

Следовательно, сходится к с для всех

Свойство 8.6. Предельное значение не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация.

Пример 8.7 [47]. Пусть подчиняется Я-правилу и имеет вид:

Ясно, что у, является результатом в основном причины рис. 8.5 показано изменение априорной нечеткой плотности при повторном появлении на входе одной и той же информации.

Рис. 8.5. Изменение оценок априорной нечеткой информации: а — в случае четкого подтверждения; б — в случае нечеткой информации подтверждения; в — в случае нечеткого попеременного подтверждения

На рис. 8.5, в на вход поступает переменно два различных множества:

В случае рис. 8.5, а на вход поступает в случае рис. 8.5, б на входе . На рисунке числа указывают номер итерации.

Обучающаяся модель достаточно хорошо работает с нечеткой информацией, но скорость сходимости в этом случае меньше.

Пример 8.8. В [50, 53] описывается обучающаяся модель, разработанная на основе изложенного подхода и используемая для глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций: — оценивает число точек, проанализированных на предыдущих шагах;

оценивает среднее значение функции по результатам предыдущих шагов;

— оценивает число точек, значение функции в которых принадлежит десятке лучших в своей области;

оценивает максимум по прошлым попыткам;

— оценивает градиент функции.

В описываемом случае показывает степень важности подмножеств критериев и оценивает предположение о нахождении экстремума в блоке в соответствии с критерием Например, может зависеть от числа ранее проанализированных точек в блоке Пусть входная информация А определяется формулой

где максимум анализируемой функции, найденный к рассматриваемому моменту в блоке . Очевидно, что А сходится к максимизирующему множеству функции. На каждой итерации осуществляется следующее: проверяется заданное число новых точек, число этих точек выбирается пропорционально в каждой точке вычисляется и нормализуется мера нормализуется по вычисляется а затем посредством правил подкрепления корректируется Затем выполняется новая итерация и так до тех пор, пока не сойдется

В [47] приводится сравнительный анализ предлагаемой модели и вероятностной модели обучения [17]. Пусть — априорная плотность вероятности на — условная плотность вероятности по отношению к Условная плотность вероятности нечеткого события А вычисляется по формуле:

После получения нечеткой информации А обучение осуществляется по формуле Байеса, которая дает результирующую плотность вероятности на X:

Если на вход модели поступает информация постоянной величины то что фактически означает отсутствие обучения. Нечеткая же модель способна различать постоянную информацию и отсутствие информации. Кроме того, в нечеткой модели имеется возможность изменять скорость сходимости посредством параметра а.

Categories

1
Оглавление
email@scask.ru