Главная > Нечеткие множества в моделях управления и искусственного интеллекта
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

8.4.2. Обучение на основе условной нечеткой меры.

В [47, 50] описывается модель обучения, использующая понятия нечеткой меры и нечеткого интеграла.

Пусть — множество причин (входов) и — множество результатов. Если — функция из X в интервал [0, 1], — нечеткая мера на X, то

где

Задача состоит в оценке (уточнении) причин по нечеткой информации.

Пусть — нечеткая мера на связана с условной нечеткой мерой

Предполагается следующая интерпретация вводимых мер: оценивает степень нечеткости утверждения «один из элементов X был причиной», оценивает степепь нечеткости утверждения «один из элементов А является результатом благодаря причине характеризует степень нечеткости утверждения: — действительный результат».

Пусть описывает точность информации А, тогда по определению

откуда следует, что

где

Метод обучения должен быть таким, чтобы при получении информации А нечеткая мера менялась таким образом, чтобы возрастала. Предположим, что удовлетворяет -правилу. Пусть является убывающей, тогда

где При этих условиях существует I:

Обучение может быть осуществлено увеличением тех значений нечеткой меры которые увеличивают и уменьшением тех значений меры которые не увеличивают Можно показать, что на величину влияют только такие что . Следовательно, алгоритм обучения следующий:

Параметр регулирует скорость обучения, т. е. скорость сходимости Чем меньше а, тем сильнее изменяется . В приведенном алгоритме нет необходимости увеличивать больше, чем на так как большее увеличение не влияет на Приведем некоторые свойства модели обучения.

Свойство 8.4. Если повторно поступает одна и та же информация, то имеет место следующее:

а) новое больше старого и новое меньше старого следовательно, новая мера не меньше старой меры и новая мера:

б) при предположении сходится к сходится для

Свойство 8.5. Если поступает одна и та же информация повторно: для всех у, то

Следовательно, сходится к с для всех

Свойство 8.6. Предельное значение не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация.

Пример 8.7 [47]. Пусть подчиняется Я-правилу и имеет вид:

Ясно, что у, является результатом в основном причины рис. 8.5 показано изменение априорной нечеткой плотности при повторном появлении на входе одной и той же информации.

Рис. 8.5. Изменение оценок априорной нечеткой информации: а — в случае четкого подтверждения; б — в случае нечеткой информации подтверждения; в — в случае нечеткого попеременного подтверждения

На рис. 8.5, в на вход поступает переменно два различных множества:

В случае рис. 8.5, а на вход поступает в случае рис. 8.5, б на входе . На рисунке числа указывают номер итерации.

Обучающаяся модель достаточно хорошо работает с нечеткой информацией, но скорость сходимости в этом случае меньше.

Пример 8.8. В [50, 53] описывается обучающаяся модель, разработанная на основе изложенного подхода и используемая для глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций: — оценивает число точек, проанализированных на предыдущих шагах;

оценивает среднее значение функции по результатам предыдущих шагов;

— оценивает число точек, значение функции в которых принадлежит десятке лучших в своей области;

оценивает максимум по прошлым попыткам;

— оценивает градиент функции.

В описываемом случае показывает степень важности подмножеств критериев и оценивает предположение о нахождении экстремума в блоке в соответствии с критерием Например, может зависеть от числа ранее проанализированных точек в блоке Пусть входная информация А определяется формулой

где максимум анализируемой функции, найденный к рассматриваемому моменту в блоке . Очевидно, что А сходится к максимизирующему множеству функции. На каждой итерации осуществляется следующее: проверяется заданное число новых точек, число этих точек выбирается пропорционально в каждой точке вычисляется и нормализуется мера нормализуется по вычисляется а затем посредством правил подкрепления корректируется Затем выполняется новая итерация и так до тех пор, пока не сойдется

В [47] приводится сравнительный анализ предлагаемой модели и вероятностной модели обучения [17]. Пусть — априорная плотность вероятности на — условная плотность вероятности по отношению к Условная плотность вероятности нечеткого события А вычисляется по формуле:

После получения нечеткой информации А обучение осуществляется по формуле Байеса, которая дает результирующую плотность вероятности на X:

Если на вход модели поступает информация постоянной величины то что фактически означает отсутствие обучения. Нечеткая же модель способна различать постоянную информацию и отсутствие информации. Кроме того, в нечеткой модели имеется возможность изменять скорость сходимости посредством параметра а.

1
Оглавление
email@scask.ru