Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
8.4.2. Обучение на основе условной нечеткой меры.В [47, 50] описывается модель обучения, использующая понятия нечеткой меры и нечеткого интеграла. Пусть — множество причин (входов) и — множество результатов. Если — функция из X в интервал [0, 1], — нечеткая мера на X, то
где Задача состоит в оценке (уточнении) причин по нечеткой информации. Пусть — нечеткая мера на связана с условной нечеткой мерой
Предполагается следующая интерпретация вводимых мер: оценивает степень нечеткости утверждения «один из элементов X был причиной», оценивает степепь нечеткости утверждения «один из элементов А является результатом благодаря причине характеризует степень нечеткости утверждения: — действительный результат». Пусть описывает точность информации А, тогда по определению
откуда следует, что
где Метод обучения должен быть таким, чтобы при получении информации А нечеткая мера менялась таким образом, чтобы возрастала. Предположим, что удовлетворяет -правилу. Пусть является убывающей, тогда
где При этих условиях существует I:
Обучение может быть осуществлено увеличением тех значений нечеткой меры которые увеличивают и уменьшением тех значений меры которые не увеличивают Можно показать, что на величину влияют только такие что . Следовательно, алгоритм обучения следующий:
Параметр регулирует скорость обучения, т. е. скорость сходимости Чем меньше а, тем сильнее изменяется . В приведенном алгоритме нет необходимости увеличивать больше, чем на так как большее увеличение не влияет на Приведем некоторые свойства модели обучения. Свойство 8.4. Если повторно поступает одна и та же информация, то имеет место следующее: а) новое больше старого и новое меньше старого следовательно, новая мера не меньше старой меры и новая мера:
б) при предположении сходится к сходится для Свойство 8.5. Если поступает одна и та же информация повторно: для всех у, то Следовательно, сходится к с для всех Свойство 8.6. Предельное значение не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация. Пример 8.7 [47]. Пусть подчиняется Я-правилу и имеет вид:
Ясно, что у, является результатом в основном причины рис. 8.5 показано изменение априорной нечеткой плотности при повторном появлении на входе одной и той же информации.
Рис. 8.5. Изменение оценок априорной нечеткой информации: а — в случае четкого подтверждения; б — в случае нечеткой информации подтверждения; в — в случае нечеткого попеременного подтверждения На рис. 8.5, в на вход поступает переменно два различных множества:
В случае рис. 8.5, а на вход поступает в случае рис. 8.5, б на входе . На рисунке числа указывают номер итерации. Обучающаяся модель достаточно хорошо работает с нечеткой информацией, но скорость сходимости в этом случае меньше. Пример 8.8. В [50, 53] описывается обучающаяся модель, разработанная на основе изложенного подхода и используемая для глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций: — оценивает число точек, проанализированных на предыдущих шагах; оценивает среднее значение функции по результатам предыдущих шагов; — оценивает число точек, значение функции в которых принадлежит десятке лучших в своей области; оценивает максимум по прошлым попыткам; — оценивает градиент функции. В описываемом случае показывает степень важности подмножеств критериев и оценивает предположение о нахождении экстремума в блоке в соответствии с критерием Например, может зависеть от числа ранее проанализированных точек в блоке Пусть входная информация А определяется формулой
где максимум анализируемой функции, найденный к рассматриваемому моменту в блоке . Очевидно, что А сходится к максимизирующему множеству функции. На каждой итерации осуществляется следующее: проверяется заданное число новых точек, число этих точек выбирается пропорционально в каждой точке вычисляется и нормализуется мера нормализуется по вычисляется а затем посредством правил подкрепления корректируется Затем выполняется новая итерация и так до тех пор, пока не сойдется В [47] приводится сравнительный анализ предлагаемой модели и вероятностной модели обучения [17]. Пусть — априорная плотность вероятности на — условная плотность вероятности по отношению к Условная плотность вероятности нечеткого события А вычисляется по формуле:
После получения нечеткой информации А обучение осуществляется по формуле Байеса, которая дает результирующую плотность вероятности на X:
Если на вход модели поступает информация постоянной величины то что фактически означает отсутствие обучения. Нечеткая же модель способна различать постоянную информацию и отсутствие информации. Кроме того, в нечеткой модели имеется возможность изменять скорость сходимости посредством параметра а.
|
1 |
Оглавление
|