4.5.4. Процесс обучения в нечеткой обстановке.
Одной из замечательных способностей человека является его способность обучаться в нечеткой обстановке. При обучении он успешно использует нечеткую информацию, которая во многих случаях является единственно доступной. В психологии по традиции используются стохастические модели обучаемости, например, модель Буша и Мостеллера, хотя ряд авторов экспериментально показал, что способность обучаться в вероятностной обстановке, как правило, не свойственна человеку [3, 9]. Исходя из этой точки зрения, в [30], [33] предложена модель обучения, которая,
являясь структурным аналогом байесовской модели обучения, позволяет учитывать нечеткую информацию. Данная модель построена с помощью нечетких мер и использовалась для нахождения экстремумов многоэкстремальных функций.
Пусть X — множество причин и У — множество следствий; — нечеткие меры для X и Y соответственно. Пусть выражается от по как
где — есть условная нечеткая мера от по отношению к X. Физический смысл этого уравнения легко установить по аналогии с теорией вероятности: соответствует вероятности для случая, когда заданы вероятностная мера и условная вероятность Следует отметить, что определение и математические свойства уравнения (4.40) совершенно отличаются от его вероятностного аналога.
Нечеткая мера называется априорной нечеткой мерой, соответствующей степени нечеткости субъективной оценки суждения «один из элементов имеет место». Нечеткая мера является мерой нечеткости суждения «один из элементов имеет место при заданном
Рассмотрим метод, позволяющий уточнять в процессе получения новой информации, которая в общем случае выражается подмножеством . Эта информация может быть трех типов. Если состоит лишь из одного элемента, то информация является детерминированной, а если несколько, то недетерминированной. Если — нечеткое подмножество, то информация — нечеткая.
Пусть нечеткое множество имеет функцию принадлежности [0, 1]. Нечеткая мера для нечеткого подмножества А определяется как
Здесь выражает степень нечеткости информации, содержащейся в А. Нетрудно показать, что
где
После получения информации А, нечеткая мера может быть уточнена таким образом, чтобы значение увеличилось.
Если удовлетворяют Я-правилу и убывающая функция, то
где Из [33] следует, что
где I является наибольшим индексом, для которого имеет место (4.41) и выполняется условие
Обучение характеризуется возрастанием нечетких плотностей что приводит к увеличению
Пусть являются нечеткими плотностями для Тогда легко показать [33], что только влияют на значения поэтому алгоритм обучения имеет вид
где - параметр, определяющий скорость сходимости. Следует отметить, что после каждой итерации должна осуществляться проверка условия (4.40).
Рассмотренный алгоритм обучения использовался при решении задачи минимизации многоэкстремальных функций [33]. При этом отмечалась высокая эффективность данного алгоритма по сравнению со стохастическими алгоритмами (подробнее см. п. 8.4.2).
Наиболее интересное применение алгоритма рассмотрено при решении задачи классификации. Классификация в этом случае осуществлялась роботом-исследователем. Предварительно осуществлялось обучение робота, а точнее, алгоритма классификации. Информация о параметрах предметов, которые классифицировал робот, снималась в виде сигналов с рецепторов искусственной руки и представлялась в виде лингвистических переменных.
Полученные значения лингвистических переменных, соответствующие отдельным классам предметов, использовались для построения условной меры нечеткости, связывающей параметры предметов с отдельным классом.
Основными преимуществами алгоритма [25] являются: возможность использования нечеткой информации; высокая скорость сходимости; малое время вычисления и большое число используемых классов.