4.5.4. Процесс обучения в нечеткой обстановке.
 
Одной из замечательных способностей человека является его способность обучаться в нечеткой обстановке. При обучении он успешно использует нечеткую информацию, которая во многих случаях является единственно доступной. В психологии по традиции используются стохастические модели обучаемости, например, модель Буша и Мостеллера, хотя ряд авторов экспериментально показал, что способность обучаться в вероятностной обстановке, как правило, не свойственна человеку [3, 9]. Исходя из этой точки зрения, в [30], [33] предложена модель обучения, которая, 
 
являясь структурным аналогом байесовской модели обучения, позволяет учитывать нечеткую информацию. Данная модель построена с помощью нечетких мер и использовалась для нахождения экстремумов многоэкстремальных функций. 
Пусть X — множество причин и У — множество следствий;  — нечеткие меры для X и Y соответственно. Пусть
 — нечеткие меры для X и Y соответственно. Пусть  выражается
 выражается  от
 от  по
 по  как
 как 
 
где  — есть условная нечеткая мера от
 — есть условная нечеткая мера от  по отношению к X. Физический смысл этого уравнения легко установить по аналогии с теорией вероятности:
 по отношению к X. Физический смысл этого уравнения легко установить по аналогии с теорией вероятности:  соответствует вероятности
 соответствует вероятности  для случая, когда заданы вероятностная мера
 для случая, когда заданы вероятностная мера  и условная вероятность
 и условная вероятность  Следует отметить, что определение
 Следует отметить, что определение  и математические свойства уравнения (4.40) совершенно отличаются от его вероятностного аналога.
 и математические свойства уравнения (4.40) совершенно отличаются от его вероятностного аналога. 
Нечеткая мера  называется априорной нечеткой мерой, соответствующей степени нечеткости субъективной оценки суждения «один из элементов
 называется априорной нечеткой мерой, соответствующей степени нечеткости субъективной оценки суждения «один из элементов  имеет место». Нечеткая мера
 имеет место». Нечеткая мера  является мерой нечеткости суждения «один из элементов
 является мерой нечеткости суждения «один из элементов  имеет место при заданном
 имеет место при заданном  
 
Рассмотрим метод, позволяющий уточнять  в процессе получения новой информации, которая в общем случае выражается подмножеством
 в процессе получения новой информации, которая в общем случае выражается подмножеством  . Эта информация может быть трех типов. Если
. Эта информация может быть трех типов. Если  состоит лишь из одного элемента, то информация является детерминированной, а если несколько, то недетерминированной. Если
 состоит лишь из одного элемента, то информация является детерминированной, а если несколько, то недетерминированной. Если  — нечеткое подмножество, то информация — нечеткая.
 — нечеткое подмножество, то информация — нечеткая. 
Пусть нечеткое множество  имеет функцию принадлежности
 имеет функцию принадлежности  [0, 1]. Нечеткая мера для нечеткого подмножества А определяется как
 [0, 1]. Нечеткая мера для нечеткого подмножества А определяется как 
 
Здесь  выражает степень нечеткости информации, содержащейся в А. Нетрудно показать, что
 выражает степень нечеткости информации, содержащейся в А. Нетрудно показать, что 
 
где 
 
После получения информации А, нечеткая мера  может быть уточнена таким образом, чтобы значение
 может быть уточнена таким образом, чтобы значение  увеличилось.
 увеличилось. 
 
Если  удовлетворяют Я-правилу и
 удовлетворяют Я-правилу и  убывающая функция, то
 убывающая функция, то 
 
где  Из [33] следует, что
 Из [33] следует, что 
 
где I является наибольшим индексом, для которого имеет место (4.41) и выполняется условие 
 
Обучение характеризуется возрастанием нечетких плотностей  что приводит к увеличению
 что приводит к увеличению  
 
Пусть  являются нечеткими плотностями для
 являются нечеткими плотностями для  Тогда легко показать [33], что только
 Тогда легко показать [33], что только  влияют на значения
 влияют на значения  поэтому алгоритм обучения имеет вид
 поэтому алгоритм обучения имеет вид 
 
где  - параметр, определяющий скорость сходимости. Следует отметить, что после каждой итерации должна осуществляться проверка условия (4.40).
 - параметр, определяющий скорость сходимости. Следует отметить, что после каждой итерации должна осуществляться проверка условия (4.40). 
Рассмотренный алгоритм обучения использовался при решении задачи минимизации многоэкстремальных функций [33]. При этом отмечалась высокая эффективность данного алгоритма по сравнению со стохастическими алгоритмами (подробнее см. п. 8.4.2). 
Наиболее интересное применение алгоритма рассмотрено при решении задачи классификации. Классификация в этом случае осуществлялась роботом-исследователем. Предварительно осуществлялось обучение робота, а точнее, алгоритма классификации. Информация о параметрах предметов, которые классифицировал робот, снималась в виде сигналов с рецепторов искусственной руки и представлялась в виде лингвистических переменных. 
Полученные значения лингвистических переменных, соответствующие отдельным классам предметов, использовались для построения условной меры нечеткости, связывающей параметры предметов с отдельным классом. 
Основными преимуществами алгоритма [25] являются: возможность использования нечеткой информации; высокая скорость сходимости; малое время вычисления и большое число используемых классов.