Главная > Последовательные методы в распознавании образов и обучении машин
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

7.3. Общая формулировка обучения без поощрения на основе стохастической аппроксимации

Недавно Я. 3. Цыпкин [10, 11] предложил общую формулировку для обучаемых без поощрения систем на основе вариационного метода [12] и стохастической аппроксимации. В данном параграфе кратко рассматриваются эта формулировка и соответствующий алгоритм обучения.

Пусть обозначает область в пространстве признаков соответствующую Для каждой области вводится функция потерь где множество неизвестных параметров, соответствующих каждой области. Функция оценивает потери или X Тогда средние потери (риск) вследствие ложного распознавания равны

Если области в пространстве признаков не пересекаются, то (7.85) можно записать в следующем виде:

где — функция совместной плотности вероятностей, равная

Введя характеристическую функцию

можно записать (7.86) в следующем виде:

Как указывалось в главе 1, задача классификации может рассматриваться как задача разбиения пространства признаков на такие области , для которых средние потери минимальны. Так как функция плотности вероятности в (7.89) является функцией совместной плотности, то неизвестные параметры можно оценивать по неклассифицированным обучающим образцам. Получение необходимых условий минимума осуществляется приравниванием нулю вариации по параметрам т. е.

Рассмотрим прежде всего второй член правой части (7.90). Градиент характеристической функции равный представляет собой многомерную дельта-функцию [13]. Согласно свойствам дельта-функции второй член в (7.90) равен нулю при всех X, за исключением точек расположенных на решающих границах между областями и Таким образом,

Для точек, расположенных на решающей границе

Поэтому (7.90) принимает вид

Уравнения (7.92) и (7.93) суть необходимые (но не достаточные) условия минимума средних потерь. Чтобы получить оптимальные решающие (классифицирующие) правила, положим

На решающих границах и при оптимальных значениях параметра

Функции отличны от нуля внутри каждой области. В частности, для

Решающее правило (7.96) однозначно определяется функциями потерь и может быть полностью определено, если параметры

можно оценить на основе наблюдаемых (неклассифицированных) обучающих образцов.

Алгоритм оценки параметров можно получить, рассматривая задачу отыскания корня уравнения регрессии (7.93). Для оценки применяется процедура стохастической аппроксимации, т. е.

где оценка

Если

(1) - последовательность положительных чисел, удовлетворяющих условиям

дифференцируемые функции параметров

(3) Существует такое вещественное число что для всех вещественных значений параметров

где

где

то алгоритм (7.97) сходится к с вероятностью единица [10]. Я. 3. Цыпкин показал, что можно сформулировать ряд других алгоритмов обучения без поощрения [14, 15] как частные случаи общего алгоритма (7.97).

Categories

1
Оглавление
email@scask.ru