Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
6.2. МЕТОДЫ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИПрежде чем переходить к изучению статистических алгоритмов классификации образов, необходимо ввести несколько концепций, которые позволят должным образом описывать построение этих алгоритмов. Методы, используемые в этой главе, весьма сходны с градиентными методами, рассматривавшимися в гл. 5. Вместо детерминистских функций критерия мы сталкиваемся теперь со статистическими функциями, которые статистики обычно называют функциями регрессии. Для определения корней функции регрессии воспользуемся методами так называемой стохастической аппроксимации. Если функция регрессии представляет производную от должным образом заданной функции критерия, то определение корня этой производной обеспечивает отыскание минимума функции критерия. При помощи соответствующего выбора функций критерия можно построить итеративные алгоритмы обучения, аппроксимирующие в некотором смысле байесовский классификатор. Для того чтобы упростить изложение, в начале мы сосредоточим внимание на одномерных задачах. Затем обобщим полученные результаты на многомерный случай. 6.2.1. Алгоритм Роббинса — МонроРассмотрим функцию положительна при всех значениях Допустим, что вместо непосредственного наблюдения функции
Рис. 6.1. Функция регрессии, искаженная шумом. Эти случайные значения функции Два необременительных допущения следует ввести для случайных величин
Это означает только то, что для ряда наблюдений, полученных при фиксированном значении переменной Во-вторых, допустим, что среднеквадратичное отклонение значений наблюдений
должно выполняться неравенство
при всех значениях переменной Если слабые условия (6.2.1) и (6.2.2) выполняются, то алгоритм, предложенный Роббинсом и Монро, можно применить для итеративного определения корня
где
Примером последовательности, удовлетворяющей этим условиям, служит гармонический ряд Отметим, что коррекции оценок, вводимые алгоритмом Роббинса — Монро, пропорциональны значению предыдущего наблюдения
где А — тангенс угла наклона прямых и
Рис. 6.2. Граничные условия для алгоритма Роббинса — Монро. Роббинс и Монро [1951] показали, что при выполнении условий (6.2.1), (6.2.3), (6.2.5) и (6.2.6) алгоритм, представленный уравнением (6.2.4), сходится к значению корня
Проще говоря, это означает, что по мере приближения числа итераций к бесконечности дисперсия оценок Вскоре после появления алгоритма Роббинса — Монро Блюм [1954а] установил еще более сильный вид сходимости, который предусматривает при тех же условиях достижение оценкой
Это отношение указывает, что в пределе оценка Интересно отметить, что доказательства, предложенные Роббинсом — Монро и Блюмом, являются частными случаями теоремы, установленной позже Дворецки [1956]. Ему удалось показать, что оба критерия сходимости (6.2.7) и (6.2.8) выполняются для любой процедуры стохастической аппроксимации, удовлетворяющей условиям его теоремы. Рассмотрение условий
Рис. 6.3. Иллюстрация использования алгоритма Роббинса — Монро. Дворецки и их связи с алгоритмом Роббинса — Монро выходит за пределы нашего обсуждения, однако читатель, обратившись к статье Дворецки, несомненно найдет ее интересной и информативной. Пример. Рассмотрим простой пример алгоритма Роббинса — Монро. Требуется применить этот алгоритм для определения корня функции Выполнение алгоритма начинается с выбора первой произвольной оценки значения корня и соответствующей последовательности корня:
Скорректированная оценка приведена на рис. 6.3. Если этому новому значению соответствует шумовая компонента, равная
Это значение явно ближе к истинному значению корня (см. скан) Отметим, что в течение нескольких первых итераций оценка быстро приближается к значению корня, а затем эта скорость уменьшается с увеличением
|
1 |
Оглавление
|