Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.4. Оценка медленно меняющихся со временем параметров с помощью динамической стохастической аппроксимацииЗадача оценки параметров распределения вероятности трактовалась как последовательная оценка условных распределений с помощью оптимального использования обучающих наблюдений. В §§ 7.1 и 7.2 были приведены алгоритмы стохастической аппроксимации для оценки неизвестных, но неизменных параметров. В случае, когда неизвестные параметры изменяются со временем (непостоянны), эти алгоритмы не могут давать истинные значения параметров. В данном параграфе излагаются алгоритмы для оценки медленно изменяющихся со временем параметров [17], построенные на основе процедуры динамической стохастической аппроксимации, предложенной Дупачем [16]. Краткое введение в процедуру динамической стохастической аппроксимации дано в приложении В общем случае эти алгоритмы обучения состоят из двухступенной процедуры аппроксимации, выполняемой на каждом шаге процесса обучения. Первая ступень предназначена для коррекции временных изменений оцениваемых параметров; вторая ступень делается, как в обычной процедуре стохастической аппроксимации, на основе наблюдения новых обучающих замеров. Сходимость этих алгоритмов может быть доказана с помощью метода Дворецкого [18]. 7.4.1. Обучение с поощрением.Положим, что последовательность наблюдений неизвестное изменяющееся со временем среднее, дисперсия которого
Обозначим
вторая ступень:
где
Применяя метод Дворецкого [18], можно показать, что оценка
где
и
Величина
Уравнение (7.108) можно записать в виде алгоритма стохастической аппроксимации Дворецкого
где
представляет собой детерминированное (без помех) преобразование. Из (7.113) и (7.104) получаем
где
Опуская случайную часть в (7.112) и используя рекурентно (7.114), получим
Таким образом, если
Это означает, что сумма дисперсий помех конечна. Наконец, пусть
После возведения в квадрат левой и правой частей выражения (7.108) и определения среднего получаем рекуррентное соотношение для среднеквадратичной ошибки оценок
в котором неравенство получается при подстановке вместо
где
Если
Сходимость
Приравнивая первую производную по
Подставляя (7.124) в (7.123), получим следующее рекуррентное соотношение для сренеквадратичной ошибки:
Пусть начальная оценка имела среднеквадратичную ошибку
Легко показать, что полученная таким способом оптимальная последовательность
Количественное сравнение этих двух алгоритмов может быть произведено путем вычисления среднеквадратичных ошибок оценок, получаемых в обоих случаях. Оптимальное решение для (7.128) было дано в (7.39) и (7.40). Результаты этих вычислений приведены в табл. 7.1. Ясно, что в случае зависимости от времени среднеквадратичная ошибка больше, за исключением предельного случая при Таблица 7.1 (см. скан) Принцип алгоритма динамической (двухступенной) стохастической аппроксимации в равной мере применим для оценки других параметров (не только среднего) при условии, что они также являются медленно меняющимися. Очевидные изменения, касающиеся поправочного члена в (7.106), должны быть сделаны с учетом того, какой именно параметр оценивается. В общем применение алгоритма динамической стохастической аппроксимации оправдывается, когда Следует отметить, что если точная природа члена
где
Пусть
Согласно (7.131) и (7.104)
Отбрасывая случайную часть в (7.130), образуем следующее выражение:
Если
Вновь можно применить теорему Дворецкого и показать сходимость 7.4.2. Обучение без поощрения.Рассмотренный в разделе 7.4.1 алгоритм динамической (двухстепенной) стохастической аппроксимации может быть распространен на случай обучения без поощрения с помощью формулировки совместного распределения (§ 7.2). При этом задача сводится к оценке неизвестных меняющихся со временем параметров, которые характеризуют совместное распределение при получении обучающих наблюдений. Следующие примеры приводятся для иллюстрации этих применений. Пример 1. Рассмотрим задачу классификации с двумя классами при априорных вероятностях совместной плотности будет
Рассмотрим простейший случай, когда только
что является частным случаем (7.104) при произвольно большом
Тогда
Это означает, что
где
Таким образом, быть применена для оценки неизвестной и зависящей от времени величины Пример 2. Используя (7.135) примера 1, рассмотрим случай, когда
Вычислим с помощью (7.135) второй момент для
Далее, используя (7.143) и (7.144), получим
Так как Аналогично случаям, рассмотренным в § 7.2, метод, рассмотренный в вышеприведенных примерах, можно также применять для оценки неизвестных и зависящих от времени параметров совместного распределения при составляющих распределениях, отличных от гауссова. 7.4.3. Алгоритм ускоренной динамической стохастической аппроксимации.В § 7.4 было отмечено, что сходимость оценок к истинному значению параметра для алгоритма динамической стохастической аппроксимации несколько медленнее, чем в обычном алгоритме для соответствующего стационарного случая. Ясно, что это ухудшение обусловлено временными изменениями оцениваемого параметра. Часто бывает практически важным ускорить сходимость. В качестве иллюстрации рассмотрим частный случай оценки среднего функции плотности вероятности при произвольно большом
Очевидно, меньшее число перемен знака выражения
указывает, что
где
и
где
Это означает, что модифицированный алгоритм использует разные значения Таблица 7.2 (см. скан)
|
1 |
Оглавление
|