то, как показано в [74], подходящей аппроксимацией функции является функция получаем согласно рекуррентному алгоритму
(22.78)
где — числовая последовательность, подчинения условию сходимости к D при . Обозначая через коэффициенты разложения (22.76) на шаге, получаем из (22.78) следующий рекуррентный алгоритм оценивания этих коэффициентов по обучающей выборке:
(22.79)
На первом шаге в качестве нулевого приближения , можно выбрать произвольные константы.
Зависимые обучающие выборки рассмотрены в [75]. Рекуррентным адаптивным алгоритмом, основанным на использовании классифицирующих статистик, посвящена монография [76] (см. также [79]).
22.4.2. Метод оценки классифицирующей статистики.
Пусть — последовательность независимых обучающих векторных (-мерных) выборок, принадлежащих классу . Каждый вектор появляется с вероятностью если и с вероятностью если . Введем дискретную случайную величину принимающую два значения:
(22.80)
Ясно, что
Обозначив
(22.82)
можно объединить обе обучающие последовательности в одну и использовать эту последовательность для аппроксимации классифицирующей статистики [см. (22.76)]. Так как можно воспользоваться методами оценки многомерной плотности вероятности. Примем в качестве аппроксимации ) функцию
(22.83)
где
(22.83 а)
ядро и константы удовлетворяют условиям (14.22а-в) и (14.25 а,б) [см., например, [80]].