то, как показано в [74], подходящей аппроксимацией функции
является функция
получаем согласно рекуррентному алгоритму
(22.78)
где
— числовая последовательность, подчинения условию сходимости
к D при
. Обозначая через
коэффициенты разложения (22.76) на
шаге, получаем из (22.78) следующий рекуррентный алгоритм оценивания этих коэффициентов по обучающей выборке:
(22.79)
На первом шаге в качестве нулевого приближения
, можно выбрать произвольные константы.
Зависимые обучающие выборки рассмотрены в [75]. Рекуррентным адаптивным алгоритмом, основанным на использовании классифицирующих статистик, посвящена монография [76] (см. также [79]).
22.4.2. Метод оценки классифицирующей статистики.
Пусть
— последовательность независимых обучающих векторных (
-мерных) выборок, принадлежащих
классу
. Каждый вектор
появляется с вероятностью
если
и с вероятностью
если
. Введем дискретную случайную величину
принимающую два значения:
(22.80)
Ясно, что
Обозначив
(22.82)
можно объединить обе обучающие последовательности в одну
и использовать эту последовательность для аппроксимации классифицирующей статистики
[см. (22.76)]. Так как
можно воспользоваться методами оценки многомерной плотности вероятности. Примем в качестве аппроксимации
) функцию
(22.83)
где
(22.83 а)
ядро
и константы
удовлетворяют условиям (14.22а-в) и (14.25 а,б) [см., например, [80]].