§ 9. Несколько общих замечаний
В этой главе был сформулирован новый принцип минимизации риска в условиях малых выборок.
Оказалось, что если на допустимом множестве решений задать структуру, то появляется возможность дополнительной оптимизации по элементам структуры. Нужно лишь, чтобы структура была задана априорно.
Другая дополнительная возможность минимизации риска по эмпирическим данным появляется за счет селекции обучающей выборки.
В этой главе мы применили метод упорядоченной минимизации риска для решения задач распознавания образов и восстановления регрессии, а идею селекции
выборки для задачи восстановления регрессии (вследствие примитивности функции потерь в задаче распознавания образов селекция выборки не приводит к уменьшению гарантированной оценки риска).
Возникает вопрос, сколь общими являются метод упорядоченной минимизации риска и метод селекции выборки.
Очевидно, что метод упорядоченной минимизации риска применим для решения любой задачи минимизации риска, для которой может быть получена оценка равномерного или равномерного относительного уклонения эмпирических средних от математических ожиданий (см. гл. VII, § 8). В этом случае при минимизации функционала
по эмпирическим данным на множестве значений параметров а задается структура
На каждом элементе этой структуры находится значение параметра минимизирующее эмпирический риск
а затем с помощью оценок, приведенных в § 8 гл. VII, из найденных параметров выбирается такой а, который доставляет гарантированный минимум величине среднего риска.
Селекция выборки также может быть проведена, когда существует равномерная оценка среднего риска.