Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.6.4. Сходимость алгоритмов обученияВ настоящем пункте приводится несколько полезных теорем, которые касаются алгоритмов обучения, из пп. 5.6.1 и 5.6.2. Рассматриваются теоремы о сходимости, о скорости сходимости и об условиях, при которых алгоритм прекращает свою работу. Эти теоремы играют фундаментальную роль в классификации методом потенциальных функций. Теорема 1. (О свойствах сходимости алгоритма.) Пусть векторы образов х удовлетворяют в пространстве образов следующим условиям. 1. Потенциальная функция
ограничена для 2. Существует решающая функция, представимая в виде
такая, что
где 3. Обучающая выборка образов обладает следующими статистическими свойствами: (а) в обучающей последовательности выборочные образы появляются независимо; Тогда с вероятностью 1 можно определить конечное число шагов
Другими словами, последовательная аппроксимация решающей функции Теорема 2. (О скорости сходимости алгоритма.) Пусть
— бесконечная последовательность обучающих образов, выбранных из обучающего множества
не зависящее от выбора обучающей последовательности и такое, что при использовании алгоритмов из пп. 5.6.1 и 5.6.2 число коррекций не превышает величины R. Приведем доказательство этой теоремы с тем, чтобы проиллюстрировать типичную методику, используемую при доказательстве теорем этого пункта. Доказательство. Прежде всего с помощью уравнения (5.6.28) преобразуем область X в Z. Обучающее множество
и
Величина а положительна и с геометрической точки зрения представляет собой минимальное расстояние между гиперплоскостью
Из условия (5.6.63) следует, что
Мы хотим показать, что для числа шагов
вектор весов принимает вид
Этот вектор нормален гиперплоскости Из соотношений (5.6.64) и (5.6.67) получаем, что
Применение неравенства Коши — Шварца дает
Согласно (5.6.68) и (5.6.69),
Принимая во внимание неравенство (5.6.64), приходим к соотношению
Так как
Приняв, что
Объединив (5.6.70) и (5.6.73), имеем
т. е. верхняя граница значений параметра
Таким образом, выражение (5.6.61) для верхней границы
Известно, что этот ряд сходится, если при Из проведенного анализа следует, что значение Теорема 3. (Условия прекращения выполнения алгоритма.) Пусть процесс обучения прекращается, если после осуществления
Таким образом, общее число предъявлений образов, необходимое для прекращения работы алгоритма, увеличивается на 1 после каждой коррекции неправильной классификации. Задача заключается в определении числа контрольных выборочных образов
Отметим, что выбор числа контрольных выборочных образов зависит, согласно этому неравенству, только от заданных значений
|
1 |
Оглавление
|