Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 2.2. Обучающиеся системы распознаванияИспользование методов обучения для построения систем распознавания необходимо в случае, когда отсутствует полная первоначальная априорная информация. Ее объем позволяет подразделить объекты на классы и определить априорный словарь признаков. Однако объем априорной информации недостаточен для того, чтобы в многомерном признаковом пространстве путем непосредственной обработки исходных данных построить либо поверхности, которые в определенном смысле наилучшим образом разделяли бы это пространство на области, соответствующие классам, либо с достаточной точностью определить априорные вероятности появления объектов различных классов Рассмотрим суть процедуры обучения. Пусть исходная априорная информация позволяет составить список объектов с указанием, к какому классу каждый из них относится. Обозначим объекты этого списка через
Так как априорное признаковое пространство определено, то каждый объект может быть описан на языке признаков
Если признаки
либо если признаки статистически зависимы, но вид функций Если признаки статистически зависимы и вид функций распределения неизвестен, то обучающая последовательность может быть использована для того, чтобы в первом приближении определить гиперповерхности, разделяющие многомерное пространство на области, соответствующие классам. Однако ввиду того, что в рассматриваемом случае объем исходной информации не позволяет произвести достаточно точного описания классов, найденные границы классов не обеспечат предельно достижимой точности (безошибочности) решения задачи распознавания, ограниченной техническими характеристиками измерительной аппаратуры. Именно поэтому для уточнения описаний классов используется текущая апостериорная информация, образующаяся в результате функционирования предварительным образом сформированной системы в процессе распознавания неизвестных объектов, не относящихся к обучающей последовательности. Если обучающая последовательность достаточно представительна, т. е. содержит объекты, более или менее равномерно располагающиеся в областях признакового пространства, соответствующих классам, то в пределе подобная процедура приводит к достаточно точному описанию классов и, следовательно, к возможности определения таких границ классов, придерживаясь которых можно достичь потенциально достижимой точности работы системы распознавания. Пример. Пусть надлежит построить распознающее устройство для классификации объектов, подразделенных на классы и Обучающая выборка может быть использована для определения в первом приближении условных плотностей распределения значений признака
Рис. 2.1 Положим, что величина
то вероятность ошибки распознавания будет минимальна (см. § 3.1):
Вероятность ошибки определяется суммой площадей, которые ограничены осью абсцисс, а также осью ординат, проведенной в точке Точность работы распознающего устройства, определяемая отличаются от условных плотностей распределений В результате функционирования системы в режиме распознавания новых объектов образуется текущая (апостериорная) информация о принадлежности распознанных объектов соответствующим классам, которую можно использовать для непрерывной корректировки условных плотностей распределения. Обозначим через
соответствующая скорректированным описаниям классов Если образовавшаяся в процессе функционирования распознающего устройства апостериорная информация позволяет уточнить исходные априорные распределения и, значит,
где в предположении, что Каким условиям применительно к рассматриваемому примеру должна удовлетворять исходная выборка для того, чтобы процесс обучения протекал успешно? Предположим, что предварительно обученному распознающему устройству предъявлено для распознавания некоторое количество объектов. Пусть из числа Оценка математического ожидания значений признаков объектов класса
При достаточно большом истинному значению математического ожидания значений признаков объектов класса
Однако ввиду невозможности установить, какое количество объектов класса Обозначим оценку математического ожидания значений признаков объектов класса
Подставляя (2.30) и (2.31) в (2.29), получим
Новая оценка лучше исходной априорной оценки математического ожидания, если
или
где Аналогичные рассуждения применительно к классу
где Рассмотрим формальную постановку задачи обучения. При этом заметим следующее. Вслед за появлением первых работ в области распознавания, в частности работ Ф. Розенблатта, посвященных перцептрону, различными авторами был разработан целый ряд алгоритмов обучения. Только в середине 60-х годов Я. 3. Цыпкин установил, что все эти алгоритмы могут быть получены по одной и той же схеме (4, 5]. Дальнейшее изложение процедуры обучения осуществляется в соответствии с этой схемой. Пусть все множество объектов подразделено на классы В целях наглядности изложения ограничимся классами
где с Разделяющая функция представлена, как следует из (2.36), в виде некоторой функции скалярного произведения векторов
Наличие обучающей выборки озволяет получить указания о принадлежности объектов
Эти указания могут быть использованы для определения двух систем неравенств. Если с помощью разделяющей функции
а если ошибочно, то
В качестве меры уклонения
В процессе обучения предъявление объектов насколько хорошо выбрана разделяющая функция, целесообразно выбрать функционал, представляющий собой математическое ожидание меры уклонения:
Будем полагать, что наилучший выбор разделяющий функции сделан тогда, когда
При этом в качестве ограничивающего условия, накладываемого на получение оптимального решения, рассматривается вид разделяющей функции. Такова математическая постановка задачи. Относительно ее решения следует прежде всего сказать, что поскольку неизвестна плотность распределения, то неизвестно и математическое ожидание Этап 1. На основе использования априорной информации, содержащейся в обучающей последовательности, определяется значение вектора Этап 2. На этом этапе текущая апостериорная информация, полученная в результате распознавания этих объектов, используется для уточнения значения вектора Подразделение решения задачи на два этапа носит принципиальный характер, однако реализация каждого из этапов может быть достигнута применением единых алгоритмических методов. Пусть в некоторой системе протекает стационарный дискретный или непрерывный процесс, характеризуемый вектором
где Так как
Если функционал
где
— градиент функционала
— градиент случайного функционала Если функционал В условиях полной априорной, информации плотность распределения Отсутствие полной априорной информации заставляет для решения задачи определения вектора Алгоритм обучения (алгоритм определения оптимального вектора
а непрерывный алгоритм обучения может быть записан так:
В (2.50) и стремиться к нулю, так как только при этом условии вектор с Если
Обучение успешно в случае, когда алгоритмы обучения сходятся. Условия сходимости алгоритмов обучения в среднеквадратичном или почти наверное могут быть записаны так: для дискретного алгоритма обучения
или
где
или
где Возвратимся к исходной задаче обучения распознаванию объектов. Рассмотрим алгоритмы решения (2.46), заметив, что
или
где Подставляя (2.58) в (2.46), получаем
Полагая, что функционал
где
Применяя к (2.61) дискретный алгоритм обучения (2 50) либо непрерывный алгоритм (2.51), соответственно получим:
Пример. Пусть имеется обучающая совокупность объектов Если количество объектов, относящихся к каждому классу, достаточно велико, то значения априорных вероятностей могут быть определены с помощью (2.20). Если количество объектов, относящихся к каждому классу, сравнительно мало, то оценки априорных вероятностей могут быть определены на основе методов обучения. Для этого на первом этапе работы воспользуемся априорной информацией относительно принадлежности некоторых групп объектов обучающей совокупности соответствующим классам, т. е. информацией, содержащейся в соотношениях
Определим в первом приближении оценки:
На этом завершается первый этап работы. Положим, определены также в первом приближении оценки плотности вероятности Обозначим через
где Если
то последовательные оценки
|
1 |
Оглавление
|