Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.4. Алгоритмы метода динамических сгущенийИзложим, следуя в основном [106], один общий подход к статистической обработке данных, предложенный Э. Диде и его сотрудниками и названный «методом динамических сгущений» — МДС (Methode des Nuees Dinamiques — MND). Этот подход хотя и формулируется в терминах общей задачи классификации, но, по существу, при соответствующем подборе управляющих параметров индуцирует разнообразные методы решения следующего широкого класса задач: 1) разбиение данной совокупности объектов или признаков на некоторое число (известное заранее или нет) однородных классов — собственно проблема автоматической классификации; 2) снижение размерности (числа анализируемых показателей) массива исходных данных, отбор наиболее информативных показателей; 3) статистический анализ предпочтений, задача их типологизации и агрегирования; 4) статистический анализ линейных моделей регрессионного типа; 5) оптимальная (в рамках решаемой конкретной задачи) оцифровка анализируемых переменных; 6) статистический анализ «двухвходовых» таблиц сопряженности. Основная идея МДС, являющаяся далеким обобщением идеи метода Понятие ядра 7.4.1. Основные понятия и общая схема метода. Пусть Пространством k покрытий Пространством представителей L называется множество, каждый элемент которого может служить представителем (ядром) класса элементов X. Выбирается мера сходства Например: а) б) 2) Пространством k представительств Для построения представительства I покрытия 1) выбирается пространство представителей L и мера сходства 2) выбирается функция представительства g, относящая к классу S, представителя Например, Для построения покрытия 1) выбирается пространство покрытий 2) выбирается функция назначения f, с помощью которой каждый объект X получает «назначение» в тот или инон класс, т. е. Метод динамических сгущений состоит из следующих частей (этапов): 1. Выбор пространства покрытий 2. Выбор пространства представителей L и меры сходства 3. Выбор оптимизируемого критерия 4. Постановка задачи минимизации критерия 5. Построение алгоритма динамических сгущений (ADC), состоящего в последовательном итеративном использовании функций 6. Изучение свойств сходимости алгоритма динамических сгущений. 7.4.2. Алгоритмы классификации.Основная цель настоящего раздела — изложить подход МДС к построению алгоритмов автоматической классификации. Подробное описание, практические рекомендации и примеры применения этих алгоритмов содержатся в [106]. У всех рассматриваемых ниже алгоритмов одинаковыми являются: пространство k покрытий вид оптимизируемого критерия
где способ построения функции назначения
где
способ построения функции представительства g. При выбранном пространстве представителей L задается пространство представительств
В наиболее важном частном случае, когда
где
Схема алгоритма 1. Выберем начальное разбиение 2. Пусть построено 3. Найдем 4. Если Для получения конкретного варианта алгоритма классификации по приведенной схеме достаточно описать только следующие его компоненты: а) пространство представителей L; б) меру сходства в) условия, выделяющие пространство представительств В приведенных ниже алгоритмах будем использовать терминологию и, по возможности, обозначения из [106]. Пусть Опишем сначала компоненты а, б, в алгоритмов, в которых представителями классов являются подмножества точек классифицируемой совокупности X, т. е. i Е П (X). 1. Метод ядерного разбиения а) б) где d (X, Y) — некоторая мера близости между объектами из X; в) 2. Метод, использующий ядра фиксированной мощности а) б) в) 3. Метод, использующий ядра переменной мощности а) где б) в) Следующая группа алгоритмов использует в качестве ядер точки пространства признаков (формальные объекты). Будем считать, что пространством признаков является 1. Метод центра тяжести а) б) где Разброс i-гo класса
в) Когда 2. Метод адаптивных расстояний а) б) в) В [106] исследуются отдельно варианты с квадратичными и неквадратичными расстояниями. Квадратичные расстояния. В этом случае 1. Независимый выбор меры сходства для каждого класса, т. е.
где Решая эту задачу, получаем (см. гл. 11) Теоретико-вероятностная модель, в рамках которой этот алгоритм оптимален, описана в п. 5.4.6. Каждое из наблюдений Модели, в которой каждое наблюдение извлекается из одной из k нормальных генеральных совокупностей 2. Мера сходства, общая для всех классов, т. е. В этом случае для заданного разбиения
которую нельзя расщгпить на k задач поиска представителей каждого класса в отдельности. Решая эту задачу, получаем (см. гл. 11):
Неквадратичные расстояния. В качеств основного примера рассматривается Представитель
Так как
получаем Тогда
т. е.
|
1 |
Оглавление
|