Главная > Нечеткие методы автоматической классификации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

3.3.2.3. Другие алгоритмы иерархического подхода

к решению нечеткой модификации задачи автоматической классификации, различные аспекты которого более подробно рассматриваются С. Мийамото [128], также немногочисленны. Среди этих алгоритмов особо следует отметить агломеративную процедуру, описываемую С. Ф. Боклишем [64], методы, основанные на выделении классов толерантности, предлагаемые И. 3. Батыршиным [3], [4], [5], [6], [7], [8], и послужившие j основой программной системы КЛАСТИЕР [10], а также иерархическую версию эвристического алгоритма Тамуры — Хигути — Танаки, основанную на результатах, полученных Дж. Данном [82], [86], так что иерархия разбиений на четкие классы представляется в виде дерева иерархии или дендрограммы [182, с. 164].

Алгоритм Думипреску (FHDR procedure) [81, с. 155-156] представляет собой модификацию ГОН алгоритма для решения задачи снижения признакового пространства.

Основные понятия и определения Если данные об исследуемой совокупности объектов представлены в виде матрицы «объект-свойство» так что каждый объект рассматривается как точка в пространстве , то представляет собой значение признака на объекте. Таким образом, -я строка матрицы вида (1.1) полностью характеризует признак

Среднее значение признака У для объектов класса определяется выражением

тогда вариация признака в классе может быть определена как

    (3.128)

так что, очевидно, имеет место

    (3.129)

после чего значение признака можно определить следующим образом:

    (3.130)

Процедура снижения размерности признакового пространства может рассматриваться как процесс классификации признаков после их преобразования в соответствии с формулой (3.130) с целью отбора наиболее информативных признаков. Если классы признаков, характеризующие объекты множества являются однородными и хорошо разделенными, то каждый класс может быть представлен некоторым наиболее информативным признаком. Во избежание путаницы с процессом классификации объектов ГОН алгоритмом при классификации признаков классы разбиения уровня будут обозначаться символом а сами разбиения уровня — символом

Параметры алгоритма:

Как и в случае FDH алгоритма, исходные данные задаются в виде матрицы «объект-свойство» (1.1), а входные параметры отсутствуют. В процессе работы алгоритма используется счетчик т.

Схема алгоритма:

1. Полагается

2. Для текущего уровня нумеруются разбиения для каждого разбиения просматриваются все атомы, и для каждого непустого нечеткого кластера осуществляется выполнение условия, описанного на шаге 4; все неделимые кластеры распределяются в нечеткое разбиение и в дальнейшем не подвергаются обработке — алгоритмом;

3. Если для всех текущего уровня вьшолняется то алгоритм прекращает работу, в противном случае полагается и осуществляется переход на шаг 2;

4. Для каждого атома разбиения при помощи GFI алгоритма вычисляется нечеткое разбиение если и являются «реальными» кластерами, то они образуют разбиение уровня в противном случае атом ) считается неделимым и полагается полагается где все значения вычисляются по формуле (3.130), — наиболее информативный признак класса так что и осуществляется переход к рассмотрению другого атома.

Таким образом, размерность исходного признакового пространства оказывается сниженной до и отобранные признаки образуют множество

1
Оглавление
email@scask.ru