Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике 3.3.2.3. Другие алгоритмы иерархического подходак решению нечеткой модификации задачи автоматической классификации, различные аспекты которого более подробно рассматриваются С. Мийамото [128], также немногочисленны. Среди этих алгоритмов особо следует отметить агломеративную процедуру, описываемую С. Ф. Боклишем [64], методы, основанные на выделении классов толерантности, предлагаемые И. 3. Батыршиным [3], [4], [5], [6], [7], [8], и послужившие j основой программной системы КЛАСТИЕР [10], а также иерархическую версию эвристического алгоритма Тамуры — Хигути — Танаки, основанную на результатах, полученных Дж. Данном [82], [86], так что иерархия разбиений на четкие классы представляется в виде дерева иерархии или дендрограммы [182, с. 164].Алгоритм Думипреску (FHDR procedure) [81, с. 155-156] представляет собой модификацию ГОН алгоритма для решения задачи снижения признакового пространства. Основные понятия и определения Если данные об исследуемой совокупности объектов представлены в виде матрицы «объект-свойство» так что каждый объект рассматривается как точка в пространстве , то представляет собой значение признака на объекте. Таким образом, -я строка матрицы вида (1.1) полностью характеризует признак Среднее значение признака У для объектов класса определяется выражением
тогда вариация признака в классе может быть определена как (3.128) так что, очевидно, имеет место (3.129) после чего значение признака можно определить следующим образом: (3.130) Процедура снижения размерности признакового пространства может рассматриваться как процесс классификации признаков после их преобразования в соответствии с формулой (3.130) с целью отбора наиболее информативных признаков. Если классы признаков, характеризующие объекты множества являются однородными и хорошо разделенными, то каждый класс может быть представлен некоторым наиболее информативным признаком. Во избежание путаницы с процессом классификации объектов ГОН алгоритмом при классификации признаков классы разбиения уровня будут обозначаться символом а сами разбиения уровня — символом Параметры алгоритма: Как и в случае FDH алгоритма, исходные данные задаются в виде матрицы «объект-свойство» (1.1), а входные параметры отсутствуют. В процессе работы алгоритма используется счетчик т. Схема алгоритма: 1. Полагается 2. Для текущего уровня нумеруются разбиения для каждого разбиения просматриваются все атомы, и для каждого непустого нечеткого кластера осуществляется выполнение условия, описанного на шаге 4; все неделимые кластеры распределяются в нечеткое разбиение и в дальнейшем не подвергаются обработке — алгоритмом; 3. Если для всех текущего уровня вьшолняется то алгоритм прекращает работу, в противном случае полагается и осуществляется переход на шаг 2; 4. Для каждого атома разбиения при помощи GFI алгоритма вычисляется нечеткое разбиение если и являются «реальными» кластерами, то они образуют разбиение уровня в противном случае атом ) считается неделимым и полагается полагается где все значения вычисляются по формуле (3.130), — наиболее информативный признак класса так что и осуществляется переход к рассмотрению другого атома. Таким образом, размерность исходного признакового пространства оказывается сниженной до и отобранные признаки образуют множество
|
1 |
Оглавление
|