Главная > Прикладная статистика: Классификации и снижение размерности
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

ВЫВОДЫ

1. В задачах классификации без обучения одной из распространенных математических моделей, используемых при описании механизма генерирования классифицируемых данных, является модель смеси вероятностных распределений, когда каждып класс интерпретируется как параметрически заданная одномодальная генеральная совокупность (при неизвестном значении определяющего ее параметра), а классифицируемые наблюдения — как выборка из смеси таких генеральных совокупностей

2 Решить задачу расщепления смеси распределений (в выборочном варианте) — это значит по имеющемся выборке классифицируемых наблюдении, извлеченной из генеральной совокупности, являющейся смесью генеральных одномодальных совокупностеи известного параметрического вида, построить статистические оценки для числа компонентов смеси, их удельных весов и параметров, их определяющих В теоретическом варианте задача расщепления смеси заключается в восстановлении компонентов смеси и смешивающей функции (удельных весов) но заданному распределению всей (т. е. смешанной) генеральной совокупности и называется задачей идентификации компонентов смеси. Эта задача не всегда имеет решение.

3. Базовая идея, лежащая в основе принятия решения, к какой из k анализируемых генеральных совокупностей следует отнести классифицируемое наблюдение, является одной и той же как для модели дискриминантного анализа (классификация при наличии обучения, см. гл 1—4), так и для модели смеси: и в том и в другом случае наблюдение приписывают к той генеральной совокупности (к тому компоненту смеси), в рамках которой (которого) оно выглядит наиболее правдоподобным.

Однако главное отличие схемы параметрического ДА от схемы автоматической классификации, построенной на модели смеси распределений, — в способе оценивания неизвестных параметров, от которых зависят функции, описывающие классы (в первом случае — по обучающим выборкам, а во втором неизмеримо сложнее — в рамках одного из методов оценки параметров смеси распределений).

4. Основными «узкими местами» подхода, основанного на методе максимального правдоподобия статистического оценивания параметров смеси распределений, являются (помимо необходимости «угадать» общий параметрический вид распределения, задающего каждый из классов) требование ограниченности анализируемой функции правдоподобия, высокая сложность и трудоемкость процесса вычислительной реализации соответствующих процедур и медленная сходимость порождаемых ими итерационных алгоритмов.

5. «Узкими местами» подхода, основанного на методе моментов статистического оценивания параметров смеси распределений, являются громоздкость его вычислительной реализации (особенно в случае высоких размерностей анализируемых распределений и большого числа смешиваемых классов) и относительно невысокое качество статистических свойств получаемых при этом оценок.

6. Статистический анализ смесей распределений проводится обычно в рамках одной из двух логических схем. В первой из них реализуется логика «от оценивания параметров смеси к классификации» (ЕМ-алгоритмы, основанные на методе максимального правдоподобия, методе моментов и т.д.). Во второй, напротив, идут «от классификации к оцениванию-», затем, имея оценки параметров распределений внутри классов, уточняют классификацию и т.д. (алгоритм SEM адаптивного вероятностного обучения).

7. Исследование свойств алгоритмов SEM, в которых схема ЕМ-алгоритмов дополнена байесовской идеологией и этапом вероятностного обучения (реализованным в виде специальной процедуры генерирования на ЭВМ случайных последовательностей), показало следующие их достоинства: а) они работают относительно быстро и их результаты слабо зависят от выбора «начальных приближений»; б) SEM позволяют практически избегать выхода (в процессе итераций) на неустойчивые локальные максимумы анализируемой функции правдоподобия; в) позволяют в рамках самой процедуры оценивать неизвестное число классов (компонентов смеси).

8. Поскольку эффективность используемых для расщепления смесей алгоритмов в большинстве случаев существенно зависит от выбора их «исходной позиции», целесообразно каждому из таких алгоритмов предпослать этап так называемого разведочного статистического анализа (см. раздел IV), который позволяет сформировать рабочие гипотезы о числе классов, типе вероятностного распределения внутри каждого из классов, величинах априорных вероятностей и т. п.

1
Оглавление
email@scask.ru