Главная > Многомерный дисперсионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

7.7.2. КЛАССИФИКАЦИЯ НЕ ПО ВСЕМ ДИСКРИМИНАНТНЫМ ПРИЗНАКАМ

Если при классификации должно приниматься во внимание менее дискриминантных признаков, а именно только то в соответствии с разделом 7.5 выбирают неэлементарные дискриминантные признаки т. е. снова можно применять формулу (7.60) и (7.62) с заменой в них на

Вообще говоря, не стоит принимать в расчет дискриминантные признаки с малой разделительной способностью. Использование неэффективных дискриминантных признаков увеличивает как объем вычислений, так и ошибку классификации.

Для исключения мало информативных дискриминантных признаков можно воспользоваться правилами (7.53) или (5.51)-(5.53). С помощью этих критериев устраняются статистически незначимые дискриминантные признаки. Конечно, может случиться, что значимых дискриминантных признаков вовсе не обнаруживается. Тогда исключаются все признаки.

Другой путь основан на эвристическом «принципе наименьшей вероятности ошибки». Это означает, что для отбора из имеющегося множества признаков предпочитаются те, которые при применении многомерного критерия приводят к отклонению гипотезы с наименьшей вероятностью ошибки.

В рассматриваемом нами случае надо сравнивать такие множества дискриминантных признаков:

Поскольку для множества отсутствует точный критерий (см. также раздел 4.3.3), мы используем формальное разложение статистики, распределенной приближенно по

на -компоненты, соответствующие отдельным характеристическим корням (см. [67] и [37]). При этом характеристическому корню соответствует степеней свободы, а сумме соответствует число степеней свободы, равное Благодаря связи и -распределений переходим к -статистике:

с числом степеней свободы

где находятся по формулам

Чтобы выделить оптимальное множество дискриминантных признаков, надо вычислить а также соответствующую критическую вероятность ошибки а для Начиная с критической вероятности ошибки а, различие оказывается значимым, т. е.

Здесь функция -распределения со степенями свободы

Оптимальным будет множество дискриминантных признаков, для которого критическая вероятность ошибки минимальна. Доррер [13] и Моррис [53] указали способы определения а.

Если пользоваться ограниченным набором дискриминантных признаков, также можно учесть априорные вероятности. Но следует напомнить, что принципы оптимальности при составлении неэлементарных дискриминантных признаков не включают априорных вероятностей и поэтому в процессе классификации возможно возникновение неожиданных ошибок.

Классификация с менее чем элементарными дискриминантными признаками на практике имеет смысл только в частных случаях. Еще раз подчеркнем, что формулу проверки гипотезы об изолированности двух групп (7.74) нельзя применить для классификации с менее чем дискриминантными признаками.

Пример. Для данных о гипертиреозе из раздела 7.1 как по критерию размерности (7.53), так и по «принципу наименьшей вероятности ошибки» получаем, что дискриминантным признаком можно пренебречь. Еще в разделе 7.5 при применении критерия относительно мы получили при соответствующем критическом значении Критические вероятности а для по которым при применении эвристического метода находится минимум, заимствуют из табл. 7.

Таблица 7. (см. скан) Критическая вероятность и в зависимости от числа дискриминантных признаков

Результаты классификации в табл. 5 и 6 (версия 4), основанные лишь на свидетельствуют; что исключение хотя и оказывает определенное воздействие на разделение групп 1 и 3, но в целом резкого понижения качества классификации не дает.

1
Оглавление
email@scask.ru