Главная > Многомерный дисперсионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

10.3. СПЕЦИАЛЬНЫЙ СЛУЧАЙ ДВУХ ГРУПП. ОПТИМАЛЬНОЕ ШКАЛИРОВАНИЕ

При согласно (10.19) нужна только одна шкала, единственная с точностью до выбора сдвига и масштаба, т.е. линейного преобразования вида Собственный вектор который определяет эту систему числовых оценок, должен быть при по (10.13) кратен первому столбцу матрицы Следовательно, вектор числовых значений кратен

С точки зрения содержания ему равноценен просто определяемый вектор

Итак, в случае двух групп можно получить оценку, максимизирующую -критерий, причем для каждой отдельной категории формируется

отношение числа наблюдений группы 1 к числу наблюдений обеих групп.

Теперь можно сделать выводы о значении шкалирования для линейного дискриминантного анализа. Поскольку сейчас мы не собираемся судить о соотношениях между генеральной совокупностью и выборкой, заменим частоты соответствующими вероятностями того, что наблюдение группы принадлежит категории Дополнительно предположим, что обе группы представлены одинаковыми по объему выборками При этих условиях шкалирование дает для категорий 1, К числовые меры

После выбора числовой шкалы для разделения групп с помощью линейного дискриминантного анализа необходимо найти математические ожидания для обеих групп. Они равны:

причем соответственно

В силу известного неравенства Коши-Шварца получаем, что

Следовательно, граница между группами 1 и 2 лежит в точке 1/2. Категории надо относить к группе 1, категории к группе 2. Это означает, что все категории при дискриминантном анализе приписываются группе 1, а категории с к группе 2.

Итак, налицо полное совпадение линейного дискриминантного правила на основе оцифровки и байесовского решающего правила [67]; независимо от распределений, линейный дискриминантный анализ оказался оптимальным правилом классификации. Это доказательство рассеивает всякие сомнения относительно применения метода оцифровки номинальной шкалы и линейного дискриминантного анализа.

Мы еще увидим, что шкалирование можно применять не только к дискретным, но и к непрерывным признакам. В этом случае действует полностью аналогичное оптимальное решающее правило: пусть произвольные плотности вероятности для групп 1 и 2; в таком случае шкала

осуществляет линейную классификацию, эквивалентную наилучшему непараметрическому решающему правилу.

Естественно, для практики эти рассуждения имеют лишь приближенный характер, так как распределения наблюдений нам никогда не известны полностью.

1
Оглавление
email@scask.ru