Главная > Многомерный дисперсионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

5.2. ДИСКРИМИНАНТНЫЕ ФУНКЦИИ, ДИСКРИМИНАНТНЫЕ ПРИЗНАКИ

Определение. Соотношение (5.4) описывает переход от первоначальных признаков к и новым признакам, причем Рассмотрим особый случай линейного преобразования признаков, посредством которого при известных обстоятельствах можно понизить размерность пространства, не уменьшая при этом значения многомерного дистанта.

Рассмотрим преобразование

где из признаков возникают новых признаков Все признаки, находящиеся в пространстве признаков, порожденном называются дискриминантными. Итак, дискриминантный признак характеризуется тем, что его вектор коэффициентов и — линейная комбинация строк Линейная форма, соответствующая дискриминантному признаку

называется дискриминантной функцией.

Инвариантность дистанта

Пусть пространство дискриминантных признаков имеет размерность Тогда будет также рангом При справедливости гипотезы имеем Без ограничения общности можно принять, что первые дискриминантных признаков линейно независимы. В таком случае А разделяется на две подматрицы:

причем и строки матрицы линейные комбинации строк матрицы

Пространство дискриминантных признаков определяется соотношением

Теорема. Многомерный дистант в пространстве дискриминантных признаков равен дистанту в исходном пространстве:

Доказательство. Основываясь на равенствах (5.12), (5.5), (5.2) (5.11) и (5.1), получим

Теорема доказана.

Эта теорема дает основание в ряде случаев вместо первоначально указанных признаков использовать дискриминантных признаков. Подлинную выгоду теорема, разумеется, приносит, если Это соответствует всем применениям, когда ранг матрицы гипотез меньше

Избыточность и дискриминантная функция

Теперь мы можем указать новую характеристику избыточных признаков, которые были определены в разделе 5.1. Рассмотрим исходных признаков Исследуем более подробно случай, когда последние признаков избыточны относительно первых признаков.

Теорема. Последние признаков по сравнению с первыми признаками тогда и только тогда избыточны, когда обращаются в нуль коэффициенты, относящиеся к последним признакам, т. е. когда в матрице последние столбцов обращаются в нуль.

Доказательство. Пусть

В силу (5.7) получаем, что

Если последние столбцов матрицы равны нулю и, следовательно,

то отсюда получим

Это означает, что последние признаки избыточны. Обратно, если имеется избыточность, так что след в правой части (5.15) обращается в нуль, то из (2.52) и (2.54) следует, что

и

Теорема доказана.

Дискриминантные признаки и проблема собственных значений

В следующей теореме устанавливается связь между дискриминантными признаками и задачей о собственных значениях.

Теорема. Пространство дискриминантных признаков совпадает с пространством признаков вида где произвольная линейная комбинация собственных векторов которые соответствуют отличным от нуля собственным значениям

Доказательство. Поскольку пространство дискриминантных признаков и подлежащее сравнению с ним пространство признаков имеют одинаковую размерность. Поэтому достаточно показать, что каждый дискриминантный признак содержится в пространстве названных признаков

Для этого докажем, что векторы коэффициентов дискриминантных признаков ортогональны собственным векторам (5.17), соответствующим Пусть собственный вектор, соответствующий Тогда

Отсюда следует, что

В силу (2.46) получаем

Последнее равенство — отношение ортогональности собственных векторов (5.17). Следовательно, каждая строка матрицы ортогональна что и требовалось доказать.

Неэлементарные дискриминантные признаки

Уже было отмечено, что многомерный дистант в пространстве дискриминантных признаков совпадает с дистантом в первоначальном пространстве. Далее попытаемся при заданном числе и дискриминантных признаков достичь как можно большего значения дистанта. Такая постановка задачи важна для практического применения, так как хотелось бы представить взаимосвязь признаков пространством малой размерности. При снижении размерности значение дистанта должно убывать как можно меньше.

Теорема. Рассмотрим признаки Среди множества всех -матриц ранга и фиксированы) имеются матрицы, чей дистант принимает максимально возможное значение. А именно: максимум достигается тогда и только тогда, когда натянутое на столбцы матрицы подпространство (всего -мерного пространства) совпадает с подпространством, порожденным и собственными векторами соответствующими и наибольшим собственным значениям

Доказательство этой теоремы следует непосредственно из (2.69). Следствие. Пусть собственные векторы (5.17), соответствующие собственные значения, причем Признак

обладает наибольшим дистантом среди всех линейных комбинаций исходных признаков; пара признаков

обладает наибольшим дистантом среди всех пар линейных комбинаций исходных признаков; тройка признаков

обладает наибольшим дистантом среди всех троек, и т. д.

Теорема, кроме того, утверждает, что линейные комбинации признаков, не сводящиеся к собственным векторам с наибольшими собственными значениями, не могут обладать максимальным дистантом.

Назовем неэлементарными дискриминантными признаками, так как в противоположность ранее использованным «элементарным» они определяются только через решение проблемы собственных значений.

Здесь следует подчеркнуть, что последняя теорема действительна только потому, что используемый дистант является строго монотонной функцией от Теорема оставалась бы справедливой, если бы даже дистант был какой-то иной строго монотонной (возрастающей или убывающей) функцией собственных значений Из-за этой теоремы в разделе 4.2.4 при выборе статистик многомерных критериев был введен постулат 3 и особо подчеркивалась роль строгой монотонности. Если не настаивать на строго монотонной зависимости критериальной статистики от всех аргументов (например, рассматривать и соответственно определять дистант, то с помощью такого дистанта не удается однозначно выделять все дискриминантные признаки.

1
Оглавление
email@scask.ru