7.9. ВЫЧИСЛИТЕЛЬНЫЕ ПРОБЛЕМЫ ВЫБОРА ПРИЗНАНИЙ
Из формулы (7.81) видно, что для определения оптимальной комбинации признаков при пошаговых методах включения и исключения необходимо, чтобы для каждого множества признаков, появляющегося в ходе процесса, была известна обратная матрица соответствующей ковариационной матрицы и матрица весовых коэффициентов элементарных дискриминантных функций. Чтобы не вычислять обе эти матрицы каждый раз заново, обращая исходные матрицы, а также в связи с возможным отсутствием запоминающего устройства, мы рекомендуем метод текущего пересчета. На каждом шаге включения и исключения признаков обе матрицы посредством простых вычислений получают новые значения.
Каждое промежуточное состояние на пути к оптимальной комбинации признаков однозначно характеризуется тем, что из всех признаков определенная часть — пусть она состоит из признаков — составляет рассматриваемое множество признаков Остальные признаков исключены из этого множества. Каждому из возможных состояний соответствуют две матрицы: Здесь симметричная матрица, поэтому в памяти ЭВМ она занимает ячеек. В частном случае, если первые признаков принадлежат множеству а последние признаков — нет и сделано соответствующее разбиение матриц
то матрицы представимы в виде
Что матрица действительно симметрична, следует из соотношения
(кликните для просмотра скана)
Если исходя из состояния (7.92) последовательно выполнять преобразования всех признаков то из матрицы получится матрица Отсюда следует, что формулы (7.95)-(7.98) устанавливают алгоритм обращения положительно или отрицательно определенных симметричных матриц.
Мы сознательно отказываемся от доказательства формул, приведенных в этом разделе. Подробное изложение математического аппарата, связанного с пошаговым методом включения и исключения признаков применительно к регрессионному анализу, можно найти в работах [15] и [48].