4.3.2. Совместная нормировка смеси в случае нормальных распределений.
Объединение процедуры совместной нормировки и построения корреляционного классификатора можно осуществить с иной точки зрения. Рассмотрим случай, когда два распределения имеют разные векторы математических ожиданий и ковариационные матрицы. Для таких распределений интуитивный подход к синтезу линейной разделяющей функции состоит в следующем.
1) Предположим, что два распределения имеют одинаковые ковариационные матрицы, причем каждая из ковариационных матриц равна среднему значению фактических ковариационных матриц, т. е.
2) Применим байесовский подход. Если распределения являются нормальными, то в случае одинаковых ковариационных матриц байесовский классификатор будет линейным.
На рис. 4.10 изображен соответствующий пример.
Из выражения (4.2) следует, что байесовский классификатор для упомянутых выше искусственных распределений имеет
Применяя процедуру совместной нормировки (4.62) и (4.63), преобразуем (4.67) к виду
(см. скан)
Рис. 4.10. Использование средней ковариационной матрицы.
Гиперплоскость классификатора перпендикулярна к вектору разности Значение порога определяется выражением
Если то значение порога (4.69) равно нулю и разделяющая функция проходит через точку математического ожидания смеси, которое в преобразованной системе совпадает с началом координат.
Было показано, что линейная разделяющая функция, максимизирующая критерий Фишера, имеет вид
В результате совместной нормировки при оптимальная по критерию Фишера гиперплоскость должна быть перпендикулярна к вектору разности Поэтому после такого преобразования может быть использован корреляционный классификатор.