Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
7.8. КОНЦЕПЦИЯ ДИВЕРГЕНЦИИДивергенция) представляет собой меру «расстояния» или несходства между двумя классами. Его можно использовать для ранжировки признаков и оценки эффективности разделения классов. В данном параграфе мы вводим понятие дивергенции и обсуждаем возможности его использования для определения эффективности выбора и упорядочения признаков. Пусть вероятность появления образа
Средняя различающая информация для класса
Информацию, отличающую класс
Средняя различающая информация для класса
Полную среднюю информацию для различения классов
Допустим, что заданы два класса, характеризуемые двумя n-мерными нормально распределенными совокупностями
где
и
а логарифм отношения правдоподобия
Средняя различающая информация для этих двух классов равна
Следовательно, дивергенция для этих двух классов есть
Особый интерес представляют два частных случая. Случай 1. Равенство ковариационных матриц:
где Для одномерной нормально распределенной совокупности,
и
где Случай 2. Равенство математических ожиданий совокупностей: Средняя различающая информация и дивергенция определяются выражениями
соответственно. Дивергенция обладает следующими полезными свойствами:
4) при независимых измерениях дивергенция
5) добавление результата нового измерения никогда не приводит к уменьшению дивергенции:
Аддитивность дивергенций означает, что при независимости измерений дивергенция, определенная по результатам Ниже будем использовать понятие дивергенции для изучения влияния выбора признаков на качество системы распознавания. Начнем с установления связи между вероятностью ошибки и дивергенцией, а затем построим рекуррентные соотношения, обеспечивающие выбор признаков, исходя из условия минимальности дивергенции при заданной вероятности ошибки. В гл. 4 было показано, что при выборе функции потерь, принимающей значения 0 или 1, принадлежность образа
для всех
Для нормально распределенных совокупностей с равными ковариационными матрицами уравнение (7.8.8) дает следующую разделяющую границу:
Решающее правило таково: Вероятность ошибки выражается как
В гл. 4 было показано также, что
где
обозначает расстояние Махаланобиса между плотностями распределения
т. е. дивергенцию классов При выборе
Пусть ожидания и новой ковариационной матрицей в таком случае будут
и
Обратная матрица для
где
Новой оценкой эффективности системы признаков является
что после проведения упрощений сводится к
Следовательно, прирост эффективности определяется как
Если дополнительно введенный признак
В предыдущих разделах число признаков
где
Таким образом,
где
Так как
то
Итак, искомое рекуррентное соотношение имеет вид
причем
где
|
1 |
Оглавление
|