Главная > Энциклопедия кибернетики. Т.1
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

ИНФОРМАТИВНОСТЬ ПРИЗНАКОВ

— величина, количественно характеризующая пригодность признаков (или их набора) X для распознавания классов объектов. При этом предполагается, что предъявленные для распознавания объекты представляются сигналами в пространстве признаков X. В распознавании образов в качестве И. п. используются условная энтропия, вероятность ошибки распознавания, дивергенция Кульбака, дисперсионная мера и другие величины. Наиболее часто встречается условная энтропия Н:

где К — множество классов, X — признаки, k — номер класса, х - сигнал в пространстве признаков плотность вероятности появления сигнала апостериорная вероятность класса к при условии наблюдения сигнала х. В случае, когда признаки X позволяют безошибочно указывать класс, условная энтропия равна нулю. При сравнении двух наборов признаков более информативным является тот, который характеризуется меньшей условной энтропией. На практике использование И. п. затруднительно из-за неизвестных вероятностей При выборе информативных признаков чаще всего исходят из свойств тех сигналов, которые собираются классифицировать. Учет свойств сигналов позволяет приближенно судить о распределениях и находить достаточно информативные признаки.

Информативность набора признаков следует отличать от информативности отдельных признаков набора. Только в том случае, когда признаки независимы при условии отдельных классов, информативность набора признаков равна сумме информативности отдельных признаков. В этом случае на основании информативности отдельных признаков можно составлять наиболее информативные наборы. Если признаки зависимы, И. п. не выражается через информативность отдельных признаков, а выбор наиболее информативных наборов по информативности отдельных признаков становится невозможным.

Лит.: Ковалевский В. А. Задача распознавания образов с точки зрения математической статистики. В кн.: Читающие автоматы и распознавание образов. К., 1965; Кульбак С. Теория информации и статистика. Пер. с англ. М., 1967 [библиогр. с. 364—381]. Г. И. Винцюк.

1
Оглавление
email@scask.ru