Пред.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 2. Критерии информативности признаковРешающим
критерием информативности признаков в задаче распознавания образов является,
конечно, величина потерь от ошибок
Если
распределение реализаций каждого образа подчиняется нормальному закону с
диагональными матрицами ковариаций (при этом поверхности равной плотности
представляют собой сферы одинакового радиуса), то мерой трудности распознавания
где В терминах
теории информации мерой трудности распознавания служит энтропия
Рис. 22 Из
принципа аддитивности энтропии следует, что общая неопределенность при
распознавании образов по признаку Теперь
снова вспомним, что в реальных задачах законы распределений реализаций образов
нам не известны. Объем обучающей выборки часто бывает небольшим, и делать
оценки параметров моделей распределений, а по ним оценки информативности —
очень рискованно. В этих условиях целесообразно использовать методы, которые
не требуют построения моделей распределения и опираются на конкретные объекты,
имеющиеся в обучающей выборке Возможны
и другие способы оценки информативности. Гипотеза компактности дает нам основу
для оценки информативности пространства признаков через проявление
характеристик компактности. Из нее следует, что для хорошего распознавания
образов желательно, чтобы расстояния между своими точками каждого образа были
малыми, а расстояния до точек других образов по возможности большими. А если
выпуклые оболочки разных образов налагаются друг на друга, то желательно,
чтобы они как можно больше отличались по своим размерам. Компактность
(плотность)
Аналогично,
компактность
Разнесенность образов в пространстве характеристик можно оценивать через среднее расстояние между всеми парами точек из разных образов:
На основании
сказанного информативность пространства признаков тем больше, чем больше
величина Оценку
информативности признаков можно получить и непосредственно в процессе
построения решающего правила в виде дерева дихотомических делений выборки по
отдельным признакам. Представим себе, что мы имеем возможность разделить признак
Аналогично
можно найти неоднородность состава второй градации
то уменьшение
неопределенности после извлечения информации из признака Если
известно, что признаки не зависят друг от друга, то можно с помощью одного из
описанных методов оценить информативность всех В
табл. 2 приведен пример обучающей выборки двух образов ( Таблица 2.Пример выборки с зависимыми признаками
Зависимости могут носить и более сложный
характер и проявляться на множестве из более чем двух признаков. Следовательно,
для выбора Рассмотрим некоторые из таких алгоритмов.
|
1 |
Оглавление
|