Пред. 
				След. 
			
					Макеты страниц
				 
				
				Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ 
ZADANIA.TO
11.2.2. Сходимость процедуры, основанной на правиле ближайшего среднего.Полученные выше результаты приводят к следующей процедуре автоматической классификации [Фукунага, 1970 г]. 1. Применить совместную нормировку. 2. Классифицировать объекты, используя правило ближайшего среднего. Эффективность этой процедуры можно оценить аналитически, если объекты генерируются в соответствии с двумя нормальными распределениями. Мы найдем условия, при которых разделяющая гиперплоскость сходится к гиперплоскости, перпендикулярной к вектору разности средних векторов этих распределений. В случае равных ковариационных матриц это будет байесовская оптимальная гиперплоскость. Нормальные распределения с равными ковариационными матрицами. Если два нормальных распределения имеют одинаковые ковариационные матрицы  
 Действуя так же, как в (4.68), можно привести (11.36) к виду 
 Таким образом, в случае равных ковариационных матриц направляющий вектор оптимальной гиперплоскости совпадает по направлению с вектором  средних значений  
 Рис. 11.2. Разделение двух распределений. Пусть на некоторой итерации объекты разделяются гиперплоскостью с направляющим вектором  На каждой итерации гиперплоскость делит каждое распределение на две части, лежащие по обе стороны гиперплоскости. Таким образом, имеем четыре вероятностные массы  
 
 где 
 (если  
 Здесь  
 Подставляя выражения (11.38) — (11.43) в (11.45) и (11.46), имеем 
 В случае равных ковариационных матриц 
 Далее, пользуясь условиями совместной нормировки (11.23) и (11.24) (или (4.62) и (4.63)), матрицы  
 где 
 Направляющий вектор новой гиперплоскости имеет две составляющие, одна из которых совпадает по направлению с V, а другая — с  
 и условие сходимости принимает вид 
 Легко видеть, что для некоторых сочетаний параметров неравенство (11.53) не выполняется. 
 Рис. 11.3. Области сходимости [Фукунага,  Можно, однако, вычислить границы области значений параметров, где оно выполняется. Результат приведен на рис. 11.3. Неравенство (11.53) содержит три параметра  
 На рис. 11.3 показаны области сходимости в координатах  Сходимость в случае неравных ковариационных матриц. Как уже говорилось ранее (см. рис. 4.10 и формулу (4.68)), гиперплоскость, перпендикулярная к вектору разности средних значений, дает приемлемое разделение двух нормальных распределений после совместной нормировки даже в том случае, когда ковариационные матрицы различны. Однако, когда  Предположим, что гиперплоскость проходит через точку, в которой 
 Тогда, подставляя (11.23) и (11.24) в (11.47), получим 
 Рассуждая так же, как мы это делали выше, получим следующее условие сходимости: 
 которое, используя (11.52) и (11.55), можно представить в виде 
 или 
 Это неравенство выполняется для всех  Таким образом, если гиперплоскость проходит через точку, в которой выполняются соотношения (11.55), новый вектор разности средних  Пример 11.1. В дополнение к теоретическим исследованиям, рассмотрим результаты численных экспериментов. Таблица 11.1 (см. скан) Результаты классификации для стандартных данных  В этих экспериментах объекты генерировались в соответствии с нормальными распределениями с заданными математическими ожиданиями и ковариационными матрицами. Математические ожидания и ковариации брались из стандартных данных. Таблица 11.2 (см. скан) Результаты классификации для стандартных данных  Два класса. В первом эксперименте генерировалось по 100 объектов каждого класса в соответствии со стандартными данными,  ближайшего среднего. Затем производилась «совместная нормировка» объектов и они снова классифицировались. В табл. 11.1 приведены матрицы, показывающие количество правильно и неправильно классифицированных объектов в каждом случае. 
 Рис. 11.4. График разброса экспериментальных объектов, а) Исходное распределение; 6) после совместной нормировки [Фукунага. 1970 г]. В случае, когда предварительно была сделана совместная нормировка, число неправильно классифицированных объектов оказалось меиыиим. Три класса. В этом эксперименте генерировалось по 100 объектов каждого класса в соответствии со стандартными данными  
  | 
		1 | 
			 
					Оглавление
				 
				
  |