Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.2. ПерсептроныСистематическое изучение искусственных нейронных сетей было начато Маккалохом и Питтсом в 1943 году. Позднее они исследовали нейросетевые парадигмы для распознавания изображений, подвергаемых сдвигам и поворотам, используя при этом нейронную модель, показанную на рис. 2.3. Элемент X умножает каждый вход х, на вес
Рис. 2.3. Персептронный нейрон принципе описываются и более сложные системы В 60-е годы персептроны вызвали большой интерес Розенблатт доказал теорему об обучении персептронов Уидроу продемонстрировал возможности систем персептронного типа Однако дальнейшие исследования показали, что персептроны не способны обучиться решению ряда простых задач Минский строго проанализировал эту проблему и показал, что существуют жесткие ограничения на то, что могут выполнять однослойные персептроны, и, следовательно, на то, чему они могут обучаться Так как в то время методы обучения многослойных сетей не были известны, исследования в области нейронных сетей пришли в упадок Возрождение интереса к нейронным сетям связано в большей степени со сравнительно недавним открытием с таких методов Работа Минского возможно и охладила пыл первых исследователей нейронных сетей, однако обеспечила необходимое время для развития лежащей в их основе теории Важно отметить, что анализ Минского не был опровергнут и до сих пор остается весьма существенным Несмотря на ограничения, персептроны широко изучались Теория персептронов является основой для изучения многих других типов искусственных нейронных сетей Рассмотрим в качестве примера трехнейронный персептрон (рис. 2.4), нейроны которого имеют активационную функцию в виде единичного скачка
Рис. 2.4 Персептрон со многими выходами На
Весовые коэффициенты синапсов одного слоя нейронов можно свести в матрицу
где X и Y - соответственно входной и выходной векторы (под вектором понимается вектор-строка), На рис 2 5 представлен двухслойный персептрон, образованный из однослойного добавлением второго слоя, состоящего из двух нейронов Отметим важную роль нелинейности активационной функции, так как, если бы она не обладала данным свойством, результат функционирования любой
Фактически такая
Работа персептрона сводится к классификации (обобщению) входных сигналов, принадлежащих
Каждая полученная область является областью определения отдельного класса Число таких классов для персептрона не превышает
Рис. 2.5. Двухслойный персептрон Например, однослойный персептрон, состоящий из одного нейрона с двумя входами, не может реализовать логическую функцию «Исключающее ИЛИ», т. е. не способен разделить плоскость (двумерное гиперпространство) на две полуплоскости так, чтобы осуществить классификацию входных сигналов по классам А и В (см. табл. 2.1). Таблица 2.1 (см. скан) Логическая функция «Исключающее ИЛИ» Уравнение сети для этого случая:
является уравнением прямой (одномерной гиперплоскости), которая ни при каких условиях не может разделить плоскость так, чтобы точки из множества входных сигналов, принадлежащие разным классам, оказались по разные стороны от прямой (рис. 2.6).
Рис. 2 6. Линейная нераздепимость функции Исключающее ИЛИ Невозможность реализации однослойным персептроном этой функции получила название проблемы «Исключающего ИЛИ». Отметим, что функции, которые не реализуются однослойным персептроном, называются линейно неразделимыми. Решение задач, подпадающих под это ограничение, заключается в применении 2-х и более слойных сетей или сетей с нелинейными синапсами, однако и тогда существует вероятность, что корректное разделение некоторых входных сигналов на классы невозможно. Рассмотрим более подробно алгоритм обучения с учителем персептрона на примере, представленном на рис. 2.4. ШАГ 1. Проинициализировать элементы весовой матрицы небольшими случайными значениями. ШАГ 2. Подать на входы один из входных векторов, которые сеть должна научиться различать, и вычислить ее выход. ШАГ 3. Если выход правильный, перейти на шаг 4. Иначе - вычислить разницу между требуемым и полученным значениями выхода:
Модифицировать веса в соответствии с формулой:
где Очевидно, что если Шаг 4. Цикл с шага 2, пока сеть не перестанет ошибаться. На шаге 2 на разных итерациях поочередно в случайном порядке предъявляются все возможные входные вектора. К сожалению, нельзя заранее определить число итераций, которые потребуется выполнить, а в некоторых случаях и гарантировать полный успех Этот вопрос будет затронут в дальнейшем Сходимость рассмотренной процедуры устанавливается следующими теоремами Теорема 2 1 Класс элементарных персептронов, для которых существует решение для любой задуманной классификации, не является пустым Эта теорема утверждает, что для любой классификации обучающей выборки можно подобрать такой набор (из бесконечного набора) элементарных нейронов, в котором будет осуществлено разделение обучающей последовательности при помощи линейного решающего правила Теорема 2 2 Если для некоторой классификации решение существует, то в процессе обучения персептрона с коррекцией ошибок, начинающегося с произвольного исходного состояния, это решение будет достигнуто в течение конечного промежутка времени Смысл теоремы состоит в том, что если относительно задуманной классификации можно найти набор элементов, в котором существует решение, то в рамках этого набора оно будет достиг нуто за конечный промежуток времени Интересную область исследований представляют много слойные персептроны и персептроны с перекрестными связями однако теория этих систем практически не разработана
|
1 |
Оглавление
|