Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

3.1. Однослойная сеть

Однослойную сеть образуют нейроны, расположенные в одной плоскости (рис. 3.1). Каждый нейрон имеет поляризацию (связь с весом по которой поступает единичный сигнал), а также множество связей с весами по которым поступают входные сигналы Значения весов подбираются в процессе обучения сети, состоящем в приближении выходных сигналов к ожидаемым значениям Мерой близости считается значение целевой функции, также называемой стоимостной функцией. При использовании обучающих векторов для обучения сети, включающей М выходных нейронов, целевую функцию можно определить эвклидовой метрикой вида

Выходные сигналы нейрона являются функциями весов сети значения которых уточняются в процессе обучения по критерию минимизации целевой функции.

Рис. 3.1. Структура однослойной сигмоидальной нейронной сети

Расположенные на одном уровне нейроны функционируют независимо друг от друга, поэтому возможности такой сети ограничиваются свойствами отдельных нейронов. Веса нейронов образуют определенное пространство решений. Следует учитывать, что каждый нейрон реализует функциональное отображение Принимая во внимание, что сигмоидальная функция представляет собой непрерывный аналог одноступенчатой пороговой функции, можно заметить, что выходной сигнал нейрона (значение 1 или 0) буцет зависеть от знака выражения Это уравнение линейно относительно весов Выходной сигнал при фиксированных значениях весов зависит от расположения входного вектора х, который определяет гиперплоскость, разделяющую многомерное пространство на два подпространства. Поэтому задача классификации (приписывания значения 0 или 1 выходному сигналу нейрона) может быть решена с помощью единственного нейрона, если

она относится к классу задач линейной сепарации (например, с применением логических функций AND или OR).

Продемонстрируем ограниченность возможностей однослойных сетей на примере реализации двухвходовой логической функции XOR [101]. Для упрощения будем использовать функцию активации в виде одноступенчатого порога. Множество данных для обучения логической функции XOR представлено в табл. 3.1.

Таблица 3.1 Множество данных для обучения функции XOR

Легко показать, что в этом случае невозможно провести единственную линию, разделяющую пространство данных на два подпространства, из которых одно соответствовало бы входному сигналу 1, а другое - 0 (на рис. 3.2 заштрихованная область относится к одному классу, а незаштрихованная - ко второму). Внутри заштрихованной области выходной сигнал нейрона должен быть равен 1, а за ее пределами - 0. Такое условие не может быть выполнено при использовании для разделения пространства единственной прямой (одного нейрона) независимо от значений параметров этой прямой весов Таким образом, однослойный персептрон не в состоянии реализовать даже такую несложную функцию, как XOR. Эту проблему легко разрешить путем расширения искусственной нейронной сети. С этой целью добавим в слой еще один нейрон и подберем веса обоих нейронов таким образом, чтобы они разделяли пространство на две части в зависимости от входного вектора (первый нейрон) и (второй нейрон). Подбор весов должен обеспечить разделение пространства, показанное на рис. 3.3. Общая часть подмножеств, соответствующая условиям определила область, отделенную от остального пространства, соответствующего условиям

Рис. 3.2. Иллюстрация невозможности линейного разделения обучающих данных, соответствующих логической функции XOR

Рис. 3.3. Решение проблемы нелинейного разделения путем применения двух линейных разделителей

Добавлением на выходе сети еще одного слоя, состоящего из единственного нейрона, можно реализовать функцию логического суммирования, выделяющую общую часть подмножеств

Окончательная структура ИНС, выполняющей функцию XOR, представлена на рис. 3.4. Следует отметить, что добавление в сеть дополнительного слоя позволило разрешить проблему невозможности линейного разделения данных. Каждый нейрон скрытого слоя осуществляет дополнительное линейное разделение плоскости, причем граница такого раздела на области зависит от значений весов нейрона. Выходной слой выполняет соответствующую линейную комбинацию (например, логическую сумму) подобластей, на которые множество, входных данных было разделено нейронами скрытого слоя.

Несмотря на то, что однослойная сеть имеет небольшое практическое значение, ее продолжают использовать там, где для решения поставленной задачи достаточно и одного слоя нейронов.

Рис. 3.4. Структура ИНС, выполняющей функцию XOR

Выбор архитектуры такой сети весьма прост. Количество входных нейронов определяется размерностью входного вектора а количество выходных нейронов определяется размерностью вектора Обучение сети производится, как правило, с учителем и является точной копией обучения одиночного нейрона.

1
Оглавление
email@scask.ru