Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
4.3. Последовательная схема нейронного управленияПоследовательная схема нейронного управления показана нарис. 4.3.1. Для такого типа нейронного управления используется также название «инверсно-прямое управление»; это означает, что нейронная сеть может реализовывать обратную динамику объекта управления. Если обозначить соответствие между входом и выходом как
Рис. 4.3.1. Последовательная схема нейронного управления
Рис. 4.3.2. Специализированное нейронное управление с обратным отображением; пунктирной линией выделена цепь прямой связи (ЦПС)
то нейронная сеть реализует обратное отображение:
где Таким образом, если подать на нейронную сеть опорный сигнал
где Можно использовать два способа реализации схемы, показанной на рис. 4.3.1. Первый из них, называемый «специализированным обратным отображением», показан на рис. 4.3.2. Нейронная схема, показанная на ней, обучается таким образом, чтобы минимизировать квадрат ошибки. Если ошибка становится близкой к нулю, можно считать, что нейронная сеть
Рис. 4.3.3. Внутренняя структура нейроконтроллера, используемого в схеме, показанной на рис. 4.3.2. Величины реализует инверсную динамику объекта управления. Заключенная в пунктирную линию часть схемы, называемая цепью прямой связи (ЦПС), может рассматриваться как разновидность нейронной сети, у которой выходной слой жестко задан. Ниже будет показано, что в этом случае для использования алгоритма обратного распространения необходимо знать якобиан системы. Для схемы, показанной на рис. 4.3.2, простейшая внутренняя структура нейронной сети показана на рис. 4.3.3, где используется один нейрон во входном и один в выходном слоях. На рис. 4.3.3 входным сигналом для нейронной сети является только сигнал
Входной сигнал объекта управления задается следующим образом:
где
Используя цепное правило получения частных производных, правило дифференцирования сложных функций, получим:
Из (4.3.7) получим
Определяя
и снова используя цепное правило для 8., получим:
Таким образом, имеем следующее соотношение:
Аналогично для
и
Таким образом, получен следующий алгоритм. Шаг 1. Установить начальные значения Положить Шаг 2. Подать на вход нейронной сети сигнал, равный желаемому выходному сигналу
Шаг 3. Изменить веса связей в соответствии с выражением:
Шаг 4. Вычислить значение 5.:
Шаг 5. Изменить веса связей в соответствии с выражением:
Шаг 6. Заменить При практическом применении этого алгоритма возникают, однако, некоторые трудности. Одна из них состоит в том, что соответствие «вход — выход», задаваемое нейронной сетью, показанной на рис. 4.3.3, является нединамическим, а скорее статическим отображением координат и на у. В практических задачах управления динамические отображения
Рис. 4.3.4. Общая схема последовательного нейроконтроллера являются более привычными. Поэтому нейронная сеть должна непосредственно подавать на вход объекта управления много сигналов, равных прошлым входным сигналам, или эти прошлые входные сигналы должны сохраняться. В первом случае выходами нейронной сети будет не только значение Кроме того, можно подавать больше информации на вход нейронной сети, чтобы ускорить сходимость обучения. Если известны какие-либо факторы, способные улучшить управляющий сигнал, то следует использовать такую информацию в качестве входного вектора нейронной сети. Общая схема последовательного нейроконтроллера приведена на рис. 4.3.4. Здесь символами дополнительная информация, которая может влиять на управляющий сигнал. Однако если величины временной задержки При использовании схемы управления, показанной на рис. 4.3.4, для обучения нейронной сети можно применить методику, которая аналогична описанной выше. Таким образом, если приравнять соответствующие величины:
то для обучения нейроконтроллера можно применить вышеописанный алгоритм (шаги Необходимо отметить, что данный алгоритм основан на алгоритме обратного распространения, в котором в качестве функции активации используется сигмоидная функция; причем в данном случае все входные управляющие сигналы могут принимать значения между 0 и 1. Если в качестве управляющих входных сигналов используются только положительные величины, то управляющий сигнал и необходимо умножить на некоторую положительную константу С, а если в качестве управляющих входных сигналов используются только отрицательные величины, то управляющие сигналы требуется умножать на отрицательную константу С. Для определения величины С можно включить дополнительный слой. В более простом случае, если в качестве функции активации для выходного слоя используется функция идентичности, то можно выбрать любую величину (положительную или отрицательную). В этом случае шаг 2 принимает следующий вид. Шаг 2. Подать на вход нейронной сети сигнал, равный желаемому выходному сигналу
В рассмотренном выше алгоритме единственная сложность состоит в вычислении якобиана системы
где
Другой подход состоит в том, чтобы выполнить имитационное моделирование объекта управления, используя другую нейронную сеть, реализующую отображение «вход — выход для объекта управления. В этом случае данная нейронная сеть используется в качестве идентификатора системы. Для нейронных сетей вместо термина
где На рис. 4.3.5 показана схема обучения нейронной сети, при котором минимизируется ошибка предсказания (кликните для просмотра скана) Для ускорения сходимости процесса обучения можно использовать другую модель эмулятора, показанную нарис. 4.3.7. Здесь в качестве условной модели используется простая математическая модель или физически точная модель, даже если сама система является достаточно сложной и нелинейной. Если между действительным выходным сигналом и выходным сигналом модели имеется несоответствие, то нейронная сеть выполняет самонастройку с целью минимизации ошибки. Выход модели обозначен как Если величина
Рис. 4.3.7. Альтернативный метод моделирования с использованием нейронных сетей.
Рис. 4.3.8. Общая схема инверсно-динамического нейроконтроллера. Эмулятор NN1 реализован по схеме, показанной на рис. 4.3.6 и 4.3.7, а нейроконтроллер NN2 - по схеме рис. 4.3.4. Основываясь на собственном опыте, в качестве условных моделей авторы могут рекомендовать использование статической модели, модели авторегрессии (АР), модель авторегрессии — скользящего среднего (АРСС), линейных векторных уравнений и т.п., так как они позволяют выявить долгосрочные тенденции. В свою очередь, нейронная сеть позволяет реализовать нелинейные соотношения. Таким образом, общая конфигурация схемы управления на основе нейронной сети показана нарис. 4.3.8, где NN1 — нейросетевой эмулятор (или просто — нейроэмулятор), a NN2 — нейроконтроллер, реализующий инверсно-динамическое отображение. Другая схема реализации инверсной динамики с помощью нейронной сети показана на рис. 4.3.9, где нейронная сеть NN1 используется для обучения инверсному отображению, а математическая модель NN2 копируется с модели NN1 после того, как заканчивается обучение последней. Эта архитектура, предложенная в [38], описана в разделе 4.2.1. Реализация нейронной сети NN1 показана на рис. 4.3.10, где (кликните для просмотра скана)
|
1 |
Оглавление
|