Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
8.2.5. Результаты компьютерного моделированияСеть RMLP повсеместно применяется для моделирования динамических процессов в режиме “онлайн”. Типичным примером ее приложения может служить имитация нелинейных динамических объектов, для которых сеть RMLP выступает в роли модели, а алгоритм уточнения весов - в роли процедуры идентификации параметров этой модели. Идентифицированная модель объекта может в последующем использоваться для управления данным объектом. Именно по этой причине сети RMLP наиболее популярны для имитации систем управления машинами, устройствами и динамическими процессами [156]. В настоящем разделе мы обсудим подход к моделированию нелинейных динамических систем, предложенный в работах К. Нарендры [107]. В отличие от работ Нарендры будем использовать сеть с нелинейным выходным нейроном, описываемым сигмоидальной функцией активации. На первый взгляд нелинейность выходного нейрона осложняет проблему идентификации нелинейного объекта (из-за ограниченности выходного сигнала диапазоном Сеть обучалась с использованием программы RMLP, приспособленной для обучения в режиме “онлайн”. Обучение было основано на адаптивной идентификации нелинейных динамических объектов. Объект, описываемый известной нелинейной функцией, генерировал последовательность заданных сигналов на рис. 8.1, использовалась в качестве модели этого объекта. В результате сравнения выходного сигнала этой модели
управляющей процессом уточнения параметров нейронной сети. На рис. 8.2 показан способ включения сети при проведении экспериментов. Символом
Рис. 8.2. Схема включения сети RMLP при решении задачи идентификации Во всех численных экспериментах использовалась сеть со структурой 2-2-1. Вход системы состоял из одного входного узла В первом режиме предъявление каждой новой обучающей выборки сопровождалось однократным уточнением значений всех весов сети и переходом к следующей выборке. Этот режим будем называть в дальнейшем однократной адаптацией. Во втором режиме каждая обучающая выборка вызывала многократное уточнение весов сети (предъявление обучающей выборки на вход сети сопровождалось изменением выходного сигнала, после этого уточнялись значения весов; повторная подача на вход сети сигнала обратного распространения ошибок при неизменной обучающей выборке приводила к очередному изменению выходного сигнала с соответствующим уточнением весов и т.д.). Этот режим обучения сети будем называть многократной адаптацией. Каждый процесс обучения сети начинался со случайных значений весов, равномерно распределенных в заданном интервале. В проводимых экспериментах это был интервал Первый численный эксперимент был связям С динамической системой, предложенной в работе [107] и описываемой выражением
Дискретный входной сигнал задавался функцией На рис. 8.3 представлена форма заданных сигналов, генерируемых динамической системой, определенной выражением (8.18). Из этого уравнения следует, что выходной сигнал системы будет ограничен при условии, что на входной сигнал также наложены ограничения. В экспериментах применялись обе методики уточнения весов — как однократной, так и многократной адаптации [156].
Рис. 8.3. Заданные сигналы динамического объекта, определенного выражением (8.18). При использовании первой методики значения весов уточнялись после предъявления каждой обучающей выборки по алгоритму наискорейшего спуска с постоянным коэффициентом обучения Согласно второй методике значения весов уточнялись трижды на протяжении каждого цикла с применением адаптивного коэффициента обучения На графике видно, что погрешность, особенно в первой фазе обучения, оказалась меньше, а процесс адаптации модели к реакциям объекта протекал быстрее, особенно в начале обучения. Следует подчеркнуть, что и в первом, й во втором случае остаточная погрешность обучения стабилизировалась на определенном, достаточно низком уровне, являясь движущей силой механизма адаптации параметров модели. Рис. 8.4. (см. скан) График обучения сети RMLP при однократной адаптации весов в каждом цикле для динамического объекта из первого эксперимента Рис. 8.5. (см. скан) График обучения сети RMLP при трехкратной адаптации весов в каждом цикле для динамического объекта из первого эксперимента Во втором эксперименте исследовалась нелинейная динамическая система, описываемая следующей зависимостью:
со входным сигналом На рис. 8.6 приведен график изменения выходного сигнала объекта (заданных значений), описываемого выражением (8.19). Результаты обучения в виде графика погрешности при однократной адаптации весов представлены на рис. 8.7. Рис. 8.6. (см. скан) Заданные сигналы динамического объекта, определенного выражением (8.19). Погрешность обучения, принимавшая в начале процесса значения 4 - 5-го порядка, очень быстро (примерно за пять циклов) сократилась до остаточной величины, уменьшающейся в ходе обучения. График погрешности обучения, соответствующий трехкратной адаптации весов, изображен на рис. 8.8. Погрешность обучения при трехкратной адаптации Рис. 8.7. (см. скан) График обучения сети RMLP при однократной адаптации весов в каждом цикле для динамического объекта из второго эксперимента Рис. 8.8. (см. скан) График обучения сети RMLP при трехкратной адаптации весов в каждом цикле для динамического объекта из второго эксперимента намного меньше, чем при однократной, а процесс обучения оказываете более коротким и приводит к сокращению величины погрешности до уровня
|
1 |
Оглавление
|