Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

8.2.5. Результаты компьютерного моделирования

Сеть RMLP повсеместно применяется для моделирования динамических процессов в режиме “онлайн”. Типичным примером ее приложения может служить имитация нелинейных динамических объектов, для которых сеть RMLP выступает в роли модели, а алгоритм уточнения весов - в роли процедуры идентификации параметров этой модели. Идентифицированная модель объекта может в последующем использоваться для управления данным объектом. Именно по этой причине сети RMLP наиболее популярны для имитации систем управления машинами, устройствами и динамическими процессами [156]. В настоящем разделе мы обсудим подход к моделированию нелинейных динамических систем, предложенный в работах К. Нарендры [107]. В отличие от работ Нарендры будем использовать сеть с нелинейным выходным нейроном, описываемым сигмоидальной функцией активации. На первый взгляд нелинейность выходного нейрона осложняет проблему идентификации нелинейного объекта (из-за ограниченности выходного сигнала диапазоном меньшей динамики изменения сигнала, более сложного процесса обучения и т.п.). В действительности она имеет другие достоинства, которые отсутствуют у сети с линейным выходным нейроном: количество скрытых нейронов может быть существенно уменьшено, например, с в работах Нарендры до при обсуждаемом подходе; намного сокращается длительность обучения; в начальных фазах обучения и тестирования возникает меньше ошибок, связанных с нулевыми начальными значениями. Ограниченность выходного сигнала легко преодо-левается включением в структуру сети усилителя, масштабирующего значения, изначально нормализованные в интервале

Сеть обучалась с использованием программы RMLP, приспособленной для обучения в режиме “онлайн”. Обучение было основано на адаптивной идентификации нелинейных динамических объектов. Объект, описываемый известной нелинейной функцией, генерировал последовательность заданных сигналов в качестве реакции на возбуждение в виде векторов х, формируемых случайным образом. Сеть RMLP со структурой, изображенной

на рис. 8.1, использовалась в качестве модели этого объекта. В результате сравнения выходного сигнала этой модели с заданным сигналом рассчитывалось значение погрешности

управляющей процессом уточнения параметров нейронной сети. На рис. 8.2 показан способ включения сети при проведении экспериментов. Символом обозначен постоянный коэффициент усиления модуля, масштабирующего выходной сигнал сети таким образом, чтобы его динамический уровень лежал в том же диапазоне, что и уровень заданного сигнала

Рис. 8.2. Схема включения сети RMLP при решении задачи идентификации

Во всех численных экспериментах использовалась сеть со структурой 2-2-1. Вход системы состоял из одного входного узла и одного контекстного узла, вырабатывавшего копию задержанного на один такт выходного сигнала. Скрытый слой состоял всего из двух нейронов, а выходной слой - из одного нейрона. При реализации процесса обучения выполнялся описанный выше адаптивный подбор коэффициента обучения Уточнение весов проводилось в двух режимах.

В первом режиме предъявление каждой новой обучающей выборки сопровождалось однократным уточнением значений всех весов сети и переходом к следующей выборке. Этот режим будем называть в дальнейшем однократной адаптацией.

Во втором режиме каждая обучающая выборка вызывала многократное уточнение весов сети (предъявление обучающей выборки на вход сети сопровождалось изменением выходного сигнала, после этого уточнялись значения весов; повторная подача на вход сети сигнала обратного распространения ошибок при неизменной обучающей выборке приводила к очередному изменению выходного сигнала с соответствующим уточнением весов и т.д.). Этот режим обучения сети будем называть многократной адаптацией. Каждый процесс обучения сети начинался со случайных значений весов, равномерно распределенных в заданном интервале. В проводимых экспериментах это был интервал

Первый численный эксперимент был связям С динамической системой, предложенной в работе [107] и описываемой выражением

Дискретный входной сигнал задавался функцией

На рис. 8.3 представлена форма заданных сигналов, генерируемых динамической системой, определенной выражением (8.18). Из этого уравнения следует, что выходной сигнал системы будет ограничен при условии, что на входной сигнал также наложены ограничения. В экспериментах применялись обе методики уточнения весов — как однократной, так и многократной адаптации [156].

Рис. 8.3. Заданные сигналы динамического объекта, определенного выражением (8.18).

При использовании первой методики значения весов уточнялись после предъявления каждой обучающей выборки по алгоритму наискорейшего спуска с постоянным коэффициентом обучения (адаптивный подбор коэффициента обучения при однократной адаптации не имеет смысла). Результаты процесса обучения в виде изменений погрешности представлены на рис. 8.4. Они свидетельствуют, что погрешность обучения (уже после 20 циклов) быстро уменьшилась до несущественной величины, которая воспринималась только благодаря высокой точности идентификации системы.

Согласно второй методике значения весов уточнялись трижды на протяжении каждого цикла с применением адаптивного коэффициента обучения и значений коэффициентов График погрешности обучения для этого случая представлен на рис. 8.5.

На графике видно, что погрешность, особенно в первой фазе обучения, оказалась меньше, а процесс адаптации модели к реакциям объекта протекал быстрее, особенно в начале обучения. Следует подчеркнуть, что и в первом,

й во втором случае остаточная погрешность обучения стабилизировалась на определенном, достаточно низком уровне, являясь движущей силой механизма адаптации параметров модели.

Рис. 8.4. (см. скан) График обучения сети RMLP при однократной адаптации весов в каждом цикле для динамического объекта из первого эксперимента

Рис. 8.5. (см. скан) График обучения сети RMLP при трехкратной адаптации весов в каждом цикле для динамического объекта из первого эксперимента

Во втором эксперименте исследовалась нелинейная динамическая система, описываемая следующей зависимостью:

со входным сигналом Это динамический объект с нелинейностью «мерительного характера, неудобный для численного моделирования.

На рис. 8.6 приведен график изменения выходного сигнала объекта (заданных значений), описываемого выражением (8.19). Результаты обучения в виде графика погрешности при однократной адаптации весов представлены на рис. 8.7.

Рис. 8.6. (см. скан) Заданные сигналы динамического объекта, определенного выражением (8.19).

Погрешность обучения, принимавшая в начале процесса значения 4 - 5-го порядка, очень быстро (примерно за пять циклов) сократилась до остаточной величины, уменьшающейся в ходе обучения.

График погрешности обучения, соответствующий трехкратной адаптации весов, изображен на рис. 8.8. Погрешность обучения при трехкратной адаптации


Рис. 8.7. (см. скан) График обучения сети RMLP при однократной адаптации весов в каждом цикле для динамического объекта из второго эксперимента

Рис. 8.8. (см. скан) График обучения сети RMLP при трехкратной адаптации весов в каждом цикле для динамического объекта из второго эксперимента


намного меньше, чем при однократной, а процесс обучения оказываете более коротким и приводит к сокращению величины погрешности до уровня

1
Оглавление
email@scask.ru