Пред.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
4.4.4. Эффективное оперативное управлениеПервоначально многослойные нейронные сети и алгоритм обратного распространения были разработаны для задач распознавания образов, где обучающие образцы являются статическими, процедура обучения и функция ошибки — однозначные, и обучение в реальном времени не требуется. В управлении обучающие образцы для нейронной сети изменяются со временем, возможно несколько алгоритмов обучения и функций ошибки, а обучение в реальном времени необходимо. Медленная сходимость — основной недостаток многослойных нейронных сетей, серьезно ограничивающий практическое применение нейронного управления. Предложено несколько подходов для ускорения сходимости в нейронном управлении. Перечислим некоторые из них. 1. Разработка эффективных алгоритмов обратного распространения. 2. Встраивание знаний о структуре объекта управления в структуру многослойных нейронных сетей. 3. Применение гибридных сетей, в которых искусственные нейронные сети связываются со структурами управления, полученными на основе других (отличных от нейронных) технологий. 4. Предварительное обучение и эффективные процедуры инициализации. Ниже рассматриваются новые алгоритмы оперативного обучения, направленные на сокращение времени обучения нейроконтроллеров. Эти алгоритмы основаны на разделении понятий частоты дискретизации и частоты выполнения обучающих итераций (частоты обучения). В системах управления с дискретным временем период дискретизации Т обычно выбирается по следующему эмпирическому правилу: величина Однако во многих практических случаях превышение некоторого предела частоты дискретизации недопустимо или нежелательно. Например, в обычных промышленных химических установках, как правило, интерес представляют процессы, связанные с большими величинами временных констант. При этом не имеет смысла использовать высокие частоты дискретизации: это может привести к избыточности информации. Использование очень высоких частот дискретизации может привести к полной перестройке системы управления и усложнить ее; может потребоваться учитывать частные процессы и переходные явления, которые при меньших частотах дискретизации можно было бы игнорировать. Другой пример систем, в которых нельзя использовать произвольно высокую частоту дискретизации — распределенные системы управления, в которых интервалы передачи информации на устройство управления и приема информации с него не зависят от самого устройства управления. Хотя период дискретизации Т задает базовый темп работы системы управления, в системах с итерационным обучением частота обучающих операций может рассматриваться как еще одна основа для отсчета времени. На практике период дискретизации Т обычно значительно превышает время 4.4.4.1. Обучение эмулятораПредположим, что в момент времени процесса в предшествующие моменты времени и
Пример 4.4.1. Пусть только что получена величина
Эти входные векторы и величины
4.4.4.2. Обучение контроллера: подход на основе ошибки инверсно-прямогоуправленияРассмотрим инверсно-прямую конфигурацию управления (рис. 4.3.10). Предположим, что в момент времени памяти хранится текущее значение выхода
где
При
соответствующий 5 — член для
Следует отметить, что функция ошибки (4.4.14) не включает в себя непосредственно координату ошибки объекта управления. В связи с этим обучение объекта управления непосредственно не повышает эффективность управления, однако такой способ обучения позволяет достичь хорошего обобщения в пространстве параметров управления. На практике обучение нейроконтроллеров, основанное только на инверсно-прямом подходе, дает плохие результаты: выход нейроконтроллера устанавливается на некоторой постоянной величине, в результате чего ошибка обучения оказывается нулевой, однако характеристики управления оказываются явно плохими. Этот недостаток присущ всем методам обучения, основанным на минимизации ошибки инверсного управления. Его можно устранить, используя сочетание таких методов управления с другими, непосредственно минимизирующими ошибку системы регулирования. Это показано наследующем примере. Пример 4.4.2. Пусть текущее отображение, выполняемое нейроконтроллером (равенство (см. скан) Рис. 4.4.1. Простые схемы множественного обучения: (а) НЭОУ (пример 4.4.1); (b) нейроконтроллер, объединяющий инверсно-прямое управление и схемы эмулятора и контроллера (пример 4.4.2) [52]
Эти векторы и входные величины 4.4.4.3. Обучение контроллера: подход на основе прогнозируемой ошибки выходаБолее сложный подход к множественному обучению нейроконтроллера можно получить на основе конфигурации из эмулятора и контроллера, рассмотренной в разделе 4.4.3.3. Предположим, что в момент времени
Однако с момента времени, когда вектор
Это означает только, что последняя величина
где второй верхний индекс в обозначении
Для лучшего понимания процесса обучения нейроконтроллера представим себе нейроконтроллер и НЭОУ как одну многослойную сеть. В момент времени
В обучающей конфигурации, показанной нарис. 4.4.2, а,
Рис. 4.4.2. Подход на основе прогнозируемой ошибки выхода. (а) Схема обучения, использующая расхождение между опорным сигналом и выходом НЭОУ. (b) Множественное обучение нейроконтроллера на основе прогнозируемой ошибки выхода (пример 4.4.3) [52] нейроконтроллер обучается на основе ошибки, представляющей собой расхождение между опорным сигналом и выходом НЭОУ, а не расхождение между опорным сигналом и выходом объекта управления, как в схеме прямого адаптивного управления, приведенной на рис. 4.4.2, Ь. Предыдущие значения величины выхода объекта управления Пример 4.4.3. Пусть
Возможная процедура обучения для момента времени
|
1 |
Оглавление
|