Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Раздел 12. НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ

Представленные в предыдущем разделе модели вывода Мамдани-Заде и TSK позволяют описать выходной сигнал многомерного процесса как нелинейную функцию входных переменных и параметров нечеткой системы (формула (11.34) в модели Мамдани-Заде и (11.43) в модели TSK). В литературе [67, 160] отмечается, что эти выражения позволяют аппроксимировать с произвольной точностью любую нелинейную функцию многих переменных суммой нечетких функций одной переменной. Формулы (11.34) и (11.43) имеют модульную структуру, идеально подходящую для системного представления в виде равномерной многослойной структуры, напоминающей структуру классических нейронных сетей. В дальнейшем мы будем называть их нечеткими нейронными сетями (англ.: neurofuzzy networks). Характерной особенностью этих сетей является возможность использования нечетких правил вывода для расчета выходного сигнала. В отличие от классических нечетких систем (англ.: fuzzy logic) в них вместо непосредственного расчета уровня активации конкретных правил вывода выполняется адаптивный подбор параметров функции фуззификации. Мы обсудим структуру таких сетей, а также алгоритмы обучения, способные адаптировать и линейные веса (аналогично тому, как это производилось в классических сетях), и параметры нечетких функций фуззификатора (аналогично параметрам гауссовской функции в сетях RBF).

12.1. Структура нечеткой сети TSK

Обобщенную схему вывода в модели TSK при использовании М правил и N переменных можно представить в виде

Условие реализуется функцией фуззифнкации, которая представляется обобщенной функцией Гаусса отдельно для каждой переменной

где представляет оператор . В нечетких сетях целесообразно задавать это условие в форме алгебраического произведения, из которой следует, что для правила вывода

При М правилах вывода агрегирование выходного результата сети производится по формуле (11.43), которую можно представить в виде

где Присутствующие в этом выражении веса интерпретируются как значимость компонентов определенных формулой (12.3). При этом условии формуле (12.4) можно сопоставить многослойную структуру сети, изображенную на рис. 12.1. В такой сети выделяется пять слоев.

• Первый слой выполняет раздельную фуззификацию каждой переменной определяя для каждого правила вывода значение коэффициента принадлежности в соответствии с применяемой функцией фуззифнкации (например, Это параметрический слой с параметрами подлежащими адаптации в процессе обучения.

• Второй слой выполняет агрегирование отдельных переменных определяя результирующее значение коэффициента принадлежности вектора (уровень активации правила вывода) в соответствии с формулой (12.3). Это слой непараметрический.

• Третий слой представляет собой генератор функции TSK, рассчитывающий значения . В этом слое также производится умножение сигналов на значения сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса для определяющие функцию следствия модели TSK.

• Четвертый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов у к а второй определяет сумму весов Это непараметрический слой.

Рис. 12.1. (см. скан) Структура нечеткой нейронной сети TSK

• Последний, пятый слой, состоящий из единственного выходного нейрона, - это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой (12.4). Выходной сигнал определяется выражением, соответствующим зависимости (11.43),

Это также непараметрический слой.

Из приведенного описания следует, что нечеткая сеть TSK содержит только два параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя будем называть нелинейными параметрами, поскольку они относятся к нелинейной функции (12.2), а параметры третьего слоя - линейными весами, так как они относятся к параметрам линейной функции TSK.

При уточнении функциональной зависимости (12.4) для сети TSK получаем:

Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция является линейной относительно переменных

При наличии входных переменных каждое правило формирует переменных линейной зависимости TSK. При М правилах вывода это дает линейных параметров сети. В свою очередь, каждая функция принадлежности использует три параметра подлежащих адаптации. Если принять, что каждая переменная х, характеризуется собственной функцией принадлежности, то при М правилах вывода мы получим 3MN нелинейных параметров. В сумме это дает линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.

На практике для уменьшения количества адаптируемых параметров оперируют меньшим количеством независимых функций принадлежности для отдельных переменных, руководствуясь правилами, в которых комбинируются функции принадлежности различных переменных. Если принять, что каждая переменная имеет различных функций принадлежности, то максимальное количество правил, которые можно создать при их комбинировании, составит: (при трех функциях принадлежности, распространяющихся на две переменные, это правил вывода). Таким образом суммарное количество нелинейных параметров сети при М правилах вывода уменьшается с в общем случае до Количество линейных параметров при подобной модификации остается без изменений, т.е.

1
Оглавление
email@scask.ru