Главная > Идентификация систем. Теория для пользователя
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Приложение II. Некоторые статистические методы линейной регрессии

Цель этого приложения двоякая: первая — напомнить о статистических методах как о теоретическом фундаменте части II этой книги, вторая - рассмотрение методов, алгоритмов, теоретического анализа и статистических свойств оценок линейной регрессии как прототипов более сложных структур, обсуждаемых в части II. Это приложение можно рассматривать, таким образом, как предварительное ознакомление с идеями и анализом, максимально свободными от технических деталей. Приложение составлено так, что его можно читать независимо от остальной части книги (и наоборот).

11.1. Линейные регрессии и оценка МНК

Линейные регрессии относятся к наиболее часто употребляемым в статистике, а метод наименьших квадратов уходит корнями в классическую работу Гаусса 1809 года [128]. Эти методы изложены во многих учебниках, из которых упомянем книги Рао [335, гл. 4], Дрейпера и Смита [101] и Дениела и Вуда [90].

Понятие регрессии. Статистическая теория регрессии связана с задачей предсказания величины у на основе информации, полученной при измерении других величин Например, зависимая переменная у могла бы представлять собой величину урожая, в то время как независимые переменные (регрессоры) давали бы информацию о количестве выпавших осадков, солнечных дней, качестве почвы и т.п. Известно огромное количество таких ситуаций во всех областях человеческой деятельности. Динамические системы, рассмотренные в части 1, образуют, очевидно, другой пример применения понятия регрессии, в которому — выходная величина

системы (в данное время) а содержат информацию о прошлом поведении. Обозначим

Задача состоит в нахождении функции регрессоров такой, чтобы разность

была мала (т.е. чтобы было хорошим предсказанием для Если у и описываются как случайные величины, можно, например, стремиться к минимизации

Хорошо известно, что функция минимизирующая (11.1), представляет собой условное математическое ожидание у при данных

Эта функция известна также как функция регрессии или регрессия у на

Другой подход состоит в поиске функции имеющей максимальную корреляцию По существу ответом является функция регрессии. См. задачу

Линейные регрессии. Если свойства величину и неизвестны, определить функцию регрессии априори невозможно. Ее приходится оценивать по данным и, следовательно, она должна быть удобным образом параметризована. Наиболее интенсивно изучался случай линейной параметризации. При этому приближается линейной комбинацией величин

Обозначая вектор

(11.3) можно переписать в виде

Замечание. Конечно, можно также рассмотреть близкую функцию

Однако, расширяя регрессоры константой соответственно, вектор параметров в, случай сводим к

Оценки наименьших квадратов. Обычно мы не располагаем точной априорной информацией относительно соотношения между и Вместо этого мы имеем данные истории, набор предыдущих наблюдений соответствующих друг другу величину и Удобно перенумеровать эти величины, используя аргумент

Используя эти данные, можно заменить дисперсию выборочной

В линейном случае имеем, таким образом, вместо

и теперь в удобно выбирать как аргумент, минимизирующий

Это - оценка наименьших квадратов. В качестве функции предсказания, основанного на предыдущих наблюдениях, можно, таким образом, использовать

Отметим, что этот метод выбора в имеет смысл независимо от того, рассматриваем ли мы задачу в рамках стохастического подхода. Параметр в является величиной, дающей наилучшее предсказание по полученным данным. Эту прагматическую интериретацию оценки наименьших квадратов дал еще ее автор К.Ф. Гаусс:

В заключение принцип, по которому сумма квадратов разностей между наблюдаемыми и вычисляемыми величинами должна быть минимальна, может рассматриваться следующим образом независимо от исчисления вероятностей [128].

Важной чертой является то, что эта функция квадратична по в. Следовательно, ее можно минимизировать аналитически (см. задачу Находим, что любая оценка удовлетворяющая уравнению

доставляет глобальный минимум функции Эта система линейных уравнений известна как нормальные уравнения. Если матрица в левой части этого уравнения обратима, получаем выражение оценки наименьших квадратов

Формирование матрицы. Иногда выражения более удобно записывать в матричной форме. Определимых -вектор-столбец

и -матрицу

Тогда критерий можно переписать как

Нормальные уравнения принимают вид

а оценка

В (11.15) можно выделить псевдообратную к (по матрицу:

Таким образом, уравнение дает псевдообратное решение для переопределенной системы линейных уравнений

Геометрическая интерпретация. Решению наименьших квадратов можно дать геометрическую интерпретацию, которая полезна для определения некоторых свойств. Положим

и рассмотрим как векторы в пространстве Задача, выраженная соотношением (11.17), состоит в нахождении линейной комбинации векторов приближающей наилучшим образом.

Рис. II.]. Оптимальное среднеквадратическос решение как ортогональная проекция

Пусть -мерное подпространство, натянутое на векторы Если оказывается, что вектор принадлежит этому подпространству, его можно описать как единственную линейную комбинацию векторов В противном случае, наилучшим приближением в подпространстве является такой вектор в который имеет наименьшее расстояние от т. е., как хорошо известно, ортогональная проекция на См. рис. А

Обозначим эту проекцию Так как это ортогональная проекция, имеем

Это значит, что

и, поскольку имеем для некоторых координат

Отсюда

что в матричной форме имеет вид

Взвешенные наименьшие квадраты. В критерии различным наблюдениям придан одинаковый вес. Иногда приходится рассматривать взвешенный критерий

Это может иметь две причины.

1. Наблюдения у могут быть различной надежности. Некоторые наблюдения могут, например, содержать большие возмущения и, следовательно, должны иметь меньшие веса. (11.20)

2. Наблюдения могут быть изменяющейся информативности. Возможно, нет уверенности, что линейная модель имеет место во всей области изменения

Наблюдение, относящееся к такой подозрительной области, даже если оно точное, должно, следовательно, иметь меньший вес. (11.21)

Обозначив диагональную матрицу

критерий (11.19) можно переписать в виде

Нетрудно проверить, что минимум достигается при значении аргумента

По некоторым причинам можно также использовать критерий (11.23) для произвольной симметрической, положительно определенной матрицы При этом предыдущая формула (11.24) по-прежнему верна. Чтобы понять, что происходит, в терминах исходных измерений, удобно произвести факторизацию

где нижняя треугольная матрица с единицами на диагонали:

диагональная матрица, как в Тогда принимает вид

Элементы этих матриц равны

Таким образом, имеем

Следовательно, влияние общей нормы в (11.23) сводится к тому, что исходные наблюдения должны обрабатываться фильтром

Невязки и ошибки предсказания. Разность

представляет собой ошибку, соответствующую значению в. Будем называть эту ошибку ошибкой предсказания, соответствующей параметру в. Вектор ошибок предсказания равен

а критерии (11.7) и (11.23) являются квадратичными нормами этого вектора. Нормы; не являющиеся диагональными, соответствуют суммам квадратов профильтрованных ошибок предсказания, аналогично

Будем называть

невязками (остатками), связанными с моделью

Рассмотрим теперь дня простоты случай Обозначим вектор невязки

а предсказание выходной величины

Из геометрической интерпретации известно, что Ем и ортогональны. Значит,

что также можно записать в виде

показывающем, каким образом сумма квадратов наблюдений расщепляется на суммы квадратов предсказаний

и невязок

Идеальной представляется ситуация, когда по предсказанным значениям выходной величины ум можно описать и изменение большей части действительных выходных величин. Отношение

является мерой доли общего изменения у, описываемого регрессией. Оно известно как множественный коэффициент корреляции (квадратичный) и часто выражается в процентах. Иногда прежде, чем вычислять среднее значение у вычитают из у и у.

Качество оценки параметров. Чтобы исследовать свойства оценки допустим, что действительные измерения могут быть описаны равенством

где некоторая последовательность возмущений или ошибок пока еще неуказанной природы. Если эта последовательность имеет некоторые приятные (описанные ниже) свойства, естественно называть "истинным параметром”. Если обозначить

можно записать (11.39) как

Подставляя это выражение в получаем

где

что в случае записывается также в виде

Это выражение для ошибки по параметру имеет чисто алгебраическую природу и справедливо для произвольных последовательностей Если и квазистационарны, видно, что при стремящемся к бесконечности, стремится к

где использовано обозначение (2.62). Если матрица (0) обратима (это соответствует предположению, что последовательность имеет полный ранг), а равна нулю (что соответствует определенной независимости между

регрессорами и возмущением), то будет стремиться к истинному значению с ростом числа наблюдений.

Для того чтобы можно было сказать большее относительно свойств естественно описывать последовательность возмущений с вероятностных позиций. Это будет сделано в следующем разделе.

1
Оглавление
email@scask.ru