Главная > Справочник по прикладной статистике. Том 2
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

17.7. МЕТРИЧЕСКОЕ ШКАЛИРОВАНИЕ: ДРУГИЕ МЕТОДЫ

Настоящий раздел является продолжением предыдущего: в нем рассматриваются критерии для построения ординации по выборочной матрице, элементы которой считаются расстояниями. Заменим симметричную матрицу М общего вида на симметричную матрицу с элементами и нулями на диагонали. Данные — положительные элементы и хотя, вообще говоря, их можно рассматривать как расстояния, нет никакой уверенности в том, что они представляют собой евклидовы (или другие) расстояния между точками в реальной конфигурации.

В этой области известно очень немного аналитических результатов, но существуют алгоритмические процедуры. Разница между аналитическим и алгоритмическим решениями достаточно иллюзорна, поскольку алгебраический подход к классическому метрическому шкалированию, основанный на собственных значениях, сам опирается на численные алгоритмы. Численные алгоритмы, реализующие обсуждаемые далее критерии, не имеют хорошо разработанной алгебраической теории, поэтому они менее открыты для анализа. В этом отношении методы, рассматриваемые в данном разделе, гораздо менее обоснованы, чем те, которые обсуждались в разделе 17.6.

В дальнейшем мы сосредоточим внимание на поиске множества координат X в пространстве размерности к, которые порождают евклидовы расстояния Будем предполагать, что элементы —матрицы А аппроксимируют данные Один из возможных подходов — подобрать X, минимизирующую Это — шкалирование по методу наименьших квадратов, а сам критерий иногда называют стрессом (STRESS) [см. в разделе 17.8 соответствующее определение для неметрического шкалирования]. Если наблюдения независимы и одинаково нормально распределены, то за критерий принимается максимум правдоподобия. Дифференцирование этого критерия по элементам матрицы X приводит к нормальным уравнениям относительно элементов матрицы X:

где — симметричная матрица с нулевыми суммами элементе строкам и столбцам; для Элементы матрицы — функции от А, а следовательно, и от X, поэтому нормальные уравнения нелинейны. Прежде чем прокомментировать методы их численного решения, приведем несколько простых результатов. Сначала отметим, что если X является решением, то где Н — ортогональная матрица, — произвольный вектор, тоже является решением. Таковы условия (вращение и параллельный перенос), обеспечивающие сохранность расстояний между строками матрицы X, а следовательно, и инвариантность Хотя при решении нормальных уравнений на X не налагаются ограничения, можно предположить, что X задает конфигурацию в удобном виде в смысле положения центра и ориентации.

Например, из условия нулевой суммы элементов X по столбцам следует, что центрированная матрица расстояний, соответствующая [см. в разделе 17.6]. Умножив нормальное уравнение на получим

Это запись нормальных уравнений через наблюдаемые и аппроксимирующие расстояния: уравнений для координат. Уравнения могут интерпретироваться как идентичность наблюдаемых и аппроксимирующих расстояний, но они не представляют интереса. Важный результат следует из условия

Итак, или . Отсюда при минимальном значении критерия имеем

что может использоваться как основа для дисперсионного анализа. При этом общая сумма квадратов (наблюдаемых расстояний) равна сумме квадратов аппроксимирующих расстояний плюс сумма квадратов остаточных расстояний. Поскольку остаточная сумма квадратов должна быть неотрицательной, среднее из всех аппроксимирующих расстояний никогда не превышает (и почти всегда меньше) среднего из всех наблюдаемых расстояний. Для большего сходства допускается помещение начала координат в одну из точек выборки, что дает

Для решения уравнения относительно X предлагается два метода. В первом используется одна из процедур многоцелевой оптимизации, разработанных специалистами по численному анализу [см., например, Murray (1972)]. Второй подход более эвристический, он опирается на работу Гуттмана [см. Guttman (1968)]. Имеем где — симметричная матрица с нулевой суммой по строкам (и столбцам), Если X задана в центрированном виде, то можно записать нормальное уравнение:

Оно может служить основой для итеративной последовательности

где X — начальное приближение, которое может быть задано способом, описанным в разделе 17.6. Заметим, что если центрирована, то тоже центрирована. Показано, что эта последовательность никогда не увеличивает значение критерия С) и в нормальной ситуации сходится к решению. Скорость сходимости может быть мала, но ее можно увеличить путем выбора константы а в последовательности

Выбор с малым положительным значением 8 квадратично увеличивает скорость сходимости и сокращает количество необходимых итераций. Процедура в целом очень близка к методу вычисления собственных векторов с помощью мультипликативного итеративного процесса, описанного выше. Для улучшения сходимости можно использовать вариант метода улучшения сходимости Эйткена (Aitken). Он заключается в аппроксимации трех векторов, полученных на трех последовательных итерациях, параболой. Основное различие состоит в том, что матрица сама меняется на каждой итерации. Из нормальных уравнений видно, что столбцы матрицы X являются собственными векторами матрицы соответствующими единичным собственным значениям.

Другой возможный итеративный способ нахождения решения — изменить дистанционный вид нормальных уравнений так, чтобы получить

Такая процедура обладает важными свойствами. Например, если центрирована по строкам и столбцам, то тоже центрирована и в случае точного соответствия Кроме того, если матрица имеет ранг к, то все последующие центрированные матрицы в последовательности имеют тот же ранг. Допустимо работать полностью в терминах расстояний. Тогда можно избежать затруднений, связанных с произвольным вращением и переносом конфигурации X. Заметим, однако, что нет гарантии, что останется симметричной, но если процесс сходится к решению, то должна сходиться к симметричной матрице. Однако о свойствах сходимости метода ничего не известно.

Другой критерий, применяемый в метрическом шкалировании, — найти конфигурацию X, минимизирующую Такой подход называют квадратичным шкалированием по методу наименьших квадратов, а критерий иногда называют стрессом (STRESS). Нормальные уравнения

напоминают нормальные уравнения для шкалирования по методу наименьших квадратов. — симметричная матрица с нулевой суммой элементов по строкам (и столбцам), Как и ранее,

В данном случае

Мы приходим к дисперсионному анализу квадратов расстояний:

Хотя нормальные уравнения в виде содержат только квадратичную форму от метод прямого их решения неизвестен, а итеративный способ поиска аппроксимирующей последовательности не распространяется на Поэтому для нахождения численных решений следует применять общие методы оптимизации.

Критерии обычно задаются в форме с весовыми коэффициентами:

и

Веса могут быть заданы или вычислены как функции от расстояний. Хотя иногда желательно веса выразить через неизвестные аппроксимирующие расстояния привычнее и, конечно, удобнее использовать наблюдаемые расстояния. Обычно полагают приписывая тем самым больший вес малым расстояниям и, следовательно, точности локального отображения, или что направлено на точность передачи больших расстояний. Отображение, минимизирующее называют нелинейным мэппингом (mapping). Нормальные уравнения для легко модифицировать с учетом весовых коэффициентов, и итеративная последовательность для минимизации может быть тоже модифицирована.

Существует и другая формулировка критериев. Допустим, вычислен для некоторой конфигурации (и не обязательно соответствует минимуму). В этом случае можно промасштабировать координаты и получить новые расстояния в -мерном пространстве. Тогда

его можно минимизировать, выбрав

что приводит к

где

Теперь имеет вид коэффициента корреляции, , следовательно, можно уменьшить для точке минимума дальнейшее уменьшение невозможно, следовательно, Это то же условие, которое вытекает из но в форме с весовыми коэффициентами. При таком подходе видно, что минимизация эквивалентна максимизации последний достигает максимального значения

Аналогичные рассуждения приводят к выражению для

где

поэтому минимизируется при максимизации последнее достигает максимального значения при

Предлагается другой тип метрического шкалирования, называемый параметрическим мэппингом. Здесь критерий минимизации

Взвешенная нецентрированная корреляция между может быть определена как

Положив , получаем

откуда следует, что при минимизации максимизируется Рассуждения, подобные проведенным выше для шкалирования по методу наименьших квадратов с множителем X, приводят к выводу, что максимизация эквивалентна минимизации критерия взвешенных наименьших квадратов для обратных квадратов расстояний, т. е.

. В точке минимума

и это сопоставимо с другими соотношениями рассматриваемого дисперсионного анализа. Ясно, что параметрический мэппинг идентичен шкалированию по методу наименьших квадратов на квадратах расстояний с весом при условии, что сравнимы по величине. В данном методе малые веса приписываются большим расстояниям, а большие веса — малым. Это соответствует исходной идее метода, основанного на индексе непрерывности, где важна точность передачи малых расстояний.

В разделе 17.6 было показано, что классическое шкалирование матрицы М дает максимальное количество действительных осей, где количество положительных собственных значений матрицы . В данном разделе матрица М заменена на матрицу Какая же размерность достаточна для аппроксимации в смысле метрического шкалирования? Точного ответа на этот вопрос нет, но существует мнение, что не более а может быть, и меньше. Иначе говоря, если попытаться аппроксимировать ее в пространстве размерности более то значение критерия не будет уменьшено и Приведем несколько аргументов в поддержку этого предположения. Во-первых, при все методы дают точное приближение в пространстве размерности Во-вторых, для элементарно можно доказать, что решение может быть найдено в пространстве размерности не более Эта граница может быть достигнута только при но она не всегда достигается. Полученные совсем недавно и еще не опубликованные результаты могли бы служить формальным доказательством справедливости данного утверждения.

1
Оглавление
email@scask.ru