Главная > Курс теории информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

§ 2.4. Ортогональные преобразования случайных векторов

Из рассмотрения относительной энтропии -мерных распределений вероятностей (системы случайных величин) видно, что при возникают серьезные технические трудности, если только с. в. не являются статистически независимыми. В этом параграфе будет показано, что многие трудности можно преодолеть с помощью преобразования системы координат, при котором данная система с. в. переходит в систему некоррелированных с. в.

Пусть система Мы будем рассматривать эту систему как случайный вектор в -мерном евклидовом пространстве. Пусть корреляционная матрица вектора X, где корреляционные моменты, определяемые соотношением (2.3.19). Здесь мы не будем предполагать, что обязательно отличен от нуля, т. е. рассматриваются и вырожденные распределения.

Всякая корреляционная -матрица является симметрической, т. е. , где символ транспонирования (замены местами строк и столбцов), и неотрицательно определенной. Последнее означает, что для любого ненулевого вектора

где равенство — следствие определения матричного произведения вектора-строки матрицы К и вектора-столбца Если в (2.4.1) имеет место строгое неравенство, то матрица К называется положительно определенной. Неотрицательная определенность корреляционной матрицы следует из того, что ее можно представить в виде

где вектор математических ожиданий и справа написано математическое ожидание произведения вектора-столбца на вектор-строку т. е. математическое ожидание матрицы размера Для любого неслучайного вектора z

где использована перестановочность взятия математического ожидания и суммирования, а также введена с. в.

Известно (см., например, [1]), что для любой симметрической матрицы существует такая система ортонормальных векторов что

Действительные числа называются собственными числами, а векторы собственными векторами матрицы К, причем — собственный вектор, соответствующий собственному числу Систему равенств (2.4.5) можно записать в матричном виде:

где

матрица, строки которой — собственные векторы матрицы диагональная матрица с элементами

на главной диагонали. В силу ортонормальности собственных векторов матрица является ортогональной, т. е.

где единичная -матрица.

Используя хорошо известные свойства определителей и, в частности, то, что можно получить, что

Всякая квадратная -матрица А задает некоторое линейное преобразование -мерного векторного пространства в себя, при котором вектор переводится в вектор Рассмотрим линейное преобразование, задаваемое ортогональной матрицей Такое преобразование называется ортогональным. Для любого вектора х

Заметим, что всякое линейное преобразование переводит нулевой вектор в себя, а всякое ортогональное преобразование сохраняет длину вектора. Действительно, если то

есть длина вектора х. Очевидно,

т. е. длина преобразованного вектора у равна длине исходного вектора х. Это свойство ортогонального преобразования позволяет его интерпретировать как вращение системы координат -мерного векторного пространства вокруг начала координат.

Пусть X — случайный вектор с корреляционной матрицей ортогональная матрица, образованная собственными векторами матрицы Пусть случайный вектор, получающийся в результате ортогонального преобразования с матрицей из случайного вектора

Обозначим через корреляционную матрицу вектора К. Легко видеть (см. (2.4.2) и (2.4.8)), что

где — векторы математических ожиданий.

Таким образом, корреляционная матрица вектора является диагональной, причем элементы главной диагонали суть

собственные числа матрицы Это означает, что с. в. являются некоррелированными и дисперсия с. в.

т. е. равна собственному числу корреляционной матрицы Если X — гауссовский случайный вектор, то У — также гауссовский случайный вектор. При этом случайные величины являются независимыми и гауссовскими, т. е.

где

Мы показали, что любую систему гауссовских с. в. с помощью ортогонального преобразования (поворота системы координат) можно преобразовать в систему независимых гауссовских с. в. Верно и обратное, если система независимых гауссовских с. в. с математическими ожиданиями ту, туп и дисперсиям» произвольная ортогональная матрица, то

есть гауссовский случайный вектор, компоненты которого имеют математические ожидания

и корреляционная матрица которого есть

При этом строки матрицы есть собственные векторы, а собственные числа матрицы Если то матрица невырождена, т. е. и система с. в. имеет невырожденное -мерное гауссовское распределение с ф. п. в. (2.3.25).

Пример 2.4.1. Пусть гяуссовский случайный вектор на плоскости с в. (2.2.36). Предположим, что тогда коррелляциоиная матрица этого вектора есть

где коэффициент корреляции с. в. Нетрудно проверить, что векторы

собственные векторы матрицы соответствующие собственным числам

Ортогональное преобразование, задаваемое ортогональной матрицей

переводит случайный вектор X в случайный вектор с независимыми гауссовскими компонентами Очевидно, что математические ожидания и дисперсии этих с. в.

Заметим, что ортогональное преобразование есть обратимое преобразование, поскольку

В следующем примере мы покажем, как можно использовать ортогональные преобразования для вычисления средней взаимной информации между гауссовскими случайными векторами.

Пример 2.4.2. Пусть гауссовский случайный вектор корреляционной матрицей пусть такой же вектор с корреляционной матрицей который будем считать статистически независимым от вектора . В отличие от примера 2.3.3, здесь будет предполагаться, что диагональная матрица с одинаковыми ненулевыми элементами на главной диагонали. Нас будет интересовать средцяя взаимная информация между векторами Хотя вычислено в примере 2.3.3, мы снова рассмотрим вычисление этой величины с использованием ортогонального преобразования.

Пусть ортогональная матрица, соответствующая матрице Тогда

где собственные числа матрицы к

Отсюда следует, что

т. е. ортогональная матрица диагонализирует также корреляционную матрицу вектора У, и, следовательно, вектор имеет независимые

компоненты с дисперсиями Далее из обратимости ортогонального преобразования вытекает, что

где второе равенство есть следствие того, что ортогональное преобразование не меняет относительную энтропию (см. задачу и независимости векторов а третье равенство — следствие того, что относительная энтропия системы независимых с. в. равна сумме относительных энтропий каждой из с. в. системы. Нетрудно усидеть, что в рассматриваемом случае выражения (2.3.35) и (2.4.29) совпадают.

1
Оглавление
email@scask.ru