Главная > СООТНОШЕНИЯ НЕОПРЕДЕЛЕННОСТЕЙ ГЕЙЗЕНБЕРГА И ВЕРОЯТНОСТНАЯ ИНТЕРПРЕТАЦИЯ ВОЛНОВОЙ МЕХАНИКИ. (А. ДЕ БРОЙЛЬ)
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Рассмотрим теперь две случайные величины X и Y и предположим (это важно для будущих приложений в волновой механике), что измерение одной из этих величин никак не влияет на значения другой и что возможно одновременное измерение этих двух величин. Тогда можно ввести функцию распределения F(x,y), такую, что вероятность при одновременном измерении величин X и Y (или при двух отдельных измерениях X и Y в любом порядке) получить значения, не превышающие X=x и Y=y, будет равна F(x,y). Как и в предыдущем случае, необходимо положить
F(,y)=F(x,)=F(,)=0,F(+,+)=1.

Функция F должна всегда возрастать с увеличением x и y. Этот рост может быть скачкообразным или непрерывным. В плоскости переменных x,y функцию F(x,y) можно рассматривать как сумму масс, распределенных по этой плоскости, взятых во всех точках, абсциссы которых меньше заданных значений x и y. Массы могут быть локализованы в отдельных точках и на отдельных линиях плоскости или распределены непрерывно в определенных областях плоскости. Если F(x,y) — всюду непрерывная функция, то можно ввести плотность распределения ρ(x,y), такую, что
F(x,y)=0xdx0ydyρ(x,y),

и все величины можно будет выразить через ρ(x,y). В случае же дискретного распределения точек или линий F на плоскости (x,y) используем интеграл Стилтьеса
F(x,y)=dF(x,y),

где величина dF(x,y) равна ρ(x,y)dxdy в случае непрерывного распределения и принимает конечные значения в точках или на линиях, где имеется скачок вероятности.
Моменты распределения вероятностей
Мы можем здесь по-прежнему ввести моменты, но с учетом специфики двух переменных. Можно написать
mxky=+kxkdF(x,y),

где mxkk0=mxk и mx0yl=my.
В частности, mx=x¯,my=y¯,mx2=x2, В случае непрерывного распре деления имеем
mxkyl=kxkρ(x,y)dxdy.

Характеристическая функция
Характеристическая функция может быть введена как естественное обобщение соответствующего определения в случае одной переменной, а именно
как
φ(u,v)=ei(ux+vy)dF(x,y),
что в случае непрерывного распределения приводит к выражению
φ(u,v)=ei(ux+vy)ρ(x,y)dxdy,

а в случае дискретного распределения — к выражению
ρ(u,v)=n,mPnmexp[i(uxn+vym)],
где Pnm — вероятность обнаружения пары значений X=xn,Y=ym.
Здесь остаются справедливыми и формулы обратного преобразования. Так, например, в случае непрерывного распределения имеем
ρ(x,y)=14π2i(ux+vy)φ(u,v)dudv
(формула обратного преобразования Фурье).
В общем случае
F(x,y)F(x0,y0)=limUVUUVVexp(iux0)exp(iux)iu××exp(ivy0)exp(ivy)ivφ(u,v)dudv

Эти формулы показывают, что знание характеристической функции эквивалентно знанию функции распределения.

Как и в случае одной переменной, можно ввести моменты, если только они существуют, т. е. если сходятся соответствующие интегралы. Разложение функции φ(u,v) в ряд Маклорена имеет вид
φ(u,v)=φ(0,0)+uφu(0)+vφv(0)++12[u2φu2(0)+2uvφuv(0)+v.2φv2(0)]+

В то же время по определению функции φ(u,v) имеем
φ(u,v)=1+i(mxu+myv)+i22(mx2u2+2mxyuv+2my2v2)+

Сравнивая почленно эти два выражения, получаем

В этих формулах моменты выражаются через производные функции φ, и, следовательно, если моменты существуют, то их знание эквивалентно знанию функции φ(u,v), т. е. знанию распределения вероятностей.
Можно, очевидно, ввести для переменных X и Y дисперсии
σx2=mx2mx2,σy2=my2my2.

Введем вторую характеристическую функцию
Φ(u,v)=lnφ(u,v)=lni(ux+vy)dF(x,y).

Ее разложение в ряд Маклорена имеет вид
Φ(u,v)=i(umx+vmy)+i22(σx2u2+2rσxσyuv+σy2v2)+,

где коэффициент mxymxmy при 2uv мы записали в виде rσxσy. Таким образом, мы фактически ввели «козффициент корреляции» r :
r=mxymxmyσxσy.

Мы видим, что этот козффициент характеризует степень независимости переменных X и Y. Для среднего значения величины [(xx¯)+λ(yy¯)]2 находим σx2+2λ(xx¯)(yy¯)+λ2σy2, и, так как по определению эта величина должна быть, очевидно, неотрицательна, дискриминант ((xx¯)(yy¯)2σx2σy2 предыдущего выражения по отношению к переменной λ должен быть меньше нуля или равен нулю. Отсюда.
(xx¯)(yy¯)=xyx¯y¯=mxymxmy=rσxσy,
т. е. (r21)σx2σy20 и |r|1. Таким образом, коэффициент корреляции по абсолютной величине не может быть больше единицы.

Маргинальные и условные распределения вероятностей
Если нас интересуют только значения величины X, то можно ввести функцию распределения
FX(x)=dyF(x,y),

где интеграл берется по прямой, параллельной оси y, с абсциссой x. Точно так же, если интерес представляют только значения величины Y, то соответствующая функция распределения имеет вид
FY(y)=dxF(x,y),

где интеграл берется по прямой, параллельной оси x, с ординатой y.
Функции FX(x) и FY(y) — это маргинальные функции распределения вероятностей. Соответствующие характеристические функции равны
φX(u)=eiuxdFX(x)=iuxdF(x,y)=φ(u,0),φY(v)=φ(0,v).

В случае непрерывного совместного распределения, когда dF(x,y)= =ρ(x,y)dxdy, вводятся маргинальные плотности распределения
ρX(x)=ρ(x,y)dy,ρY(y)=ρ(x,y)dx.
В случае дискретного совместного распределения можно ввести маргинальные вероятности
PX(xn)=mP(xn,ym),PY(ym)=nP(xn,ym).

В случае независимых величин X и Y по теореме об умножении вероятностей (я предполагаю, что ее доказательство известно читателю) можно написать F(x,y)=FX(x)FY(y), что в случае непрерывного совместного распределения приводит к формуле ρ(x,y)=ρX(x)ρY(y), а в случае дискретного — к формуле P(xn,ym)=PX(xn)PY(ym). Но в общем случае, когда величины X и Y не являются независимыми, по теореме об умножении вероятностей имеем
dF(x,y)=dFX(x)dFY(X)(x,y),dF(x,y)=dFY(y)dFX(Y)(x,y).

Здесь dF(X) есть функция распределения вероятностей значений величины Y, соответствующих значению x величины X, а dFX(Y)(x,y) — функция распределения вероятностей значений величины X, соответствующих значению y величины Y. Такие вероятности и такие распределения вероятностей называются условными.

В случае непрерывного совместного распределения вводятся условные плотности распределений ρX(Y)(x) и ρY(X)(y), такие, что
ρ(x,y)=ρX(x)ρY(X)(x,y),ρ(x,y)=ρY(y)ρX(Y)(x,y).

В случае дискретного совместного распределения можно ввести условные вероятности PX(Y)(xn) и Pi(X)(ym), такие, что
P(xn,ym)=PX(xn)PY(X)(xn,ym),P(xn,ym)=PY(ym)PX(Y)(xn,ym).

Для условных распределений можно определить условные моменты и условные дисперсии. Например,
y(X)=(m1)Y(X)=yρY(X)(x,y)dy=f(x),(σY(X))2=(yy(X))2ρY(X)(x,y)dy=g(x),

и эти величины являются функциями x.
Функция f(x) есть «регрессия» случайной величины Y на случайную величину X, а функция g(x) — это условная дисперсия величины Y при X=x. Если g не зависит от x (дисперсия σY(X) постоянна), то говорят, что корреляция «гомоседастическая». Аналогичные определения справедливы и для случайной величины X, коррелированной с Y.

Мы видим, что независимость, рассматриваемая с точки зрения теории вероятностей (стохастическая независимость), характеризуется формулами
F(x,y)=FX(x)FY(y),ρ(x,y)=ρX(x)ρY(y),P(xn,ym)=PX(xn)PY(ym).

Как нетрудно убедиться, в этом случае условные распределения совпадают с маргинальными распределениями: FX(Y)(x)=FX(x) и т. д. Характеристическая функция для двух стохастически независимых переменных равна произведению маргинальных характеристических функций, так как
φ(u,v)=i(ux+vy)dF(x,y)=eiuxdFX(x)eivydFY(y)==φ(u,0)φ(0,v)=φX(u)φY(v).

Обратно, если характеристическая функция равна произведению двух функций, каждая из которых зависит лишь от одной переменной, то эти случайные величины являются статистически независимыми. Это легко обнаруживается

при использовании формул обратного преобразования от характеристических функций к функциям распределения вероятностей.

Если случайные величины статистически независимы, то среднее значение mxy величины xy, очевидно, равно произведению mxmy. В таком случае коэффициент корреляции, определяемый формулой r=(mxymxmy)/σxσy, оказывается равным нулю. Таким образом, равенство нулю коэффициента корреляции — необходимое условие статистической независимости случайных величин. Но это условие нельзя считать достаточным — коэффициент корреляции может равняться нулю для случайных величин, которые и не являются статистически независимыми. В качестве примера рассмотрим две случайные величины X и Y, связанные строгим равенством Y=X2. Чтобы описать эту связь, введем δ-функцию Дирака, такую, что δ(z)=0 всюду, кроме z=0, и δ(z)= в точке z=0, причем
a+bf(z)δ(z)dz=f(0)

где a и b — произвольные положительные числа. Применение δ-функции Дирака трудно строго обосновать с математической точки зрения 1), но ее практическое использование не приводит к каким-либо ошибкам. Итак, с помощью δ-функции Дирака мы можем записать плотность распределения в виде
ρ(x,y)=δ(yx2)ρ(x), так что ρdxdy=1,
поскольку
ρY(X)(x,y)=δ(yx2),
ρ(x)δ(yx2)dxdy=ρ(x)dx=1.

Предположим, что ρ(x) является четной функцией x. Тогда имеем
mxy=xy=xyρ(x)δ(yx2)dxdy=x3ρ(x)dx=0,mx=x¯=xρ(x)δ(yx2)dxdy=xρ(x)dx=0,my=y¯=yρ(x)δ(yx2)dxdy=x2ρ(x)dxeq0.
1)Этот текст писался в то время, когда теория распределений только создавалась. Луи де Бройль, конечно, не мог ее учитывать, но позднее он сделал карандашом пометку: «Л. Шварц». — Ж.Л.

Следовательно, mxymxmy=0 и r=0. Таким образом, если две случайные величины связаны равенством Y=X2 и ρ(x) является четной функцией x, то коэффициент корреляции r равен нулю, несмотря на абсолютно жесткую связь, существующую между случайными величинами Y и X1).
Пример. Распределение Гаусса для случая двух переменных
Мы знаем, что разложение второй характеристической функции Φ(u,v) в ряд Маклорена имеет вид
Φ(u,v)=i(umx+vmy)+i22(σX2u2+2rσXσYuv+σY2v2)+,

где r — коэффициент корреляции. Совместим начало координат с центром вероятностного распределения, так что
Φ(u,v)=12(σX2u2+2rσXσYuv+σY2v2)+.

Простейший случай — когда все члены, порядок которых больше двух, равны нулю. Тогда функция Φ является однородной и будет полиномом второй степени по u и v.

По аналогии со случаем одной переменной, когда для распределения Гаусса функция Φ(u) имела вид — (σ2/2)u2, мы можем сказать, что в рассматриваемом случае мы имеем распределение Гаусса (нормальное распределение) для двух переменных. Таким образом,
Φ(u,v)=12(σX2u2+2rσXσYuv+σY2v2),
φ(u,v)=exp{12(σX2u2+2rσXσYuv+σY2v2)}.
Формула обратного преобразования имеет вид
4π2ρ(x,y)=φ(u,v)exp[i(ux+vy)]dydv
и позволяет найти соответствующую плотность распределения. Путем простых вычислений с учетом равенства
ez2dz=π
1) Таким образом, коэффициент корреляции двух случайных величин может равняться нулю, даже если они и не являются независимыми. Напротив, если коэффициент корреляции отличен от нуля, то две случайные величины не могут быть независимыми. — Л.Б.

можно найти выражение для ρ :
ρ(x,y)=12πσXσY(1r2)exp{12(xσX)22rxσXyσY+(yσY)21r2}.

Отсюда легко получить формулы для условных плотностей распределений:
ρY(X)(x,y)=ρ(x,y)ρX(x)=ρ(x,y)ρ(x,y)dy,ρX(Y)(x,y)=.

Легко получаем
ρY(X)(x,y)=12πσy1r2exp{12(yσYrxσX)21r2}

Если r=0, то ρY(X)(x,y) есть плотность распределения Гаусса для одной переменной y, а функция ρ(x,y) принимает вид ρ(x)ρ(y) и имеет место статистическая независимость случайных величин.
Условное среднее значение равно
y(X)=(m1)Y(X)=yρY(X)(y)dy.

Легко получаем
y(X)=f(x)=rσY(x/σX).

В этом случае кривая регрессии представляет собой прямую линию. Аналогично
(σY(X))2=(yy(X))2ρY(X)(y)dy=σY2(1r2),

или σY(X)=1r2σY=g(x).
Величина g(x) есть константа, т. е. связь — гомоседастическая. Если r=±1, то σY(X)=σY.
Эти результаты\» показывают, что в данном случае равенство нулю коэф-
1) Их можно получить и без вычислений, заметив, что функция ρY(X)(y) имеет вид функции распределения Гаусса с дисперсией, равной σY1r2. -Л.Б.

фициента корреляции приводит к статистической независимости случайных величин, но это относится к специфике распределения Гаусса.

Можно рассматривать распределения вероятностей и для большего числа случайных величин, обобщая полученные выше результаты. Здесь мы этого делать не будем.

1
Оглавление
email@scask.ru