Главная > СООТНОШЕНИЯ НЕОПРЕДЕЛЕННОСТЕЙ ГЕЙЗЕНБЕРГА И ВЕРОЯТНОСТНАЯ ИНТЕРПРЕТАЦИЯ ВОЛНОВОЙ МЕХАНИКИ. (А. ДЕ БРОЙЛЬ)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотрим теперь две случайные величины \( X \) и \( Y \) и предположим (это важно для будущих приложений в волновой механике), что измерение одной из этих величин никак не влияет на значения другой и что возможно одновременное измерение этих двух величин. Тогда можно ввести функцию распределения \( F(x, y) \), такую, что вероятность при одновременном измерении величин \( X \) и \( Y \) (или при двух отдельных измерениях \( X \) и \( Y \) в любом порядке) получить значения, не превышающие \( X=x \) и \( Y=y \), будет равна \( F(x, y) \). Как и в предыдущем случае, необходимо положить
\[
\begin{array}{l}
F(-\infty, y)=F(x,-\infty)=F(-\infty,-\infty)=0, \\
F(+\infty,+\infty)=1 .
\end{array}
\]

Функция \( F \) должна всегда возрастать с увеличением \( x \) и \( y \). Этот рост может быть скачкообразным или непрерывным. В плоскости переменных \( x, y \) функцию \( F(x, y) \) можно рассматривать как сумму масс, распределенных по этой плоскости, взятых во всех точках, абсциссы которых меньше заданных значений \( x \) и \( y \). Массы могут быть локализованы в отдельных точках и на отдельных линиях плоскости или распределены непрерывно в определенных областях плоскости. Если \( F(x, y) \) – всюду непрерывная функция, то можно ввести плотность распределения \( \rho(x, y) \), такую, что
\[
F(x, y)=\int_{0}^{x} d x \int_{0}^{y} d y \rho(x, y),
\]

и все величины можно будет выразить через \( \rho(x, y) \). В случае же дискретного распределения точек или линий \( F \) на плоскости \( (x, y) \) используем интеграл Стилтьеса
\[
F(x, y)=\iint d F(x, y),
\]

где величина \( d F(x, y) \) равна \( \rho(x, y) d x d y \) в случае непрерывного распределения и принимает конечные значения в точках или на линиях, где имеется скачок вероятности.
Моменты распределения вероятностей
Мы можем здесь по-прежнему ввести моменты, но с учетом специфики двух переменных. Можно написать
\[
m_{x^{k} y^{\prime}}=\int_{-\infty}^{+\infty} \int^{k} x^{k} d F(x, y),
\]

где \( m_{x^{k} k^{0}}=m_{x^{k}} \) и \( m_{x 0_{y} l}=m_{y} \).
В частности, \( m_{x}=\bar{x}, m_{y}=\bar{y}, m_{x^{2}}=x^{2}, \ldots \) В случае непрерывного распре деления имеем
\[
m_{x^{k} y^{l}}=\int_{-\infty}^{\infty} \int^{k} x^{k} \rho(x, y) d x d y .
\]

Характеристическая функция
Характеристическая функция может быть введена как естественное обобщение соответствующего определения в случае одной переменной, а именно
как
\( \varphi(u, v)=\iint e^{i(u x+v y)} d F(x, y) \),
что в случае непрерывного распределения приводит к выражению
\( \varphi(u, v)=\iint e^{i(u x+v y)} \rho(x, y) d x d y \),

а в случае дискретного распределения – к выражению
\( \rho(u, v)=\sum_{n, m} P_{n m} \exp \left[i\left(u x_{n}+v y_{m}\right)\right] \),
где \( P_{n m} \) – вероятность обнаружения пары значений \( X=x_{n}, Y=y_{m} \).
Здесь остаются справедливыми и формулы обратного преобразования. Так, например, в случае непрерывного распределения имеем
\( \rho(x, y)=\frac{1}{4 \pi^{2}} \int_{-\infty}^{\infty} \int^{-i(u x+v y)} \varphi(u, v) d u d v \)
(формула обратного преобразования Фурье).
В общем случае
\[
\begin{array}{l}
F(x, y)-F\left(x_{0}, y_{0}\right)=\lim _{\substack{U \rightarrow \infty \\
V \rightarrow \infty}} \int_{-U}^{U} \int_{-V}^{V} \frac{\exp \left(-i u x_{0}\right)-\exp (-i u x)}{i u} \times \\
\times \frac{\exp \left(-i v y_{0}\right)-\exp (-i v y)}{i v} \varphi(u, v) d u d v \\
\end{array}
\]

Эти формулы показывают, что знание характеристической функции эквивалентно знанию функции распределения.

Как и в случае одной переменной, можно ввести моменты, если только они существуют, т. е. если сходятся соответствующие интегралы. Разложение функции \( \varphi(u, v) \) в ряд Маклорена имеет вид
\[
\begin{aligned}
\varphi(u, v)=\varphi(0,0)+u \varphi_{u}^{\prime}(0) & +v \varphi_{v}^{\prime}(0)+ \\
& +\frac{1}{2}\left[u^{2} \varphi_{u^{2}}^{\prime \prime}(0)+2 u v \varphi_{u v}^{\prime \prime}(0)+v_{.}^{2} \varphi_{v^{2}}^{\prime \prime}(0)\right]+\ldots
\end{aligned}
\]

В то же время по определению функции \( \varphi(u, v) \) имеем
\[
\varphi(u, v)=1+i\left(m_{x} u+m_{y} v\right)+\frac{i^{2}}{2}\left(m_{x^{2}} u^{2}+2 m_{x y} u v+2 m_{y^{2}} v^{2}\right)+\ldots
\]

Сравнивая почленно эти два выражения, получаем

В этих формулах моменты выражаются через производные функции \( \varphi \), и, следовательно, если моменты существуют, то их знание эквивалентно знанию функции \( \varphi(u, v) \), т. е. знанию распределения вероятностей.
Можно, очевидно, ввести для переменных \( X \) и \( Y \) дисперсии
\[
\sigma_{x}^{2}=m_{x^{2}}-m_{x}^{2}, \quad \sigma_{y}^{2}=m_{y^{2}}-m_{y}^{2} .
\]

Введем вторую характеристическую функцию
\[
\Phi(u, v)=\ln \varphi(u, v)=\ln \int_{-\infty}^{\infty} \int^{i(u x+v y)} d F(x, y) .
\]

Ее разложение в ряд Маклорена имеет вид
\[
\Phi(u, v)=i\left(u m_{x}+v m_{y}\right)+\frac{i^{2}}{2}\left(\sigma_{x}^{2} u^{2}+2 r \sigma_{x} \sigma_{y} u v+\sigma_{y}{ }^{2} v^{2}\right)+\ldots,
\]

где коэффициент \( m_{x y}-m_{x} m_{y} \) при \( 2 u v \) мы записали в виде \( r \sigma_{x} \sigma_{y} \). Таким образом, мы фактически ввели «козффициент корреляции» \( r \) :
\[
r=\frac{m_{x y}-m_{x} m_{y}}{\sigma_{x} \sigma_{y}} .
\]

Мы видим, что этот козффициент характеризует степень независимости переменных \( X \) и \( Y \). Для среднего значения величины \( [(x-\bar{x})+\lambda(y-\bar{y})]^{2} \) находим \( \sigma_{x}^{2}+2 \lambda(\overline{x-\bar{x}})(y-\bar{y})+\lambda^{2} \sigma_{y}^{2} \), и, так как по определению эта величина должна быть, очевидно, неотрицательна, дискриминант \( \left((\overline{x-\bar{x}})(y-\bar{y})^{2}-\sigma_{x}^{2} \sigma_{y}^{2}\right. \) предыдущего выражения по отношению к переменной \( \lambda \) должен быть меньше нуля или равен нулю. Отсюда.
\[
\overline{(x-\bar{x})(y-\bar{y})}=\overline{x y}-\bar{x} \bar{y}=m_{x y}-m_{x} m_{y}=r \sigma_{x} \sigma_{y},
\]
т. е. \( \left(r^{2}-1\right) \sigma_{x}^{2} \sigma_{y}^{2} \leq 0 \) и \( |r| \leq 1 \). Таким образом, коэффициент корреляции по абсолютной величине не может быть больше единицы.

Маргинальные и условные распределения вероятностей
Если нас интересуют только значения величины \( X \), то можно ввести функцию распределения
\[
F_{X}^{\prime}(x)=\int_{-\infty}^{\infty} d_{y} F(x, y),
\]

где интеграл берется по прямой, параллельной оси \( y \), с абсциссой \( x \). Точно так же, если интерес представляют только значения величины \( Y \), то соответствующая функция распределения имеет вид
\[
F_{Y}(y)=\int_{-\infty}^{\infty} d_{x} F(x, y),
\]

где интеграл берется по прямой, параллельной оси \( x \), с ординатой \( y \).
Функции \( F_{X}(x) \) и \( F_{Y}(y) \) – это маргинальные функции распределения вероятностей. Соответствующие характеристические функции равны
\[
\begin{array}{l}
\varphi_{X}(u)=\int_{-\infty}^{\infty} e^{i u x} d F_{X}(x)=\int_{-\infty}^{\infty} \int^{i u x} d F(x, y)=\varphi(u, 0), \\
\varphi_{Y}(v)=\varphi(0, v) .
\end{array}
\]

В случае непрерывного совместного распределения, когда \( d F(x, y)= \) \( =\rho(x, y) d x d y \), вводятся маргинальные плотности распределения
\( \rho_{X}(x)=\int_{-\infty}^{\infty} \rho(x, y) d y, \quad \rho_{Y}(y)=\int_{-\infty}^{\infty} \rho(x, y) d x \).
В случае дискретного совместного распределения можно ввести маргинальные вероятности
\[
P_{X}\left(x_{n}\right)=\sum_{m} P\left(x_{n}, y_{m}\right), P_{Y}\left(y_{m}\right)=\sum_{n} P\left(x_{n}, y_{m}\right) .
\]

В случае независимых величин \( X \) и \( Y \) по теореме об умножении вероятностей (я предполагаю, что ее доказательство известно читателю) можно написать \( F(x, y)=F_{X}(x) F_{Y}(y) \), что в случае непрерывного совместного распределения приводит к формуле \( \rho(x, y)=\rho_{X}(x) \rho_{Y}(y) \), а в случае дискретного – к формуле \( P\left(x_{n}, y_{m}\right)=P_{X}\left(x_{n}\right) P_{Y}\left(y_{m}\right) \). Но в общем случае, когда величины \( X \) и \( Y \) не являются независимыми, по теореме об умножении вероятностей имеем
\[
d F(x, y)=d F_{X}(x) d F_{Y}^{(X)}(x, y), d F(x, y)=d F_{Y}(y) d F_{X}^{(Y)}(x, y) .
\]

Здесь \( d F^{(X)} \) есть функция распределения вероятностей значений величины \( Y \), соответствующих значению \( x \) величины \( X \), а \( d F_{X}^{(Y)}(x, y) \) – функция распределения вероятностей значений величины \( X \), соответствующих значению \( y \) величины \( Y \). Такие вероятности и такие распределения вероятностей называются условными.

В случае непрерывного совместного распределения вводятся условные плотности распределений \( \rho_{X}^{(Y)}(x) \) и \( \rho_{Y}^{(X)}(y) \), такие, что
\[
\rho(x, y)=\rho_{X}(x) \rho_{Y}^{(X)}(x, y), \quad \rho(x, y)=\rho_{Y}(y) \rho_{X}^{(Y)}(x, y) .
\]

В случае дискретного совместного распределения можно ввести условные вероятности \( P_{X}^{(Y)}\left(x_{n}\right) \) и \( P_{i}^{(X)}\left(y_{m}\right) \), такие, что
\[
\begin{array}{l}
P\left(x_{n}, y_{m}\right)=P_{X}\left(x_{n}\right) P_{Y}^{(X)}\left(x_{n}, y_{m}\right), \\
P\left(x_{n}, y_{m}\right)=P_{Y}\left(y_{m}\right) P_{X}^{(Y)}\left(x_{n}, y_{m}\right) .
\end{array}
\]

Для условных распределений можно определить условные моменты и условные дисперсии. Например,
\[
\begin{array}{l}
\overline{y^{(X)}}=\left(m_{1}\right)_{Y}^{(X)}=\int^{\infty} y \rho_{Y}^{(X)}(x, y) d y=f(x), \\
\left(\sigma_{Y}^{(X)}\right)^{2}=\int_{-\infty}^{\infty}\left(y-\overline{y^{(X)}}\right)^{2} \rho_{Y}^{(X)}(x, y) d y=g(x),
\end{array}
\]

и эти величины являются функциями \( x \).
Функция \( f(x) \) есть «регрессия» случайной величины \( Y \) на случайную величину \( X \), а функция \( g(x) \) – это условная дисперсия величины \( Y \) при \( X=x \). Если \( g \) не зависит от \( x \) (дисперсия \( \sigma_{Y}^{(X)} \) постоянна), то говорят, что корреляция «гомоседастическая». Аналогичные определения справедливы и для случайной величины \( X \), коррелированной с \( Y \).

Мы видим, что независимость, рассматриваемая с точки зрения теории вероятностей (стохастическая независимость), характеризуется формулами
\[
F(x, y)=F_{X}(x) F_{Y}(y), \quad \rho(x, y)=\rho_{X}(x) \rho_{Y}(y), \quad P\left(x_{n}, y_{m}\right)=P_{X}\left(x_{n}\right) P_{Y}\left(y_{m}\right) .
\]

Как нетрудно убедиться, в этом случае условные распределения совпадают с маргинальными распределениями: \( F_{X}^{(Y)}(x)=F_{X}(x) \) и т. д. Характеристическая функция для двух стохастически независимых переменных равна произведению маргинальных характеристических функций, так как
\[
\begin{aligned}
\varphi(u, v)=\int_{-\infty}^{\infty} \int^{i(u x+v y)} d F(x, y)= & \int_{-\infty}^{\infty} e^{i u x} d F_{X}(x) \int_{-\infty}^{\infty} e^{i v y} d F_{Y}(y)= \\
& =\varphi(u, 0) \varphi(0, v)=\varphi_{X}(u) \varphi_{Y}(v) .
\end{aligned}
\]

Обратно, если характеристическая функция равна произведению двух функций, каждая из которых зависит лишь от одной переменной, то эти случайные величины являются статистически независимыми. Это легко обнаруживается

при использовании формул обратного преобразования от характеристических функций к функциям распределения вероятностей.

Если случайные величины статистически независимы, то среднее значение \( m_{x y} \) величины \( x y \), очевидно, равно произведению \( m_{x} m_{y} \). В таком случае коэффициент корреляции, определяемый формулой \( r=\left(m_{x y}-m_{x} m_{y}\right) / \sigma_{x} \sigma_{y} \), оказывается равным нулю. Таким образом, равенство нулю коэффициента корреляции – необходимое условие статистической независимости случайных величин. Но это условие нельзя считать достаточным – коэффициент корреляции может равняться нулю для случайных величин, которые и не являются статистически независимыми. В качестве примера рассмотрим две случайные величины \( X \) и \( Y \), связанные строгим равенством \( Y=X^{2} \). Чтобы описать эту связь, введем \( \delta \)-функцию Дирака, такую, что \( \delta(z)=0 \) всюду, кроме \( z=0 \), и \( \delta(z)=\infty \) в точке \( z=0 \), причем
\[
\int_{-a}^{+b} f(z) \delta(z) d z=f(0)
\]

где \( a \) и \( b \) – произвольные положительные числа. Применение \( \delta \)-функции Дирака трудно строго обосновать с математической точки зрения \( { }^{1)} \), но ее практическое использование не приводит к каким-либо ошибкам. Итак, с помощью \( \delta \)-функции Дирака мы можем записать плотность распределения в виде
\( \rho(x, y)=\delta\left(y-x^{2}\right) \rho(x) \), так что \( \int_{-\infty}^{\infty} \int_{-\infty} \rho d x d y=1 \),
поскольку
\( \rho_{Y}^{(X)}(x, y)=\delta\left(y-x^{2}\right) \),
\[
\int_{-\infty}^{\infty} \rho(x) \delta\left(y-x^{2}\right) d x d y=\int_{-\infty}^{\infty} \rho(x) d x=1 .
\]

Предположим, что \( \rho(x) \) является четной функцией \( x \). Тогда имеем
\[
\begin{array}{l}
m_{x y}=\overline{x y}=\int_{-\infty}^{\infty} x y \rho(x) \delta\left(y-x^{2}\right) d x d y=\int_{-\infty}^{\infty} x^{3} \rho(x) d x=0, \\
m_{x}=\bar{x}=\iint_{-\infty}^{\infty} x \rho(x) \delta\left(y-x^{2}\right) d x d y=\int_{-\infty}^{\infty} x \rho(x) d x=0, \\
m_{y}=\bar{y}=\int_{-\infty}^{\infty} y \rho(x) \delta\left(y-x^{2}\right) d x d y=\int_{-\infty}^{\infty} x^{2} \rho(x) d x
eq 0 .
\end{array}
\]
1)Этот текст писался в то время, когда теория распределений только создавалась. Луи де Бройль, конечно, не мог ее учитывать, но позднее он сделал карандашом пометку: «Л. Шварц». – Ж.Л.

Следовательно, \( m_{x y}-m_{x} m_{y}=0 \) и \( r=0 \). Таким образом, если две случайные величины связаны равенством \( Y=X^{2} \) и \( \rho(x) \) является четной функцией \( x \), то коэффициент корреляции \( r \) равен нулю, несмотря на абсолютно жесткую связь, существующую между случайными величинами \( Y \) и \( X^{1)} \).
Пример. Распределение Гаусса для случая двух переменных
Мы знаем, что разложение второй характеристической функции \( \Phi(u, v) \) в ряд Маклорена имеет вид
\[
\Phi(u, v)=i\left(u m_{x^{\prime}}+v m_{y}\right)+\frac{i^{2}}{2}\left(\sigma_{X}^{2} u^{2}+2 r \sigma_{X} \sigma_{Y} u v+\sigma_{Y}^{2} v^{2}\right)+\ldots,
\]

где \( r \) – коэффициент корреляции. Совместим начало координат с центром вероятностного распределения, так что
\[
\Phi(u, v)=-\frac{1}{2}\left(\sigma_{X}^{2} u^{2}+2 r \sigma_{X} \sigma_{Y} u v+\sigma_{Y}^{2} v^{2}\right)+\ldots .
\]

Простейший случай – когда все члены, порядок которых больше двух, равны нулю. Тогда функция \( \Phi \) является однородной и будет полиномом второй степени по \( u \) и \( v \).

По аналогии со случаем одной переменной, когда для распределения Гаусса функция \( \Phi(u) \) имела вид – \( \left(\sigma^{2} / 2\right) u^{2} \), мы можем сказать, что в рассматриваемом случае мы имеем распределение Гаусса (нормальное распределение) для двух переменных. Таким образом,
\( \Phi(u, v)=-\frac{1}{2}\left(\sigma_{X}^{2} u^{2}+2 r \sigma_{X} \sigma_{Y} u v+\sigma_{Y}^{2} v^{2}\right) \),
\( \varphi(u, v)=\exp \left\{-\frac{1}{2}\left(\sigma_{X}^{2} u^{2}+2 r \sigma_{X} \sigma_{Y} u v+\sigma_{Y}^{2} v^{2}\right)\right\} \).
Формула обратного преобразования имеет вид
\( 4 \pi^{2} \rho(x, y)=\int_{-\infty}^{\infty} \int^{\infty} \varphi(u, v) \exp [-i(u x+v y)] d y d v \)
и позволяет найти соответствующую плотность распределения. Путем простых вычислений с учетом равенства
\[
\int_{-\infty}^{\infty} e^{-z^{2}} d z=\sqrt{ } \pi
\]
1) Таким образом, коэффициент корреляции двух случайных величин может равняться нулю, даже если они и не являются независимыми. Напротив, если коэффициент корреляции отличен от нуля, то две случайные величины не могут быть независимыми. – Л.Б.

можно найти выражение для \( \rho \) :
\[
\rho(x, y)=\frac{1}{2 \pi \sigma_{X} \sigma_{Y}\left(1-r^{2}\right)} \exp \left\{-\frac{1}{2} \frac{\left(\frac{x}{\sigma_{X}}\right)^{2}-2 r \frac{x}{\sigma_{X}} \frac{y}{\sigma_{Y}}+\left(\frac{y}{\sigma_{Y}}\right)^{2}}{1-r^{2}}\right\} .
\]

Отсюда легко получить формулы для условных плотностей распределений:
\[
\rho_{Y}^{(X)}(x, y)=\frac{\rho(x, y)}{\rho_{X}(x)}=\frac{\rho(x, y)}{\int_{-\infty}^{\infty} \rho(x, y) d y}, \quad \rho_{X}^{(Y)}(x, y)=\ldots .
\]

Легко получаем
\[
\rho_{Y}^{(X)}(x, y)=\frac{1}{\sqrt{2 \pi} \sigma_{y} \sqrt{1-r^{2}}} \exp \left\{-\frac{1}{2} \frac{\left(\frac{y}{\sigma_{Y}}-r \frac{x}{\sigma_{X}}\right)^{2}}{1-r^{2}}\right\} \text {. }
\]

Если \( r=0 \), то \( \rho_{Y}^{(X)}(x, y) \) есть плотность распределения Гаусса для одной переменной \( y \), а функция \( \rho(x, y) \) принимает вид \( \rho(x) \rho(y) \) и имеет место статистическая независимость случайных величин.
Условное среднее значение равно
\[
\overline{y^{(X)}}=\left(m_{1}\right)_{Y}^{(X)}=\int_{-\infty}^{\infty} y \rho_{Y}^{(X)}(y) d y .
\]

Легко получаем
\[
\overline{y^{(X)}}=f(x)=r \sigma_{Y}\left(x / \sigma_{X}\right) .
\]

В этом случае кривая регрессии представляет собой прямую линию. Аналогично
\[
\left(\sigma_{Y}^{(X)}\right)^{2}=\int_{-\infty}^{\infty}\left(y-\overline{y^{(X)}}\right)^{2} \rho_{Y}^{(X)}(y) d y=\sigma_{Y}^{2}\left(1-r^{2}\right),
\]

или \( \sigma_{Y}^{(X)}=\sqrt{1-r^{2}} \sigma_{Y}=g(x) \).
Величина \( g(x) \) есть константа, т. е. связь – гомоседастическая. Если \( r= \pm 1 \), то \( \sigma_{Y}^{(X)}=\sigma_{Y} \).
Эти результаты\” показывают, что в данном случае равенство нулю коэф-
1) Их можно получить и без вычислений, заметив, что функция \( \rho{ }_{Y}^{(X)}(y) \) имеет вид функции распределения Гаусса с дисперсией, равной \( \sigma_{Y} \sqrt{1-r^{2}} \). -Л.Б.

фициента корреляции приводит к статистической независимости случайных величин, но это относится к специфике распределения Гаусса.

Можно рассматривать распределения вероятностей и для большего числа случайных величин, обобщая полученные выше результаты. Здесь мы этого делать не будем.

Categories

1
Оглавление
email@scask.ru