Главная > СООТНОШЕНИЯ НЕОПРЕДЕЛЕННОСТЕЙ ГЕЙЗЕНБЕРГА И ВЕРОЯТНОСТНАЯ ИНТЕРПРЕТАЦИЯ ВОЛНОВОЙ МЕХАНИКИ. (А. ДЕ БРОЙЛЬ)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотрим переменную величину \( X \), значение \( x \) которой неизвестно, но может быть определено путем опыта или наблюдения (операция, называемая в статистике «испытанием»). Не вдаваясь здесь в обсуждение понятия вероятности, до сих пор дискутируемого специалистами, будем считать ясным смысл выражения «вероятность того, что случайная переменная величина \( X \) примет значение, меньшее \( x \) »\” Такая вероятность будет даваться некоторой функцией \( F(x) \) (функцией распределения вероятностей), равной нулю при \( x=-\infty \) и монотонно возрастающей от 0 до 1 при возрастании \( x \) от \( -\infty \) до \( +\infty \).

Функция \( F \) может изменяться скачкообразно при определенных значениях \( x \), если величина \( X \) имеет лишь дискретные значения, но она может меняться и непрерывно с изменением \( x \), если некоему интервалу значений \( d x \) соответствует бесконечно малая вероятность \( \rho(x) d x \). В первом случае \( F(x) \) – ступенчатая функция, а во втором – функция с плавной кривой изменения. Эти два типа зависимостей могут существовать одновременно в разных областях интервала изменения переменной \( x \) от \( -\infty \) до \( +\infty \).
Рис. 13
\( 7-782 \)

Можно более конкретно представить себе эту зависимость, предположив, что \( F(x) \) есть сумма, взятая от \( -\infty \) до фиксированного значения \( x \), масс, распределенных вдоль оси абсцисс, одни из которых сосредоточены в отдельных точках на оси, а другие распределены непрерывно в некоторых интервалах. Если \( F(x) \) – всюду непрерывная функция, то
\[
F(x)=\int_{-\infty}^{x} \rho(x) d x,
\]

и тогда вместо функции \( F(x) \) можно рассматривать функцию \( \rho(x) \), называемую плотностью распределения вероятностей. Но если вероятность отлична от нуля лишь в некоторых точках, то нужно рассматривать \( F(x) \); тогда можно написать
\[
F(x)=\int_{-\infty}^{x} d F(x)
\]

в смысле интеграла Стилтьеса. В этой формуле подынтегральное выражение \( d F(x) \) будет равно \( \rho(x) d x \) там, где непрерывное распределение, и будет принимать конечные значения в точках, соответствующих дискретным значениям вероятности.
Моменты. Моментами распределения вероятностей называются величины
\[
m_{k}=\int_{-\infty}^{\infty} x^{k} d F(x)
\]
т. е. средние значения \( k \)-й степени переменной \( x \). (Не следует забывать, что
\[
\left.\int_{-\infty}^{\infty} d F(x)=F(+\infty)-F(-\infty)=1 .\right)
\]

Наиболее употребительны два первых момента
\[
m_{1}=\int_{-\infty}^{\infty} x d F(x), \quad m_{2}=\int_{-\infty}^{\infty} x^{2} d F(x),
\]

или, в случае непрерывного распределения,
\[
m_{1}=\int_{-\infty}^{\infty} x \rho(x) d x, \quad m_{2}:=\int_{-\infty}^{\infty} x^{2} \rho(x) d x .
\]

Первый момент называется средним значением или математическим ожиданием величины \( \boldsymbol{x} \).
Наряду с указанными используются обозначения \( m_{1}=\bar{x}, m_{2}=x^{\overline{2}}, \ldots \).
Часто рассматривается разность \( x-m_{1} \), называемая отклонением от среднего. Дисперсия \( \sigma \) величины \( x \) определяется как \( { }^{1)} \)

—————————————————————-
001_book2_original_page-0196.jpg.txt

Основные сведения из теории вероятностей
195
среднего. Дисперсия \( \sigma \) величины \( x \) определяется как \( { }^{1)} \)
\[
\sigma=\sqrt{\overline{\left(x-m_{1}\right)^{2}}}=\sqrt{(x-\bar{x})^{2}}=\left[\int_{-\infty}^{\infty}\left(x-m_{1}\right)^{2} d F\right]^{1 / 2},
\]
т. е. это квадратный корень из среднего квадрата отклонения. Таким образом, имеем
\[
\sigma^{2}=m_{2}+m_{1}^{2}-2 m_{1} m_{1}=m_{2}-m_{1}^{2}=\overline{x^{2}}-(\bar{x})^{2} .
\]

Полученным выражением для \( \sigma^{2} \) часто пользуются.
Следует заметить, что не для всех распределений существуют конечные моменты, поскольку соответствующие интегралы могут расходиться. Примером может служить распределение Коши
\( \rho(x)=\frac{1}{\pi} \frac{1}{1+x^{2}} \),
для которого все моменты и дисперсия равны бесконечности.

Характеристическая функция
Характеристическая функция былі введена Лапласом. В настоящее время она широко используется в теории вероятностей, особенно в задачах статистики. Ее можно ввести различным образом. Здесь мы примем следующее определение.

Характеристической функцией \( \varphi(u) \); соответствующей функции распределения \( F(x) \), называется функция
\( \varphi(u)=\int_{-\infty}^{\infty} e^{i u x} d F(x)=\overline{e^{i u x}}= \) Среднее значение величины \( e^{i u x} \).
В случае непрерывного распределения вероятностей эта формула принимает вид
\[
\varphi(u)=\int_{-\infty}^{\infty} e^{i u x} \rho(x) d x
\]

а при дискретном распределении
\[
\varphi(u)=\sum_{n} P_{n} e^{i u x_{n}},
\]

где \( P_{n} \) – конечная вероятность появления значения \( x=x_{n} \).
1) См. примечание на с. 83. – Прим. ред.

—————————————————————-
001_book2_original_page-0197.jpg.txt

196
Глава XI
При непрерывном распределении плотность вероятности дается формулой обратного преобразования Фурье:
\[
\rho(x)=\frac{1}{2 \pi} \int_{-\infty}^{\infty} \varphi(u) e^{-i u x} d u \text {. }
\]
[В общем случае справедлива формула
\[
F(x)-F\left(x_{0}\right)=\lim _{N \rightarrow \infty} \int_{-N}^{N} \frac{\exp \left(-i u x_{0}\right)-\exp (-i u x)}{i u} \varphi(u) d u,
\]

из которой предыдущая получается как частный случай. Чтобы доказать это, достаточно заметить, что
\[
\frac{\exp \left(-i u x_{0}\right)-\exp (-i u x)}{i u} \varphi(u)=\int_{x_{0}}^{x} d \xi \int_{-\infty}^{\infty} \exp [i u(\varepsilon-\xi)] d F(\varepsilon),
\]

и перейти к новой переменной интегрирования \( \eta=\varepsilon-\xi \).]

Характеристическая функция и моменты.
Вторая характеристическая функция
Характеристическая функция тесно связана с моментами. В самом деле, разлагая \( \varphi(u) \) в ряд Маклорена, имеем
\[
\varphi(u)=\varphi(0)+u \varphi^{\prime}(0)+\frac{u^{2}}{2} \varphi^{\prime \prime}(0)+\ldots+\frac{u^{n}}{n !} \varphi^{n}(0)+\ldots .
\]

Дифференцируя экспоненту \( e^{i u x} \) в определении функции \( \varphi(u) \) [формула (6)], получаем
\[
\begin{array}{l}
\varphi(u)=1+i u \int_{-\infty}^{\infty} x d F+\frac{i^{2} u^{2}}{2} \int_{-\infty}^{\infty} x^{2} d F(x)+\ldots+ \\
+\frac{(i u)^{n}}{n !} \int_{-\infty}^{\infty} x^{n} d F(x)+\ldots .
\end{array}
\]

Сравнив соответствующие члены в выражениях (10) и (11), получим \( m_{n}=\overline{x^{n}}=i^{-n} \varphi^{n}(0) \) и, в частности,
\[
i m_{1}=\overline{i x}=\varphi^{\prime}(0), i^{2} m_{2}=-\overline{x^{2}}=\varphi^{\prime \prime}(0) .
\]

Таким образом, если моменты существуют, их можно вычислить с помощью характеристической функции. Полученные выше формулы показыва-

—————————————————————-
001_book2_original_page-0198.jpg.txt

Основные сведения из теории вероятностей
197
ют, что знание функции \( \varphi(u) \) эквивалентно знанию функции \( F(x) \) [в случае непрерывного распределения – знанию функции \( \rho(x) \) ]. Так как, зная моменты, если только они существуют, можно восстановить \( \varphi(u) \) по формуле Маклорена, то, очевидно, знание всех моментов эквивалентно знанию распределения вероятностей.

Вместо характеристической функции часто пользуются другой характеристической функцией, которая есть не что иное, как логарифм первой:
\( \Phi(u)=\ln \varphi(u)=\ln \int_{-\infty}^{\infty} e^{i u x} d F(x) \).
Разложение \( \Phi(u) \) в ряд Маклорена дает (с учетом того, что \( \varphi(0)=1 \) )
\[
\begin{array}{c}
\Phi(u)=\ln \varphi(0)+u \frac{\varphi^{\prime}(0)}{\varphi(0)}+\frac{u^{2}}{2}\left(\frac{\varphi^{\prime \prime}(0)}{\varphi(0)}-\frac{\varphi^{\prime 2}(0)}{\varphi^{2}(0)}\right)+\ldots= \\
=i u m_{1}+\frac{(i u)^{2}}{2}\left(m_{2}-m_{1}^{2}\right)+\ldots= \\
=i u m_{1}+\frac{(i u)^{2}}{2} \sigma^{2}+\ldots=\text { ium }_{1}-\frac{u^{2}}{2} \sigma^{2}+\ldots .
\end{array}
\]

Это разложение имеет то преимущество, что в него входит дисперсия \( \sigma \).
Примеры
1. Непрерывное распределение Лапласа – Гаусса (нормальное распределение)
\[
\rho(x)=\frac{1}{\sqrt{2 \pi} \sigma} \exp \left[-(x-\bar{x})^{2} / 2 \sigma^{2}\right], \quad \int_{-\infty}^{\infty} \rho(x) d x=1 .
\]

Характеристическая функция такова:
\[
\begin{array}{l}
\varphi(u)=\frac{1}{\sqrt{2 \pi} \sigma} \int_{-\infty}^{\infty} \exp (i u x) \exp \left[-(x-\bar{x})^{2} / 2 \sigma^{2}\right] d x= \\
=\exp (i u \bar{x}) \exp \left(-\sigma^{2} u^{2} / 2\right)
\end{array}
\]

Если взять за начало отсчета \( \bar{x} \) (т. е. центр тяжести распределения), то будем иметь
\[
\varphi(u)=\exp \left(-\sigma^{2} u^{2} / 2\right)=1-\frac{\sigma^{2} u^{2}}{2}+\ldots,
\]
\[
\Phi(u)=-\frac{\sigma^{2}}{2} u^{2},
\]

—————————————————————-
001_book2_original_page-0199.jpg.txt

198
Глава XI
откуда \( m_{1}=0 \) (что вполне естественно!) и \( m_{2}=\sigma^{2} \). Таким образом, величина \( \sigma \) в выражении для \( \rho(x) \) есть дисперсия, соответствующая этому распределению. Непрерывное распределение Лапласа – Гаусса – это фундаментальное распределение вероятностей, относящееся к множеству малых случайных измёнений.
2. Дискретное распределение Пуассона

Дискретное распределение Пуассона, встречающееся в многочисленных приложениях теории вероятностей, выполняется для одной случайной величины \( X \), которая можетт принимать только целые неотрицательные значения 0 , \( 1,2, \ldots, n, \ldots \), и имеет вид формулы
\( P(n)=e^{-\alpha} \alpha^{n} / n ! \)
для вероятности появления числа \( x=n \). Очевидно, что \( \sum_{n} P_{n}=1 \), как это и должно быть. В этом случае характеристическая функция равна
\[
\varphi(u)=\sum_{n} e^{i u n} e^{-\alpha} \frac{\alpha^{n}}{n !}=e^{-\alpha}\left[1+q+\frac{q^{2}}{1}+\ldots+\frac{q^{n}}{n !}+\ldots\right] \text {, }
\]

где \( q=e^{i u \alpha} \), т. е.
\( \varphi(u)=\exp \left[\alpha\left(e^{i u}-1\right)\right] \).
Разложение функции \( \varphi(u) \) в ряд имеет вид
\[
\varphi(u)=1+i \alpha u-\frac{\alpha(\alpha+1)}{2} u^{2}+\ldots,
\]

откуда
\[
m_{1}=\alpha, m_{2}=\alpha(\alpha+1) .
\]

Значения (20) легко получить, написав
\[
m_{1}=\bar{n}=\sum_{n=0}^{\infty} e^{-\alpha} \frac{\alpha^{n}}{n !} n=\alpha e^{-\alpha} \sum_{n=1}^{\infty} \frac{\alpha^{n-1}}{(n-1) !}=\alpha,
\]
\( m_{2}=\overline{n^{2}}=\sum_{n=0}^{\infty} e^{-\alpha} \frac{\alpha^{n}}{n !} n^{2}=\alpha e^{-\alpha} \sum_{n=1}^{\infty} \frac{\alpha^{n-1}}{(n-1) !} n= \)
\[
=\alpha e^{-\alpha} \sum_{n=0}^{\infty} \frac{\alpha^{n}}{n !}(n+1),
\]
\( m_{2}=\alpha e^{-\alpha}(\alpha+1) e^{\alpha}=\alpha(\alpha+1) \).

—————————————————————-
001_book2_original_page-0200.jpg.txt

Основные сведения из теории вероятностей
199
Таким образом,
\[
\sigma^{2}=m_{2}-m_{1}^{2}=\alpha(\alpha+1)-\alpha^{2}=\alpha .
\]

Эту формулу еще легче получить с помощью второй характеристической функции
\[
\Phi(u)=\ln \varphi(u)=\alpha\left(e^{i u}-1\right)=i \alpha u+\frac{(i u)^{2}}{2} \alpha+\ldots .
\]

В этом случае среднее значение \( \bar{x} \) оказывается равным дисперсии (среднеквадратичному отклонению от этого среднего значения) и они оба равны параметру \( \alpha \) функции распределения Пуассона.
3. Распределение Коши

Вторым часто используемым распределением является распределение Коши
\( \rho(x)=\frac{1}{\pi} \frac{1}{1+x^{2}} \).
Мы уже говорили, что все моменты этого распределения бесконечны. Характеристическую функцию
\( \varphi(u)=\frac{1}{\pi} \int_{-\infty}^{\infty} \frac{e^{i u x}}{1+x^{2}} d x \)
легко вычислить методом вычетов. Получим
\( \varphi(u)=e^{-|u|} \).
Эта функция не является аналитической и не может быть разложена в ряд Маклорена в окрестности начала, чем и объясняется отсутствие моментов.

Очевидно, что таким же образом можно было бы изучить бесконечное множество других распределений вероятностей, но здесь в этом нет необходимости.

Categories

1
Оглавление
email@scask.ru