Главная > ВЕРОЯТНОСТНЫЕ И СТАТИСТИЧЕСКИЕ АСПЕКТЫ КВАНТОВОЙ ТЕОРИИ (А.С. Холево)
<< Предыдущий параграф
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Во всяком эксперименте можно условно выделить две основные стадии. В первой стадии – приготовления – устанавливаются исходные ус.овия, задаются «входные данные» эксперимента. В следующей стадии – измерения определенным образом приготовленный объект или система взаимодействует с тем или иным измерительным прибором, результатом чего в каждом индивидуальном эксперименте является определенный исход – выходные данные эксперимента.

Важнейшим требованием, которому должен удовлетворять любой научный эксперимент, является воспроизводимость, возможности неограниченного повторения данного измерения в данных условиях.

Рассмотрим последовательность одинаковых и независимых повторений некоторого эксперимента. Исходы подобных индивидуальных экспериментов, как правило, будут не строго одинаковы, а подвержены случайному разбросу, амплитуда которого варьируется в зависимости от характера эксперимента и природы исследуемого объекта. Таким образом, результаты эксперимента определяются обеими стадиями, однако эта зависимость обычно не является детерминированной, а носит статистический характер. Для классических объектов, описываемых в терминах фазового пространства, выразить это обстоятельство позволяет язык теории вероятностей.

Обозначим $\omega$ полный набор переменных, характеризующих классический объект. Множество всевозможных конкретных значений $\omega$ образует фазовое пространство объекта $\Omega=\{\omega\}$.

Приготовление любого физического состояния объекта осуществляется некоторым прибором, который в силу особенностей своего устройства либо просто из-за своего несовершенства не может обеспечить точного воспроизведения значений всех параметров для различных представителей одного и того же объекта. Наконец, объект может характеризоваться таким огромным числом переменных, что обеспечить контроль за всеми ими не представляется никакой реальной возможности. Предполагается, однако, что разброс приготовленных значений $\omega$ обладает определенной статистической устойчивостью, характеризуемой распределением вероятностей $P$. Это распределение вероятностей, сопоставляющее элементарному объему $d \omega \subset \Omega$ его меру $P(d \omega)$, и называется состоянием объекта.

Таким образом, данное определение состояния, по существу, является статистическим и отражает возможность флуктуаций параметров объекта. Его реальное содержание состоит в том, что если рассмотреть «ансамбль», т. е. большую (потенциально неограниченную) совокупность независимых представителей данного объекта, то доля тех представителей, для которых значение $\omega$ лежит в некотором подмножестве $B \subset \Omega$, будет близка к своему теоретическому значению $P(B)$.

Возьмем два ансамбля, соответствующие состояниям $P_{1}$ и $P_{2}$, состоящие каждый из $N$ представителей, и образуем новый ансамбль из $p N$ представителей первого ансамбля и $(1-p) N$ представителей второго ансамбля, где $0<p<1$. В соответствии с данной выше частотной интерпретацией новый ансамбль будет описываться состоянием $P=p P_{1}+$ $+(1-p) P_{2}$, которое называется смесью состояний $P_{1}$ и $P_{2}$ в пропорции $p:(1-p)$. Аналогично вводится смесь любого конечного семейства состояний. Можно рассматривать и непрерывные смеси вида $\int \pi(d \alpha) P_{\alpha}(d \omega)$, где $\pi(d \alpha)-$ некоторое распределение вероятностей. Такие смеси могут описывать состояния, приготовляемые прибором с флуктуирующим параметром $\alpha$.

Если представлять себе состояния как элементы (точки) некоторого множества, то смеси состояний $P_{1}$ и $P_{2}$ во всевозможных пропорциях будут заполнять отрезок, соединяющий точки $P_{1}$ и $P_{2}$. Такие множества, которые вместе с любыми двумя своими точками содержат и соединяющий их отрезок, называются выпуклыми. Таким образом, множество состояний, которое будем теперь обозначать $\mathbf{S}(\Omega)$, является выпуклым. Точка выпуклого множества называется крайней, если она не лежит внутри отрезка, принадлежащего этому множеству (на рис. 1 крайние точки обозначены серым цветом). Крайним точкам множества состояний соответствуют чистые состояния, которые нельзя представить в виде смеси других состояний. В классической картине
Рис. 1

чистыми состояниями являются вырожденные распределения вероятностей, сосредоточенные в точках $\omega$ фазового пространства.

Чтобы это пояснить, рассмотрим простейший случай, когда $\Omega$ состоит из конечного числа точек: $\Omega=$ $=\left\{\omega_{1}, \ldots, \omega_{N}\right\}$. В этом случае состояние $P$ задается конечным распределением $\left[p_{1}, \ldots, p_{N}\right]$, где $p_{j} \geqslant 0, \sum_{j} p_{j}=1$. Чистые состояния – это вырожденные распределения вероятностей $[1,0, \ldots, 0], \ldots,[0, \ldots, 0,1]$. Рис. 2 иллюстрирует эту ситуацию для $N=3$.

Важная теорема выпуклого анализа утверждает, что во всяком достаточно регулярном выпуклом множестве любая точка может быть представлена как смесь крайних точек. Если это можно сделать единственным образом, то множество
Рис. 2
называется симплексом. Такое положение, очевидно, имеет место в рассмотренном выше примере. Это верно и в случае произвольного фазового пространства $\Omega$, если допускать произвольные «непрерывные» смеси состояний. Таким образом, при отсутствии каких-либо априорных ограничений $\mathrm{S}(\Omega)$ в классической картине эксперимента образует симплекс, т. е. множество, в котором всякое состояние является однозначной смесью чистых состояний, соответствующих точной фиксации всех параметров объекта.

Заключительная стадия эксперимента состоит в измерении некоторой величины $X$. В идеальном случае измерение не вносит каких-либо дополнительных погрешностей, т.е. сводится к наблюдению. Наблюдаемая (величина) $X$ определяется тогда функцией, которая относит каждому возможному $\omega \in \Omega$ ее «объективное» значение $X(\omega)$. Произведя наблюдение $X$, можно вычислить исходы наблюдений величин $f(X)$ (где $f$ – любая функция), не прибегая к непосредственному наблюдению этих величин.

Пусть для простоты наблюдаемая $X$ может принимать конечное число значений $\left\{x_{i}\right\}$. Тогда
\[
X(\omega)=\sum_{i} x_{i} E_{i}(\omega)
\]

где $E_{i}(\omega)$ – индикатор подмножества $\Omega_{i} \subset \Omega$, на котором $X(\omega)$ принимает значение $x_{i}$, т. е. функция, равная 1 на $\Omega_{i}$ и 0 вне $\Omega_{i}$ (рис. 3). Семейство функций $E=\left\{E_{i}(\omega)\right\}$ образует ортогональное разложение единицы в $\Omega$ :
\[
\sum_{i} E_{i}(\omega)=1, E_{i}(\omega) E_{j}(\omega)=0 \text { при } i
eq j, E_{i}(\omega)^{2}=E_{i}(\omega) .
\]

Рис. 3
Рассмотрим теперь наблюдаемую $f(X(\omega))$, где $f$ – любая вещественная функция. Очевидно, что
\[
f(X(\omega))=\sum_{i} f\left(x_{i}\right) E_{i}(\omega) .
\]

Даже если все $x_{i}$ различны, среди чисел $f\left(x_{i}\right)$ могут оказаться совпадающие. Поэтому, чтобы уравнять в правах
соотношения (1) и (2), удобно с самого начала допустить возможность совпадения некоторых значений $x_{i}$. Тогда наблюдение (измерение без ошибок) будет задаваться разложением единицы $E$, а каждой наблюдаемой $X$ может соответствовать по формуле (1) множество способов наблюдения, отличающихся степенью «подробоности» разбиения фазового пространства $\Omega$.

С операциональной точки зрения разложение единицы $E=\left\{E_{i}(\omega)\right\}$ отвечает разбиению исходного ансамбля на классы представителей, характеризующиеся свойством $\omega \in \Omega_{i}$. С точки зрения статистики $E$ несет всю существенную информацию об измерении: вероятность $i$-го исхода в состоянии $P$ равна
\[
\mu_{P}^{E}(i)=P\left(\Omega_{i}\right)=\int_{\Omega} P(d \omega) E_{i}(\omega) .
\]

Отсюда среднее значение наблюдаемой (1) в состоянии $P$ (математическое ожидание) есть $\mathrm{M}_{p}\{X\}=\int_{\Omega} P(d \omega) X(\omega)$.

Измерения, описываемые ортогональными разложениями единицы, являются детерминированными в том смысле, что безошибочно относят представителей ансамбля к тому или иному классу. Измерение с ошибками задается указанием вероятностей $M_{i}(\omega)$ i-го исхода для представителя, характеризующегося значением $\omega$, так что
\[
\sum_{i} M_{i}(\omega)=1, \quad M_{i}(\omega) \geqslant 0 .
\]

Набор $M=\left\{M_{i}(\omega)\right\}$ образует разложение единицы в $\Omega$, вообще говоря, неортогональное в том смысле, что $M_{i}(\omega) M_{j}(\omega)
eq 0$ при $i
eq j$. При этом $M_{i}(\omega)^{2} \leqslant M_{i}(\omega)$. Вероятность $i$-го исхода в состоянии $P$ для такого измерения равна
\[
\mu_{P}^{M}(i)=\int_{\Omega} P(d \omega) M_{i}(\omega) .
\]
Эта формула показывает, каким образом неопределенность исхода измерения в классической картине возникает из двух источников: из неопределенности в приготовлении состояния $P$ и из статистических погрешностей измерения $M$.

Разложение единицы $M$ дает лишь вероятности исходов измерения с ошибками, однако, зная эти вероятности, можно смоделировать статистическую реализацию измерения, используя датчик случайных чисел. Допустим, что имеется такой датчик, позволяющий получать значения случайной величины $\lambda$, равномерно распределенной на отрезке $\Lambda=[0,1]$ (классическим примером может служить надлежащим образом градуированная рулетка). Опишем детерминированное измерение $E=\left\{E_{i}(\omega, \lambda)\right\}$ над системой, состоящей из рассматриваемого объекта и датчика случайных чисел, статистически эквивалентное измерению $M=\left\{M_{i}(\omega)\right\}$ в том смысле, что для любого состояния $P$ вероятности всех исходов для измерений $M$ и $E$ одинаковы. Для этого разобьем фазовое пространство составной системы $\Omega \times \Lambda$ на подмножества $\Omega_{i}^{\prime}=\left\{(\omega, \lambda): \sum_{k=1}^{i-1} M_{k}(\omega)<\lambda \leqslant \sum_{k=1}^{i} M_{k}(\omega)\right\}$ и обозначим $E_{i}(\omega, \lambda)$ индикатор подмножества $\Omega_{i}^{\prime}$ (на рис. 4 приведено такое разбиение; длина серого отрезка равна $\left.M_{i}(\omega)\right)$.
По самому построению имеем
\[
\int d \lambda E_{i}(\omega, \lambda)=M_{i}(\omega)
\]

В самом деле, для данного $\omega$ указанный интеграл есть просто интеграл от $d \lambda$ в пределах от $\sum_{k=1}^{i-1} M_{k}(\omega)$ до $\sum_{k=1}^{i} M_{k}(\omega)$, т. е. $M_{k}(\omega)$ (см. рис. 4). Интегрируя это равенство по $P(d \omega)$, получаем
\[
\mu_{P}^{M}=\int_{\Omega} P(d \omega) M_{i}(\omega)=\int_{\Omega} \int_{\Lambda} P(d \omega) d \lambda E_{i}(\omega, \lambda)=\mu_{P \times d \lambda}^{E}(i),
\]

Рис. 4

что и означает статистическую эквивалентность измерений $M$ и $E$.

Процедура розыгрыша исхода с помощью датчика случайных чисел, введенная в статистику Вальдом, называется рандомизацией [21], и соответствующие измерения также могут быть названы рандомизованными.

С точки зрения статистики результаты эксперимента, состоящего в приготовлении состояния $P$ и последующем измерении $M$, полностью описываются распределением вероятностей исходов измерения $\mu_{P}^{M}=\left\{\mu_{P}^{M}(i)\right\}$. Отметим, что соответствие $P \rightarrow \mu_{P}^{M}$ обладает характеристическим свойством аффинности: если состояние $P$ является смесью состояний $P_{1}$ и $P_{2}$ в пропорции $p:(1-p)$, то распределение исходов $\mu_{P}^{M}$ является смесью распределений $\mu_{P_{1}}^{M}$ и $\mu_{P_{2}}^{M}$ в той же пропорции, $\mu_{p P_{1}+(1-p) P_{2}}^{M}=p \mu_{P_{1}}^{M}+(1-p) \mu_{P_{2}}^{M}$.

Categories

1
Оглавление
email@scask.ru