Главная > ВЕРОЯТНОСТНЫЕ И СТАТИСТИЧЕСКИЕ АСПЕКТЫ КВАНТОВОЙ ТЕОРИИ (А.С. Холево)
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Во всяком эксперименте можно условно выделить две основные стадии. В первой стадии — приготовления — устанавливаются исходные ус.овия, задаются «входные данные» эксперимента. В следующей стадии — измерения определенным образом приготовленный объект или система взаимодействует с тем или иным измерительным прибором, результатом чего в каждом индивидуальном эксперименте является определенный исход — выходные данные эксперимента.

Важнейшим требованием, которому должен удовлетворять любой научный эксперимент, является воспроизводимость, возможности неограниченного повторения данного измерения в данных условиях.

Рассмотрим последовательность одинаковых и независимых повторений некоторого эксперимента. Исходы подобных индивидуальных экспериментов, как правило, будут не строго одинаковы, а подвержены случайному разбросу, амплитуда которого варьируется в зависимости от характера эксперимента и природы исследуемого объекта. Таким образом, результаты эксперимента определяются обеими стадиями, однако эта зависимость обычно не является детерминированной, а носит статистический характер. Для классических объектов, описываемых в терминах фазового пространства, выразить это обстоятельство позволяет язык теории вероятностей.

Обозначим $\omega$ полный набор переменных, характеризующих классический объект. Множество всевозможных конкретных значений $\omega$ образует фазовое пространство объекта $\Omega=\{\omega\}$.

Приготовление любого физического состояния объекта осуществляется некоторым прибором, который в силу особенностей своего устройства либо просто из-за своего несовершенства не может обеспечить точного воспроизведения значений всех параметров для различных представителей одного и того же объекта. Наконец, объект может характеризоваться таким огромным числом переменных, что обеспечить контроль за всеми ими не представляется никакой реальной возможности. Предполагается, однако, что разброс приготовленных значений $\omega$ обладает определенной статистической устойчивостью, характеризуемой распределением вероятностей $P$. Это распределение вероятностей, сопоставляющее элементарному объему $d \omega \subset \Omega$ его меру $P(d \omega)$, и называется состоянием объекта.

Таким образом, данное определение состояния, по существу, является статистическим и отражает возможность флуктуаций параметров объекта. Его реальное содержание состоит в том, что если рассмотреть «ансамбль», т. е. большую (потенциально неограниченную) совокупность независимых представителей данного объекта, то доля тех представителей, для которых значение $\omega$ лежит в некотором подмножестве $B \subset \Omega$, будет близка к своему теоретическому значению $P(B)$.

Возьмем два ансамбля, соответствующие состояниям $P_{1}$ и $P_{2}$, состоящие каждый из $N$ представителей, и образуем новый ансамбль из $p N$ представителей первого ансамбля и $(1-p) N$ представителей второго ансамбля, где $0<p<1$. В соответствии с данной выше частотной интерпретацией новый ансамбль будет описываться состоянием $P=p P_{1}+$ $+(1-p) P_{2}$, которое называется смесью состояний $P_{1}$ и $P_{2}$ в пропорции $p:(1-p)$. Аналогично вводится смесь любого конечного семейства состояний. Можно рассматривать и непрерывные смеси вида $\int \pi(d \alpha) P_{\alpha}(d \omega)$, где $\pi(d \alpha)-$ некоторое распределение вероятностей. Такие смеси могут описывать состояния, приготовляемые прибором с флуктуирующим параметром $\alpha$.

Если представлять себе состояния как элементы (точки) некоторого множества, то смеси состояний $P_{1}$ и $P_{2}$ во всевозможных пропорциях будут заполнять отрезок, соединяющий точки $P_{1}$ и $P_{2}$. Такие множества, которые вместе с любыми двумя своими точками содержат и соединяющий их отрезок, называются выпуклыми. Таким образом, множество состояний, которое будем теперь обозначать $\mathbf{S}(\Omega)$, является выпуклым. Точка выпуклого множества называется крайней, если она не лежит внутри отрезка, принадлежащего этому множеству (на рис. 1 крайние точки обозначены серым цветом). Крайним точкам множества состояний соответствуют чистые состояния, которые нельзя представить в виде смеси других состояний. В классической картине
Рис. 1

чистыми состояниями являются вырожденные распределения вероятностей, сосредоточенные в точках $\omega$ фазового пространства.

Чтобы это пояснить, рассмотрим простейший случай, когда $\Omega$ состоит из конечного числа точек: $\Omega=$ $=\left\{\omega_{1}, \ldots, \omega_{N}\right\}$. В этом случае состояние $P$ задается конечным распределением $\left[p_{1}, \ldots, p_{N}\right]$, где $p_{j} \geqslant 0, \sum_{j} p_{j}=1$. Чистые состояния — это вырожденные распределения вероятностей $[1,0, \ldots, 0], \ldots,[0, \ldots, 0,1]$. Рис. 2 иллюстрирует эту ситуацию для $N=3$.

Важная теорема выпуклого анализа утверждает, что во всяком достаточно регулярном выпуклом множестве любая точка может быть представлена как смесь крайних точек. Если это можно сделать единственным образом, то множество
Рис. 2
называется симплексом. Такое положение, очевидно, имеет место в рассмотренном выше примере. Это верно и в случае произвольного фазового пространства $\Omega$, если допускать произвольные «непрерывные» смеси состояний. Таким образом, при отсутствии каких-либо априорных ограничений $\mathrm{S}(\Omega)$ в классической картине эксперимента образует симплекс, т. е. множество, в котором всякое состояние является однозначной смесью чистых состояний, соответствующих точной фиксации всех параметров объекта.

Заключительная стадия эксперимента состоит в измерении некоторой величины $X$. В идеальном случае измерение не вносит каких-либо дополнительных погрешностей, т.е. сводится к наблюдению. Наблюдаемая (величина) $X$ определяется тогда функцией, которая относит каждому возможному $\omega \in \Omega$ ее «объективное» значение $X(\omega)$. Произведя наблюдение $X$, можно вычислить исходы наблюдений величин $f(X)$ (где $f$ — любая функция), не прибегая к непосредственному наблюдению этих величин.

Пусть для простоты наблюдаемая $X$ может принимать конечное число значений $\left\{x_{i}\right\}$. Тогда
\[
X(\omega)=\sum_{i} x_{i} E_{i}(\omega)
\]

где $E_{i}(\omega)$ — индикатор подмножества $\Omega_{i} \subset \Omega$, на котором $X(\omega)$ принимает значение $x_{i}$, т. е. функция, равная 1 на $\Omega_{i}$ и 0 вне $\Omega_{i}$ (рис. 3). Семейство функций $E=\left\{E_{i}(\omega)\right\}$ образует ортогональное разложение единицы в $\Omega$ :
\[
\sum_{i} E_{i}(\omega)=1, E_{i}(\omega) E_{j}(\omega)=0 \text { при } i
eq j, E_{i}(\omega)^{2}=E_{i}(\omega) .
\]

Рис. 3
Рассмотрим теперь наблюдаемую $f(X(\omega))$, где $f$ — любая вещественная функция. Очевидно, что
\[
f(X(\omega))=\sum_{i} f\left(x_{i}\right) E_{i}(\omega) .
\]

Даже если все $x_{i}$ различны, среди чисел $f\left(x_{i}\right)$ могут оказаться совпадающие. Поэтому, чтобы уравнять в правах
соотношения (1) и (2), удобно с самого начала допустить возможность совпадения некоторых значений $x_{i}$. Тогда наблюдение (измерение без ошибок) будет задаваться разложением единицы $E$, а каждой наблюдаемой $X$ может соответствовать по формуле (1) множество способов наблюдения, отличающихся степенью «подробоности» разбиения фазового пространства $\Omega$.

С операциональной точки зрения разложение единицы $E=\left\{E_{i}(\omega)\right\}$ отвечает разбиению исходного ансамбля на классы представителей, характеризующиеся свойством $\omega \in \Omega_{i}$. С точки зрения статистики $E$ несет всю существенную информацию об измерении: вероятность $i$-го исхода в состоянии $P$ равна
\[
\mu_{P}^{E}(i)=P\left(\Omega_{i}\right)=\int_{\Omega} P(d \omega) E_{i}(\omega) .
\]

Отсюда среднее значение наблюдаемой (1) в состоянии $P$ (математическое ожидание) есть $\mathrm{M}_{p}\{X\}=\int_{\Omega} P(d \omega) X(\omega)$.

Измерения, описываемые ортогональными разложениями единицы, являются детерминированными в том смысле, что безошибочно относят представителей ансамбля к тому или иному классу. Измерение с ошибками задается указанием вероятностей $M_{i}(\omega)$ i-го исхода для представителя, характеризующегося значением $\omega$, так что
\[
\sum_{i} M_{i}(\omega)=1, \quad M_{i}(\omega) \geqslant 0 .
\]

Набор $M=\left\{M_{i}(\omega)\right\}$ образует разложение единицы в $\Omega$, вообще говоря, неортогональное в том смысле, что $M_{i}(\omega) M_{j}(\omega)
eq 0$ при $i
eq j$. При этом $M_{i}(\omega)^{2} \leqslant M_{i}(\omega)$. Вероятность $i$-го исхода в состоянии $P$ для такого измерения равна
\[
\mu_{P}^{M}(i)=\int_{\Omega} P(d \omega) M_{i}(\omega) .
\]
Эта формула показывает, каким образом неопределенность исхода измерения в классической картине возникает из двух источников: из неопределенности в приготовлении состояния $P$ и из статистических погрешностей измерения $M$.

Разложение единицы $M$ дает лишь вероятности исходов измерения с ошибками, однако, зная эти вероятности, можно смоделировать статистическую реализацию измерения, используя датчик случайных чисел. Допустим, что имеется такой датчик, позволяющий получать значения случайной величины $\lambda$, равномерно распределенной на отрезке $\Lambda=[0,1]$ (классическим примером может служить надлежащим образом градуированная рулетка). Опишем детерминированное измерение $E=\left\{E_{i}(\omega, \lambda)\right\}$ над системой, состоящей из рассматриваемого объекта и датчика случайных чисел, статистически эквивалентное измерению $M=\left\{M_{i}(\omega)\right\}$ в том смысле, что для любого состояния $P$ вероятности всех исходов для измерений $M$ и $E$ одинаковы. Для этого разобьем фазовое пространство составной системы $\Omega \times \Lambda$ на подмножества $\Omega_{i}^{\prime}=\left\{(\omega, \lambda): \sum_{k=1}^{i-1} M_{k}(\omega)<\lambda \leqslant \sum_{k=1}^{i} M_{k}(\omega)\right\}$ и обозначим $E_{i}(\omega, \lambda)$ индикатор подмножества $\Omega_{i}^{\prime}$ (на рис. 4 приведено такое разбиение; длина серого отрезка равна $\left.M_{i}(\omega)\right)$.
По самому построению имеем
\[
\int d \lambda E_{i}(\omega, \lambda)=M_{i}(\omega)
\]

В самом деле, для данного $\omega$ указанный интеграл есть просто интеграл от $d \lambda$ в пределах от $\sum_{k=1}^{i-1} M_{k}(\omega)$ до $\sum_{k=1}^{i} M_{k}(\omega)$, т. е. $M_{k}(\omega)$ (см. рис. 4). Интегрируя это равенство по $P(d \omega)$, получаем
\[
\mu_{P}^{M}=\int_{\Omega} P(d \omega) M_{i}(\omega)=\int_{\Omega} \int_{\Lambda} P(d \omega) d \lambda E_{i}(\omega, \lambda)=\mu_{P \times d \lambda}^{E}(i),
\]

Рис. 4

что и означает статистическую эквивалентность измерений $M$ и $E$.

Процедура розыгрыша исхода с помощью датчика случайных чисел, введенная в статистику Вальдом, называется рандомизацией [21], и соответствующие измерения также могут быть названы рандомизованными.

С точки зрения статистики результаты эксперимента, состоящего в приготовлении состояния $P$ и последующем измерении $M$, полностью описываются распределением вероятностей исходов измерения $\mu_{P}^{M}=\left\{\mu_{P}^{M}(i)\right\}$. Отметим, что соответствие $P \rightarrow \mu_{P}^{M}$ обладает характеристическим свойством аффинности: если состояние $P$ является смесью состояний $P_{1}$ и $P_{2}$ в пропорции $p:(1-p)$, то распределение исходов $\mu_{P}^{M}$ является смесью распределений $\mu_{P_{1}}^{M}$ и $\mu_{P_{2}}^{M}$ в той же пропорции, $\mu_{p P_{1}+(1-p) P_{2}}^{M}=p \mu_{P_{1}}^{M}+(1-p) \mu_{P_{2}}^{M}$.

1
Оглавление
email@scask.ru