Главная > ВЕРОЯТНОСТНЫЕ И СТАТИСТИЧЕСКИЕ АСПЕКТЫ КВАНТОВОЙ ТЕОРИИ (А.С. Холево)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Пусть $\theta$-вообще говоря, многомерный параметр, описывающий определенные аспекты приготовления состояния (например, положение экспериментальной установки). Каждому $\theta$ из области допустимых значений $\theta$ соответствует свой оператор плотности $S_{\theta}$, так что имеется семейство $\left\{S_{\theta} ; \theta \in \Theta\right\}$ состояний в $\mathscr{K}$. Допустим, что на параметрическом множестве $\boldsymbol{\theta}$ действует группа преобразований $g: \theta \rightarrow g \theta$, которая имеет представление $g \rightarrow V_{g}$ в гильбертовом пространстве $\mathscr{K}$. Семейство $\left\{S_{\theta}\right\}$ называется ковариантным по отношению к этому представлению, если
\[
S_{g \theta}=V_{g} S_{\theta} V_{g}^{*} ; \quad \theta \in \theta, g \in G .
\]

Фиксируем кначало отсчета» $\theta_{0}$; состояние $S_{\theta_{0}}=S$ должно быть инвариантно относительно подпредставления стационарной подгруппы $G_{0}$ точки $\theta_{0}: S=V_{g} S V_{g}^{*}, g \in G_{0}$,

так что можно написать
\[
S_{\theta}=V_{g} S V_{g}^{*} \quad\left(\theta=g \theta_{0}\right) .
\]

Предположим теперь, что объект находится в одном из состояний $\left\{S_{\theta}\right\}$, но истинное значение параметра $\theta$ неизвестно и задача заключается в том, чтобы по возможности точно оценить это значение, основываясь на измерениях, допускаемых квантовой теорией. Мы рассмотрим этот вопрос, руководствуясь идеями статистической теории оценивания.

Зададимся некоторой функцией отклонения $W_{\theta}(\hat{\theta})$, которая дает численную меру отклонения наблюдавшегося значения $\hat{\theta}$ от истинного $\theta$. Мы предположим, что $W_{\theta}(\hat{\theta})-$ непрерывная функция своих аргументов, причем $\mathbb{W}_{\theta}(\hat{\theta}) \geqslant$ $\geqslant W_{\theta}(\theta)$. Естественно предположить также, что функция отклонения инвариантна:
\[
W_{g \theta}(g \hat{\theta})=W_{\theta}(\hat{\theta}) ; \quad g \in G ; \quad \theta, \hat{\theta} \in \Theta .
\]

Для всех рассматриваемых нами групп существуют «естественные» функции отклонения (например, квадратичное отклонение $(\hat{\theta}-\theta)^{2}$, для группы сдвигов $\mathbb{R}$ ). Примечательно, однако, что, как будет показано, конечный результат – «наиболее точное измерение – в значительной мере не зависит от конкретного выбора функции $W_{\theta}(\hat{\theta})$, определяющей точность измерения.

Среднее отклонение результатов измерения $\boldsymbol{M}=$ $=\{M(d \hat{\theta})\}$ при условии, что истинным значением является $\theta$, равно
\[
\mathscr{R}_{\theta}\{\boldsymbol{M}\}=\int \boldsymbol{W}_{\theta}(\hat{\theta}) \mu_{s_{\theta}}(d \hat{\theta}),
\]

где $\mu_{s_{\theta}}(d \hat{\theta})=\operatorname{Tr} S_{\theta} M(d \hat{\theta})$ – распределение вероятностей измерения $\boldsymbol{M}$ относительно состояния $S_{\theta}$. Желая найти наилучшее измерение параметра $\theta$, следовало бы потребовать, чтобы $\boldsymbol{M}$ минимизировало среднее отклонение (3.2) при всех возможных значениях $\theta \in \Theta$. Однако из математической статистики хорошо известно, что подобное требование обычно невыполнимо: то, что хорошо для одних значений $\theta$, будет плохо для других. Чтобы ввести разумное понятие оптимальности, следует пойти на компромисс и образовать некоторый функционал от величин $\mathscr{\varkappa}_{\theta}\{\boldsymbol{M}\}, \theta \in \Theta$, который служил бы «интегральной» мерой точности.

Следуя классической теории оценивания, можно предложить два разных функционала.

При байесовском подходе берется среднее величин $\left\{\mathscr{R}_{\theta}\{\boldsymbol{M}\}\right\}$ по некоторому априорному распределению $\pi(d \theta)$. Измерение, минимизирующее эту меру точности:
\[
\mathscr{R}_{\pi}\{\boldsymbol{M}\}=\int \mathscr{R}_{\theta}\{\boldsymbol{M}\} \boldsymbol{\pi}(d \theta),
\]

называется байесовским. Величина $\mathscr{R}_{\boldsymbol{\pi}}\{\boldsymbol{M}\}$ дает среднюю ошибку в ситуации, когда $\theta$ является случайным параметром с известным распределением $\pi(d \theta)$. В частности, если $\theta$ компактно и о $\theta$ кзаранее ничего не известно», то в качестве $\pi(d \theta)$ принято брать «равномерное распределение на $\Theta$, т. е. нормированную инвариантную меру $v(d \theta)$.

При минимаксном подходе берется максимальное отклонение
\[
\hat{\mathscr{R}}\{\boldsymbol{M}\}=\max _{\theta} \mathscr{R}_{\theta}\{\boldsymbol{M}\} .
\]

Минимизирующее его измерение называется микимаксным. Измерение, на котором достигается минимум той или иной меры точности, мы будем называть также оп т и мальным.

Ограничившись здесь случаем компактной группы, мы покажем, что для ковариантного семейства состояний как байесовская, так и минимаксная меры точности достигают минимума на ковариантном измерении. Этот факт является некоммутативным аналогом известной теоремы Ханта-Стейна в математической статистике.

Среднее отклонение, а значит, и байесовская мера точности являются аффинными функционалами на выпуклом множестве всех $\Theta$-измерений $\mathfrak{M}(\boldsymbol{\theta})$. В случае компактного $\Theta$ и непрерывной функции отклонения $W_{\theta}(\hat{\theta})$ выполнены условия, при которых байесовская мера точности достигает минимума в крайней точке множества $\mathfrak{M}(\boldsymbol{\theta})$. Доказательство этого утверждения, а также подробное рассмотрение вопросов интегрируемости мы здесь проводить не будем (см. комментарии).

Теорема 3.1. Минимум байесовской меры тоиности $\mathscr{R}_{v}\{M\}$ с инвариантным априорным распределением и минимаксной меры точности $\hat{\mathscr{R}}\{M\}$ по всем Ө-измерениям
достигается на множестве ковариантных измерений. Для ковариантного иямерения М среднее отклонение $\mathscr{R}_{\theta}\{\boldsymbol{M}\}$ не зависит от $\theta$, так ито
\[
\mathscr{R}_{v}\{\boldsymbol{M}\}=\hat{\mathscr{R}}\{\boldsymbol{M}\}=\mathscr{R}_{\theta}\{\boldsymbol{M}\}, \quad \boldsymbol{\theta} \in \boldsymbol{\theta} .
\]

Доказательство. Введем измерение $\boldsymbol{M}_{\boldsymbol{g}}=$ $=\left\{M_{g}(d \hat{\theta})\right\}$, полагая
\[
M_{g}(B)=V_{g}^{*} M\left(B_{g}\right) V_{g}, \quad B \in \text { et }(\theta),
\]

и заметим, что измерение $\boldsymbol{M}$ ковариантно тогда и только тогда, когда $\boldsymbol{M}_{g}=\boldsymbol{M}, g \in G$. Из ковариантности семейства $\left\{S_{\theta}\right\}$ и инвариантности функции отклонения $W_{\theta}(\hat{\theta})$ получаем
\[
\mathscr{R}_{\theta}\left\{\boldsymbol{M}_{\boldsymbol{g}}\right\}=\mathscr{R}_{\boldsymbol{\varepsilon} \theta}\{\boldsymbol{M}\} .
\]

В частности, для ковариантного измерения $\mathscr{R}_{\theta}\{M\}$ не зависит от $\theta$, так что выполняется (3.3). Рассмотрим байесовскую меру точности
\[
\mathscr{R}_{v}\{\boldsymbol{M}\}=\int \mathscr{R}_{\theta}\{\boldsymbol{M}\} \boldsymbol{v}(d \theta) .
\]

Используя (3.4), получаем $\mathscr{R}_{v}\{\boldsymbol{M}\}=\mathscr{R}_{v}\left\{\boldsymbol{M}_{g}\right\}$.
Введем кусредненное» измерение $\bar{M}$, полагая
\[
M(B)=\int_{a} M_{g-1}(B) \mu(d g) .
\]
(В конечномерном случае определение этого интеграла очевидно.) Так как $\mathscr{R}_{v}\{M\}$ – аффинный функционал измерения, то $\mathscr{R}_{v}\{\bar{M}\}=\int \mathscr{R}_{v}\left\{M_{g-1}\right\} \mu(d g)=\mathscr{R}_{v}\{M\} \quad$ и $\max _{\theta} \mathscr{R}_{\theta}\{\boldsymbol{M}\} \geqslant \mathscr{R}_{v}\{\boldsymbol{M}\}=\mathscr{R}_{v}\{\bar{M}\}$. Но усредненное измерение, очевидно, ковариантно, так что
\[
\mathscr{R}_{v}\{\bar{M}\} \equiv \mathscr{R}_{\theta}\{\bar{M}\}=\max _{\theta} \mathscr{R}_{\theta}\{\bar{M}\} .
\]

Таким образом, для любого измерения $M$ мы построили ковариантное измерение $\bar{M}$ с тем же значением байесовской меры точности и с, возможно, меньшим значением минимаксной меры. Поэтому минимум этих функционалов достигается на ковариантном измерении.
Теорема 3.1 сводит проблему оптимального измерения к минимизации среднего отклонения
\[
\mathscr{R}_{\theta_{\theta}}\{\boldsymbol{M}\} \cdot=\int \boldsymbol{W}_{\theta_{0}}(\theta) \mu_{s_{\theta_{0}}}(d \theta)
\]
вопрос, предполагая, что $\operatorname{dim} \mathscr{K}<\infty$. Тогда мы находимся в условиях теоремы 2.1 и $\mathscr{R}_{\theta_{0}}\{\boldsymbol{M}\}$ можно переписать в виде
\[
\mathscr{R}_{\theta_{0}}\{M\}=\int W_{\theta_{0}}(\theta) \operatorname{Tr} V_{g}^{*} S V_{g} P_{0} v(d \theta)=\operatorname{Tr} \hat{W}_{0} P_{0},
\]

где
\[
\hat{W}_{0}=\int_{\theta} W_{\theta_{0}}(\theta) V_{g}^{*} S V_{g} v(d \theta)=\int_{G} W_{\theta_{0}}\left(g \theta_{0}\right) V_{g}^{*} S V_{g} \mu(d g)
\]
– оператор, коммутирующий с $\left\{V_{g} ; g \in G_{0}\right\}$. Основываясь на аналогиях с классической статистикой, можно назвать $\hat{\boldsymbol{W}}_{0}$ оператором апостериорного отклонения. Таким образом, необходимо найти
\[
\min \operatorname{Tr} \hat{W}_{0} P_{0}
\]

по всем эрмитовым операторам $P_{0}$ из множества $\$$ (см. § 2) или же по крайним точкам этого множества.

Эта задача имеет простое решение в случае неприводимого представления, когда $\$$ состоит из операторов, коммутирующих с $\left\{V_{g} ; g \in G_{0}\right\}$ и таких, что
\[
P_{0} \geqslant 0, \quad \operatorname{Tr} P_{0}=d .
\]

Обозначим $\hat{w}_{\text {min }}$ наименьшее собственное значение оператора $\hat{W}_{0}$, а через $\hat{E}_{\min }$ – проектор на соответствующее инвариантное подпространство. Тогда $\hat{W}_{0} \geqslant \hat{\boldsymbol{w}}_{\text {min }} \cdot I$, откуда
\[
\operatorname{Tr} \hat{W}_{0} P_{0} \geqslant \hat{\boldsymbol{w}}_{\min } \operatorname{Tr} P_{0}=\hat{\boldsymbol{v}}_{\text {min }} d .
\]

Равенство здесь достигается, если
\[
P_{0}=\hat{E}_{\min } \frac{d}{d_{\min }},
\]

где $\hat{d}_{\min }$-размерность инвариантного подпространства, соответствующего минимальному собственному значению $\hat{\boldsymbol{w}}_{\text {min }}$. Так как $\hat{W}_{0}$ коммутирует с $\left\{V_{g} ; g \in G_{0}\right\}$, то это же верно и для $\hat{E}_{\min }$, так что оператор (3.7) удовлетворяет всем необходимым условиям. Сформулируем полученный результат.

ПІредложение 3.1. Пусть $g \rightarrow V_{g}$ – жеприводимое представление компактной группы $G$ преобразований множества $\boldsymbol{\theta}$. Тогда оптимальным является ковариантное измерение
\[
M_{*}(d \theta)=\frac{d}{\hat{d}_{\min }} \cdot V_{g} \hat{E}_{\min } V_{\mathrm{g}}^{*} v(d \theta) \quad\left(\theta=g \theta_{0}\right) .
\]

Минимум среднего отклонения равен $\hat{\omega}_{\min } \cdot d$, где $\hat{\boldsymbol{v}}_{\min }-$ минимальное значение, $\hat{E}_{\min }$ – проектор на соответствуюцее инвариантное подпространство оператора апостериорного отклокения (3.5).

В классической статистике, помимо байесовского и минимаксного, существуют и другие подходы к определению точности оценок параметров, например, основанные на понятии несмещенности и неравенстве Рао – Крамера. Мы рассмотрим их в гл. VI, а сейчас коротко остановимся на некоммутативном аналоге метода максимального правдоподобия. Формально критерий максимального правдоподобия соответствует байесовскому с равномерным априорным распределением и функцией отклонения
\[
\mathbb{W}_{\theta_{0}}(\theta)=\left\{\begin{array}{cc}
0, & \theta
eq \theta_{0}, \\
-\infty, & \theta=\theta_{0} .
\end{array}\right.
\]

Точнее, определим дельта-функцию на $\Theta$ формальным соотношением
\[
\int \delta_{\theta_{0}}(\theta) f(\theta) v(d \theta)=f\left(\theta_{0}\right)
\]

для любой непрерывной $f$. Тогда взятая с обратным знаком байесовская мера отклонения, соответствующая функции $W_{\theta_{0}}(\theta)=-\delta_{\theta_{0}}(\theta)$, имеет вид
\[
\int \operatorname{Tr} S_{\theta} M(d \theta) .
\]

Этому выражению можно придать прямой смысл, если Ө-компактное множество и пространство $\mathscr{K}$ конечномерно. В этом случае, рассуждая как и при доказательстве теоремы 2.1, можно показать, что операторная мера $M(d \theta)$ дифференцируема от носительно скалярной меры

$m(d \theta)=\operatorname{Tr} M(d \theta)$, так что $M(d \theta)=P(\theta) m(d \theta)$, и интеграл (3.8) можно определить как
\[
\int \operatorname{Tr} S_{\theta} M(d \theta)=\int\left(\operatorname{Tr} S_{\theta} P(\theta)\right) m(d \theta) .
\]

Измерение, максимизирующее этот функционал, называется измерением максимального правдоподобия. Можно показать, что для ковариантного семейства состояний $S_{\theta}=V_{g} S V_{g}^{*}$ максимум величины (3.9) достигается на ковариантном измерении. Для ковариантного измерения (2.5) функционал (3.9) принимает вид $\operatorname{Tr} S P_{0}$. Таким образом, ковариантное измерение максимального правдоподобия имеет вид (2.5), где $P_{0}$ – решение задачи
\[
\max \operatorname{Tr} S P_{0} ; \quad P_{0} \in \Re .
\]

В случае неприводимого представления $g \rightarrow V_{g}$ решение этой задачи совершенно аналогично решению задачи (3.6) и измерение максимального правдоподобия имеет вид
\[
M(d \theta)=\frac{d}{d_{\max }} V_{g} E_{\max } V_{g}^{*} v(d \theta) \quad\left(\theta=g \theta_{\theta}\right),
\]

где $E_{\max }$ – проектор на собственное подпространство, отвечающее максимальному собственному числу оператора $S=S_{\theta_{0}}$, а $d_{\max }$ – размерность этого подпространства.

Categories

1
Оглавление
email@scask.ru