Главная > КВАНТОВАЯ ВЕРОЯТНОСТЬ И КВАНТОВАЯ СТАТИСТИКА
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Байесовский риск (2.2) представляется в виде
\[
\mathscr{R}\{\mathbf{M}\}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u},
\]

где \( \hat{W}_{u}=\sum_{\theta=1}^{m} \pi_{\theta} W_{\theta}(u) S_{\theta} \)-операторная апостериорная функция отклонения. Поскольку \( \mathscr{R}\{\boldsymbol{M}\} \) – аффинный функционал на выпуклом множестве \( \mathfrak{R} \), задача о его минимизации может быть рассмотрена с помощью методов линейного программирования.

Теорема (А. С. Холево, Юн). Имеет место соотношение двойственности
\[
\min _{\mathfrak{M}} \mathscr{R}\{\mathbf{M}\}==\max \left\{\operatorname{Tr} \Lambda: \Lambda \in \mathfrak{T}(\mathscr{H}), \Lambda \leqslant \hat{W}_{u} ; u=1, \ldots, m\right\} .
\]

Следующие утверждения эквивалентны:
0) \( \mathbf{M}^{0}=\left\{M_{u}{ }^{0}\right\} \) – байесовское решающее правило;
1) существует \( \Lambda^{0} \in \mathfrak{E}(\mathscr{H}) \), такой что
\[
\Lambda^{0} \leqslant \hat{W}_{u} ; \quad\left(\hat{W}_{u}-\Lambda^{0}\right) M_{u}{ }^{0}=0 ; \quad u=1, \ldots, m ;
\]
2) оператор \( \Lambda^{0}=\sum_{u=1}^{m} \hat{W}_{u} M_{u}{ }^{0} \) эрмитов и \( \Lambda^{0} \leqslant \hat{W}_{u} ; u=1, \ldots, m \).

Задача в правой части (2.5) имеет единственное решение, которым является оператор \( \Lambda^{0} \), входящий в условия 1), 2).

Наиболее часто используется достаточность условия 1), которая доказывается элементарно: для любого \( \mathbf{M}=\left\{M_{u}\right\} \)
\[
\mathscr{R}\{\mathbf{M}\}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u} \geqslant \operatorname{Tr} \Lambda \sum_{u=1}^{m} M_{u}{ }^{0}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u}{ }^{0}=\mathscr{R}\left\{\mathbf{M}^{0}\right\} .
\]

С помощью этого условия легко проверяется оптимальность решающего правила (1.9) в примере предыдущего пункта,

Пример 1. Пусть операторы \( \hat{W}_{u}-\hat{W}_{v} ; \quad u, v=1, \ldots, m \), перестановочны, т. е. \( \hat{W}_{u}=C+\hat{W}_{u}{ }^{0} \), где \( \hat{W}_{u}{ }^{0}- \) перестановочные операторы. Тогда существует самосопряженный оператор \( \ddot{z} \) и функции \( \hat{W}_{u}{ }^{0}(x) \) на \( \mathbf{R} \), такие что
\[
\hat{W}_{u}{ }^{0}=\hat{W}_{k}{ }^{0}(X) .
\]

Пусть \( \left\{\mathscr{\mathscr { O }}_{k}\right\} \)-разбиение \( \mathrm{R} \), такое что \( \hat{W}_{k}^{0}(x) \leqslant \hat{W}_{j}{ }^{0}(x) \) при \( x \in \mathscr{X}_{k}, \quad j
eq k \), и положим \( \Lambda^{0}=C+\min \hat{W}_{k}^{0}(X), M_{k}{ }^{0}=1 \mathscr{X}_{k}\left(X^{\prime}\right) \). Тогда условия 1) выполнены. Если \( C^{k}=0 \), то это соответствует вычислению байесовского решающего правила в классической статистике: правило является детерминированным и для каждого \( x \) предписывает выбирать решение \( u \), для которого апостериорное отклонение \( \hat{W}_{u}(x) \) минимально [37, гл. IV].

Пример 2. Условия предыдущего примера автоматически выполняются в случае двух гипотез \( S_{0}, S_{1} \). Для простоты рассмотрим функцию потерь \( W_{\theta}(u)=1-\delta_{\theta u} \), так что речь идет о
\( 4^{*} \)

минимизации средней ошибки. Байесовское решающее правило имеет вид
\[
M_{0}^{0}=1_{(0, \infty)}\left(\pi_{0} S_{0}-\pi_{1} S_{1}\right), \quad M_{1}^{0}=1_{(-\infty, 01}\left(\pi_{0} S_{0}-\pi_{1} S_{1}\right),
\]

и минимальная ошибка
\[
\mathscr{R}\left\{\boldsymbol{M}^{0}\right\}=\frac{1}{2}\left(1-\left\|\pi_{0} S_{0}-\pi_{1} S_{1}\right\|_{1}\right) .
\]

Если \( S_{0}, S_{1} \) – чистые состояния с векторами \( \psi_{0}, \psi_{1} \), то
\[
\mathscr{R}\left\{\boldsymbol{M}^{0}\right\}=\frac{1}{2}\left(1-\sqrt{1-4 \pi_{0} \pi_{1}\left|\left\langle\psi_{0} \mid \psi_{1}\right\rangle\right|^{2}}\right) .
\]

В общем случае уравнения оптимальности сводятся к сложной нелинейной задаче, часто геометрического характера. Много интересных явно решаемых случаев, в которых условия примера 1 не выполняются, рассмотрено Хелстромом [37], Р. Л. Стратоновичем [155] и В. П. Белавкиным [63]. Остановимся на задаче различения \( m \) чистых состояний с линейно независимыми векторами \( \psi_{\theta} \) и априорными вероятностями \( \pi_{\theta}&gt;0 \). Можно считать, что \( \mathscr{H} \) порождается векторами \( \psi_{\theta} ; \theta=1, \ldots, m \). Кеннеди показал, что в этом случае байесовское решающее правило имеет вид
\[
M_{u}=\left|e_{u}\right\rangle\left\langle e_{u}\right| ; u=1, \ldots, m,
\]

где \( \left\{e_{u}\right\} \) – некоторый ортонормированный базис в \( \mathscr{H} \) (см. [37, rл. IV]). Таким образом, задача сводится к нахождению ортонормированного базиса, наилучшим образом приближающего систему \( \left\{\psi_{u}\right\} \) в смысле критерия
\[
\mathscr{R}\{\boldsymbol{M}\}=\sum_{\theta=1}^{n n} \pi_{\theta}\left(1-\left|\left\langle\psi_{\theta} \mid e_{\theta}\right\rangle\right|^{2}\right) .
\]

В [63] из общих условий оптимальности 1), 2) получено нелинейное уравнение для базиса \( \left\{e_{u}\right\} \) и указан случай, когда оно решается явно. Пусть диагональные элементы матрицы \( Q^{1 / 2} \), где \( Q=\left[\sqrt{\pi_{j} \pi_{k}}\left\langle\psi_{j} \mid \psi_{k}\right\rangle\right]_{j}, k=1, \ldots, m \), совпадают и равны \( \sqrt{q . \text { Тогда }} \) оптимальный базис
\[
e_{k}=\sum_{j=1}^{m} \sqrt{\pi_{j}} \lambda_{j k} \psi_{j},
\]

где \( \left[\lambda_{j k}\right]=Q^{1 / 2} \), причем минимальная ошибка
\[
\min \mathscr{R}\{\boldsymbol{M}\}=1-m q .
\]

В частности, в «равноугольном» случае, когда \( \left\langle\psi_{j} \mid \psi_{k}\right\rangle \equiv \gamma \) при \( j
eq k \), а \( \pi_{\theta}=1 / m \), получается формула Юна-Лэкса
\[
\min \mathscr{R}\{\mathbf{M}\}=\frac{m-1}{m^{2}}(\sqrt{1+(m-1) \gamma}-\sqrt{1-\gamma})^{2} .
\]

А. С. Холево заметил [42], что в случае р а в нов е роят ны х чистых состояний имеет место оценка
\[
\mathscr{R}\{\mathbf{M}\} \leqslant \frac{1}{m} \sum_{\theta=1}^{m}\left\|\psi_{\theta}-e_{\theta}\right\|^{2} .
\]

Базис, минимизирующий правую часть, имеет вид
\[
e_{k}=\sum_{j=1}^{m} a_{k j} \psi_{j}
\]

где \( \left[a_{j k}\right]=\Gamma^{-1 / 2} \) и \( \Gamma=\left[\left\langle\psi_{j} \mid \psi_{k}\right\rangle\right] \), причем
\[
\min _{\left\{e_{\theta}\right\}} \sum_{\theta=1}^{m}\left\|\psi_{\theta}-e_{\theta}\right\|^{2}=\operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)^{2}=2 \operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)
\]
(теорема М.Г.Крейна). Отсюда
\[
\min \mathscr{R}\{\boldsymbol{M}\} \leqslant \frac{1}{m} \operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)^{2} .
\]

Решающее правило, отвечающее базису (2.8), асимптотически оптимально в пределе почти ортогональных состояний, \( \Gamma \rightarrow 1 \), причем правая часть в (2.9) дает первый член асимптотики. В «равноугольном» случае (2.9) обращается в равенство.

Categories

1
Оглавление
email@scask.ru