Главная > КВАНТОВАЯ ВЕРОЯТНОСТЬ И КВАНТОВАЯ СТАТИСТИКА
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Байесовский риск (2.2) представляется в виде
\[
\mathscr{R}\{\mathbf{M}\}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u},
\]

где \( \hat{W}_{u}=\sum_{\theta=1}^{m} \pi_{\theta} W_{\theta}(u) S_{\theta} \)-операторная апостериорная функция отклонения. Поскольку \( \mathscr{R}\{\boldsymbol{M}\} \) — аффинный функционал на выпуклом множестве \( \mathfrak{R} \), задача о его минимизации может быть рассмотрена с помощью методов линейного программирования.

Теорема (А. С. Холево, Юн). Имеет место соотношение двойственности
\[
\min _{\mathfrak{M}} \mathscr{R}\{\mathbf{M}\}==\max \left\{\operatorname{Tr} \Lambda: \Lambda \in \mathfrak{T}(\mathscr{H}), \Lambda \leqslant \hat{W}_{u} ; u=1, \ldots, m\right\} .
\]

Следующие утверждения эквивалентны:
0) \( \mathbf{M}^{0}=\left\{M_{u}{ }^{0}\right\} \) — байесовское решающее правило;
1) существует \( \Lambda^{0} \in \mathfrak{E}(\mathscr{H}) \), такой что
\[
\Lambda^{0} \leqslant \hat{W}_{u} ; \quad\left(\hat{W}_{u}-\Lambda^{0}\right) M_{u}{ }^{0}=0 ; \quad u=1, \ldots, m ;
\]
2) оператор \( \Lambda^{0}=\sum_{u=1}^{m} \hat{W}_{u} M_{u}{ }^{0} \) эрмитов и \( \Lambda^{0} \leqslant \hat{W}_{u} ; u=1, \ldots, m \).

Задача в правой части (2.5) имеет единственное решение, которым является оператор \( \Lambda^{0} \), входящий в условия 1), 2).

Наиболее часто используется достаточность условия 1), которая доказывается элементарно: для любого \( \mathbf{M}=\left\{M_{u}\right\} \)
\[
\mathscr{R}\{\mathbf{M}\}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u} \geqslant \operatorname{Tr} \Lambda \sum_{u=1}^{m} M_{u}{ }^{0}=\operatorname{Tr} \sum_{u=1}^{m} \hat{W}_{u} M_{u}{ }^{0}=\mathscr{R}\left\{\mathbf{M}^{0}\right\} .
\]

С помощью этого условия легко проверяется оптимальность решающего правила (1.9) в примере предыдущего пункта,

Пример 1. Пусть операторы \( \hat{W}_{u}-\hat{W}_{v} ; \quad u, v=1, \ldots, m \), перестановочны, т. е. \( \hat{W}_{u}=C+\hat{W}_{u}{ }^{0} \), где \( \hat{W}_{u}{ }^{0}- \) перестановочные операторы. Тогда существует самосопряженный оператор \( \ddot{z} \) и функции \( \hat{W}_{u}{ }^{0}(x) \) на \( \mathbf{R} \), такие что
\[
\hat{W}_{u}{ }^{0}=\hat{W}_{k}{ }^{0}(X) .
\]

Пусть \( \left\{\mathscr{\mathscr { O }}_{k}\right\} \)-разбиение \( \mathrm{R} \), такое что \( \hat{W}_{k}^{0}(x) \leqslant \hat{W}_{j}{ }^{0}(x) \) при \( x \in \mathscr{X}_{k}, \quad j
eq k \), и положим \( \Lambda^{0}=C+\min \hat{W}_{k}^{0}(X), M_{k}{ }^{0}=1 \mathscr{X}_{k}\left(X^{\prime}\right) \). Тогда условия 1) выполнены. Если \( C^{k}=0 \), то это соответствует вычислению байесовского решающего правила в классической статистике: правило является детерминированным и для каждого \( x \) предписывает выбирать решение \( u \), для которого апостериорное отклонение \( \hat{W}_{u}(x) \) минимально [37, гл. IV].

Пример 2. Условия предыдущего примера автоматически выполняются в случае двух гипотез \( S_{0}, S_{1} \). Для простоты рассмотрим функцию потерь \( W_{\theta}(u)=1-\delta_{\theta u} \), так что речь идет о
\( 4^{*} \)

минимизации средней ошибки. Байесовское решающее правило имеет вид
\[
M_{0}^{0}=1_{(0, \infty)}\left(\pi_{0} S_{0}-\pi_{1} S_{1}\right), \quad M_{1}^{0}=1_{(-\infty, 01}\left(\pi_{0} S_{0}-\pi_{1} S_{1}\right),
\]

и минимальная ошибка
\[
\mathscr{R}\left\{\boldsymbol{M}^{0}\right\}=\frac{1}{2}\left(1-\left\|\pi_{0} S_{0}-\pi_{1} S_{1}\right\|_{1}\right) .
\]

Если \( S_{0}, S_{1} \) — чистые состояния с векторами \( \psi_{0}, \psi_{1} \), то
\[
\mathscr{R}\left\{\boldsymbol{M}^{0}\right\}=\frac{1}{2}\left(1-\sqrt{1-4 \pi_{0} \pi_{1}\left|\left\langle\psi_{0} \mid \psi_{1}\right\rangle\right|^{2}}\right) .
\]

В общем случае уравнения оптимальности сводятся к сложной нелинейной задаче, часто геометрического характера. Много интересных явно решаемых случаев, в которых условия примера 1 не выполняются, рассмотрено Хелстромом [37], Р. Л. Стратоновичем [155] и В. П. Белавкиным [63]. Остановимся на задаче различения \( m \) чистых состояний с линейно независимыми векторами \( \psi_{\theta} \) и априорными вероятностями \( \pi_{\theta}&gt;0 \). Можно считать, что \( \mathscr{H} \) порождается векторами \( \psi_{\theta} ; \theta=1, \ldots, m \). Кеннеди показал, что в этом случае байесовское решающее правило имеет вид
\[
M_{u}=\left|e_{u}\right\rangle\left\langle e_{u}\right| ; u=1, \ldots, m,
\]

где \( \left\{e_{u}\right\} \) — некоторый ортонормированный базис в \( \mathscr{H} \) (см. [37, rл. IV]). Таким образом, задача сводится к нахождению ортонормированного базиса, наилучшим образом приближающего систему \( \left\{\psi_{u}\right\} \) в смысле критерия
\[
\mathscr{R}\{\boldsymbol{M}\}=\sum_{\theta=1}^{n n} \pi_{\theta}\left(1-\left|\left\langle\psi_{\theta} \mid e_{\theta}\right\rangle\right|^{2}\right) .
\]

В [63] из общих условий оптимальности 1), 2) получено нелинейное уравнение для базиса \( \left\{e_{u}\right\} \) и указан случай, когда оно решается явно. Пусть диагональные элементы матрицы \( Q^{1 / 2} \), где \( Q=\left[\sqrt{\pi_{j} \pi_{k}}\left\langle\psi_{j} \mid \psi_{k}\right\rangle\right]_{j}, k=1, \ldots, m \), совпадают и равны \( \sqrt{q . \text { Тогда }} \) оптимальный базис
\[
e_{k}=\sum_{j=1}^{m} \sqrt{\pi_{j}} \lambda_{j k} \psi_{j},
\]

где \( \left[\lambda_{j k}\right]=Q^{1 / 2} \), причем минимальная ошибка
\[
\min \mathscr{R}\{\boldsymbol{M}\}=1-m q .
\]

В частности, в «равноугольном» случае, когда \( \left\langle\psi_{j} \mid \psi_{k}\right\rangle \equiv \gamma \) при \( j
eq k \), а \( \pi_{\theta}=1 / m \), получается формула Юна-Лэкса
\[
\min \mathscr{R}\{\mathbf{M}\}=\frac{m-1}{m^{2}}(\sqrt{1+(m-1) \gamma}-\sqrt{1-\gamma})^{2} .
\]

А. С. Холево заметил [42], что в случае р а в нов е роят ны х чистых состояний имеет место оценка
\[
\mathscr{R}\{\mathbf{M}\} \leqslant \frac{1}{m} \sum_{\theta=1}^{m}\left\|\psi_{\theta}-e_{\theta}\right\|^{2} .
\]

Базис, минимизирующий правую часть, имеет вид
\[
e_{k}=\sum_{j=1}^{m} a_{k j} \psi_{j}
\]

где \( \left[a_{j k}\right]=\Gamma^{-1 / 2} \) и \( \Gamma=\left[\left\langle\psi_{j} \mid \psi_{k}\right\rangle\right] \), причем
\[
\min _{\left\{e_{\theta}\right\}} \sum_{\theta=1}^{m}\left\|\psi_{\theta}-e_{\theta}\right\|^{2}=\operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)^{2}=2 \operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)
\]
(теорема М.Г.Крейна). Отсюда
\[
\min \mathscr{R}\{\boldsymbol{M}\} \leqslant \frac{1}{m} \operatorname{Tr}\left(\mathrm{I}-\Gamma^{1 / 2}\right)^{2} .
\]

Решающее правило, отвечающее базису (2.8), асимптотически оптимально в пределе почти ортогональных состояний, \( \Gamma \rightarrow 1 \), причем правая часть в (2.9) дает первый член асимптотики. В «равноугольном» случае (2.9) обращается в равенство.

1
Оглавление
email@scask.ru