Главная > МАТЕМАТИЧЕСКИЕ ОСНОВЫ КВАНТОВОЙ МЕХАНИКИ (ФОН НЕИМАН)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

В главе III нам удалось свести все утверждения квантовой механики к статистической формуле (названной там $\boldsymbol{E}_{2}$.)
$(\bar{E}$.
\[
\operatorname{Erw}(\mathfrak{A}, \varphi)=(R \varphi, \varphi)
\]
(Erw $(\mathfrak{A}, \varphi$ ) является математическим ожиданием величины $\mathfrak{R}$ в состоянии $\varphi, R$ есть оператор величины $\mathfrak{R}$ ). В дальненшем мы покажем, как сама эта формула может быть выведена из немногих общих качественных предположений, и одновременно мы еще раз проверим правильность всего построения квантовой механики в том виде, в каком оно было развито в III. Однако прежде чем переходить к этому, необходимо сделать следующее замечание.

В состоянии $\varphi$ величина $\mathfrak{R}$ обладает математическим ожиданием $\rho=(R \varphi, \varphi)$, и, в качестве дисперсии $\varepsilon^{2}$, – математическим ожиданием величины $(\mathfrak{\Re}-\rho)^{2}, \quad$ т. $\quad$ е. $\left((R-\rho \cdot 1)^{2} \varphi, \quad \varphi\right)=\|R \varphi\|^{2}-(R \varphi, \varphi)^{2}$ (ср. прим. ${ }^{130}$ ) на стр. 173 , все эти математические ожидания вычисляются на основе $\overline{\boldsymbol{E}}$.!). Последнее выражение, вообще говоря, больше нуля (и равно нулю только, когда $R \varphi=p \cdot \varphi$, ср. III. 3) – уже в одном индивидуальном состоянии $\varphi$ существует, следовательно, как мы это уже неоднократно устанавливали, только статистика. Но статистический характер может обостриться еще и за счет того, что неизвестно, какое же состояние имеется на самом деле – например, когда в описании участвует несколько состояний $\varphi_{1}, \varphi_{2}, \ldots$ с вероятностями $w_{1}, w_{2}, \ldots\left(w_{1} \geqq 0, w_{2} \geqq 0, \ldots, w_{1}+w_{2}+\ldots=1\right)$ соответственно. Тогда математическим ожиданием величины $\mathfrak{\Re}$, в смысле всегда справедливых правил вычисления с вероятностями, будет $\rho^{\prime}=$ $=\sum_{n} w_{n} \cdot\left(R \varphi_{n}, \varphi_{n}\right)$.

Далее, имеется общее соотношение $(R \varphi, \varphi)=\operatorname{Spur}\left(P_{[\varphi]} \cdot R\right)$. Действительно, выберем полную ортонормированную систему $\psi_{1}, \psi_{2}, \ldots$
так, чтобы $\psi_{1}=\varphi$ (и, значит, $\psi_{2}, \psi_{3}, \ldots$ были ортогональны к $\varphi$ ), тогда
\[
P_{[\varphi]} \Psi_{n}=\left\{\begin{array}{ll}
\varphi & \text { для } n=1, \\
0 & \text { в остальных случаях, }
\end{array}\right.
\]

и, следовательно,
$\operatorname{Spur}\left(P_{[\varphi]}, R\right)=\sum_{m, n}\left(P_{[\varphi]} \psi_{n}, \psi_{m}\right)\left(R \psi_{m}, \psi_{n}\right)=$
\[
=\sum_{m}\left(\varphi, \psi_{m}\right)\left(R \psi_{m}, \varphi\right)=(R \varphi, \varphi) .
\]

Поэтому наще $\rho^{\prime}=\operatorname{Spur}\left(\left\{\sum_{n} w_{n} P_{\left[\varphi_{n}\right]}\right\} \cdot R\right)$. Оператор
\[
U=\sum_{n} w_{n} P_{\left[p_{n}\right]}
\]

будет дефинитным в силу дефинитности всех $P_{\left[\varphi_{n}\right]}$ и условия $w_{n} \geqq 0$, а его шпур будет, так как Spur $P_{\left[\varphi_{n}\right]}=1$, равен $\sum_{n} w_{n}=1$. Тем самым этот оператор полностью характеризует только что описанную смесь состояний в смысле ее статистических свойств:
\[
p^{\prime}=\operatorname{Spur}(U R) .
\]

Заметив, что наряду с состояниями нам придется иметь дело также и с этими смесями, перейдем к более общему исследованию.

Забудем всю квантовую механику и будем держаться только следующих положений. Предположим, что дана система $\boldsymbol{S}^{155}$ ), которая дляं экспериментатора характеризуется заданием всех эффективно
155) Важно подчеркнуть разницу между понятиями просто системы и системы в некотором состоянии. Система, например, водородный атом, т. е. электрон и протон с известными действующими между ними силами, формально будет описана, если указать, что конфигурационное пространство имеет шесть измерений, что координаты – это $q_{1}, \ldots, q_{6}$, импульсы – $p_{1}, \ldots, p_{6}$, а функция Гамильтона равна
\[
\begin{aligned}
H\left(q_{1} \ldots q_{6} p_{1} \ldots p_{6}\right)=\frac{p_{1}^{2}+p_{2}^{2}+p_{3}^{2}}{2 m_{e}} & +\frac{p_{4}^{2}+p_{5}^{2}+p_{6}^{2}}{2 m_{p}}+ \\
& +\frac{e^{2}}{\sqrt{\left(q_{1}-q_{4}\right)^{2}+\left(q_{2}-q_{5}\right)^{2}+\left(q_{3}-q_{6}\right)^{2}}} .
\end{aligned}
\]

Состояние же фиксируется лишь при указании дальнейших данных: в классической механике с помощью задания численных значений $q_{1}^{0}, \ldots, q_{6}^{0}, p_{1}^{0}, \ldots, p_{6}^{0}$ координат и импульсов $q_{1}, \ldots, q_{6}, p_{1}, \ldots, p_{6}$, а в квантовой механике с помощью волновой функции $\varphi\left(q_{1} \ldots q_{6}\right)$. В большем числе данных, чем эти, никогда не возникает потребности: если известны система + состояние, то теория дает однозначную вычислительную процедуру для ответа на любой вопрос.

измеримых в ней величин и их взаимных функциональных зависимостей. Под величиной подразумевается, собственно, наставление, как ее измерять, т. е. как найти или же вычислить ее значение из расположения стрелок измерительных приборов. Если $\mathfrak{A}$ – какая-нибудь величина, а $f(x)$ – произвольная функция, тогда величину $f(\mathfrak{M})$ следует определять так: чтобы измерить $f(\mathfrak{\Re})$, измерь $\mathfrak{A}$, найди при этом (для $\mathfrak{H}$ ) значение $a$, тогда значением $f(\mathfrak{f})$ будет $f(a)$. Как видим, все величины $f(\mathfrak{H})$ (भ фиксировано, $f(x)$ – произвольная функция) измеримы одновременно одна с другой, а также с величиной भ: это первый пример одновременно измеримых величин. Вообще же, назовем две (или больше) величины $\mathfrak{A}$, одновременно измеримыми, если существует установка, которая измеряет одновременно обе величины в одной и той же системе, – при этом, конечно, их соответственные значения вычисляются по-разному из показании приборов. (В классической механике, как известно, все величины одновременно измеримы, а в квантовой механике, как мы видели в III. 3, это не так.) Для таких величин и какой-нибудь функции двух переменных $f(x, y)$ можно определить и величину $f(\mathfrak{A}$, ()): она будет измерена, если одновременно измерить $\mathfrak{A}$, $\mathfrak{E}$, и если для них будут наидены значения $a, b$, то значением $f(\mathfrak{A}, \boldsymbol{\mathcal { S }})$ будет $f(a, b)$. Надо, однако, ясно представлять себе, что совершенно бессмысленно желать построить $f(\mathfrak{\Re}, \boldsymbol{\Xi})$, когда $\mathfrak{A}$, ङ не измеримы одновременно: ведь тогда невозможно указать надлежащую измерительную процедуру.

Но исследование физических величин на одном-единственном объекте $S$ не является единственным, что мы можем делать-особенно тогда, когда возникает сомнение относительно одновременной измеримости различных величин. В таких случаях можно рассматривать и большие статистические ансамб.ти, состоящие из многих систем $S_{1}, \ldots, S_{N}$ (т. е. из $N$ экземпляров системы $S, N$ велико) ${ }^{156}$ ). В таком ансамбле $\left[S_{1}, \ldots, S_{N}\right]$ измеряется, естественно, не «значение» некоторой величины $\mathfrak{R}$, но распределенве ее значений, т. е. для каждого интервала $a^{\prime}&lt;a \leqq a^{\prime \prime}\left(a^{\prime}, a^{\prime \prime}\right.$ зсданы, $\left.a^{\prime} \leqq a^{\prime \prime}\right)$ число тех из систем $S_{1}, \ldots, S_{N}$, для которых значение $\mathfrak{A}$ лежит внутри него. $N$-я часть этого числа является функцией распределения $w\left(a^{\prime}, a^{\prime \prime}\right)=$ $\left.=w\left(a^{\prime \prime}\right)-w\left(a^{\prime}\right)^{157}\right)$. Большое преимущество рассмотрения таких ансамблей состоит в следующем:
156) Такие ансамбли, называемые коллективами, вообще необходимы, чтобы можно было обосновать теорию вероятностей как науку о частотностях. Они были введены R. v. Mises’ом, который осознал их значение для теории вероятностей и осуществил их надлежащее построение (ср., например, erо книгy: Wahrscheinlichkeit, Statistik und ihre Wahrheit, Berlin, 1928).
$\left.{ }^{157}\right) \quad w\left(a^{\prime}\right)$ является вероятностью того, что $a \leqq a^{\prime}$, т. е. относится к интервалу $-\infty, a^{\prime}$. Как видно, функция $w(a)$ или же, как мы будем ее называть, чтобы подчеркнуть ее зависимость от $\mathfrak{A}$, $w_{\mathfrak{M}}(a)$ обладает следующими свойствами: При $a \rightarrow-\infty w_{\Re}(a) \rightarrow 0$; при $a \rightarrow+\infty w_{\Re}(a) \rightarrow 1$; при
1. Даже в том случае, когда измерение какой-нибудь величины $\mathfrak{f}$ сильно изменило бы измеряемую систему $\boldsymbol{S}$ (в квантовой механике дело обстоит именно так, и в III. 4 мы видели, что в физике элементарных процессов это принципиально должно быть так, ибо воздеиствие измерения имеет тот же порядок величины, что и система или же ее наблюдаемая часть), статистический снимок распределения вероятности величины $\mathfrak{A}$ в ансамбле $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}\right]$ изменится при таком измерении сколь угодно мало, если только $N$ достаточно велико.
2. Даже если две (или больше) величины $\mathfrak{H}$, $\boldsymbol{\bigodot}$ не являются одновременно измеримыми в единственной системе $\mathcal{E}$, их распределения вероятностей в одном и том же ансамбле $\left[\boldsymbol{\wp}_{1}, \ldots, \boldsymbol{\varpi}_{N}\right]$ можно получить с произвольно большой точностью, если только $N$ достаточно велико.
Именно, в случае ансамбля, состоящего из $N$ элементов, достаточно собрать статистические показания о распределении значений величины $\mathfrak{A}$ не со всех $N$ элементов $\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}$, а лишь с некоторой подсистемы из $M(\leqq N)$ элементов, скажем $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{M}\right]$, если только $M, N$ оба велики причем $M$ можно сделать совсем малым по сравнению с $N^{158}$ ). Тогда при измерении будет вообще подвергнута изменению лишь $\frac{M}{N}$-я часть ансамбля, т. е. сколь угодно малая, если $\frac{M}{N}$ выбрано достаточно малым, что при достаточно большом $N$ возможно даже для больших $M$, – в соответствии с утверждением 1. Чтобы измерить одновременно две (или больше) величины $\mathfrak{H}, \mathscr{C}$, нам потребуются две подсистемы, скажем $\left[S_{1}, \ldots, S_{M}\right]$ и $\left[S_{M+1}, \ldots, S_{2 M}\right](2 M \leqq N)$, так чтобы первая была применена для снимка статистики $\mathfrak{\mathcal { A }}$, а вторая – для $\mathfrak{C}$. Тогда оба измерения не помешают одно другому, – хотя они и производятся на одном и том же ансамбле $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}\right]$, – и даже изменят ансамбль лишь на произвольно малую величину, если $\frac{2 M}{N}$ достаточно мало, что возможно и для очень больших $M$, если только $N$ достаточно велико, в соответствии с утверждением 2.
$a \geqq a_{0}, a \rightarrow a_{0} w_{\mathfrak{M}}(a) \rightarrow w_{\mathfrak{M}}\left(a_{0}\right) ;$ при $a^{\prime} \leqq a^{\prime \prime} w_{\mathfrak{M}}\left(a^{\prime}\right) \leqq w_{\mathfrak{M}}\left(a^{\prime \prime}\right)$. (В квантовой механике $w_{\mathfrak{M}}(a)=\|E(a) \varphi\|^{2}=(E(a) \varphi, \varphi)$, где $E(\lambda)$ означает разложение единицы, относящееся к $R$.)

Если $w_{\Re}(a)$ дифференцируема, то вместо нее можно ввести хорошо известную «плотность вероятности» $\frac{d}{d a} w_{\Re}(a)$; если же $w_{\text {м }}(a)$ в точке $a=a_{0}$ разрывна (естественно, слева), то точка $a=a_{0}$ обладает «дискретной вероятностью» $w_{\mathfrak{M}}\left(a_{0}\right)-w_{\mathfrak{M}}\left(a_{0}-0\right)$. Исходным же понятием $w_{\mathfrak{R}}(a)$ можно пользоваться всегда; ср. ссылку в прим. 156) на стр. 223.
${ }^{158}$ ) Это вытекает из так называемого закона больших чисел, теоремы Бернулли.
Как видим, привлечение статистических ансамблей, т. е. теоретиковероятностных методов, обусловлено возможностью того, что измерение окажет влияние на одну отдельную систему, и возможностью неодновременной измеримости нескольких величин. Общая теория должна учитывать эти обстоятельства, появление которых для элементарных процессов всегда подозревалось ${ }^{159}$ ), а сегодня, как показывает подробное обсуждение положения вещей (ср. III. 4), стало несомненным. Статистические ансамбли опять устраняют эти трудности и делают тем самым снова возможным объективное описание (описание, которое не зависит от случая, равно как от того, измеряется ли в данном состоянии та или другая из двух неодновременно измеримых величин).

Для таких ансамблей не удивительно, что физическая величина $\mathfrak{A}$ не имеет точно определенного значения, т. е. что распределение ее значений не состоит из единственного значения $a_{0}{ }^{160}$ ), но допускает многие значения или интервалы значений, так что дисперсия положительна ${ }^{160}$ ). Все же для такого поведения мыслимы два различных основания:
I. Отдельные системы $S_{1}, \ldots, S_{N}$ нашего ансамбля могут находиться в различных состояниях, так что ансамбль $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}\right]$ определяется их относительными частотами. То, что мы не получаем здесь точно определенных значений для физических величин, обусловлено нашим незнанием: ведь мы же не знаем, в каком состоянии мы измеряем, а потому и не можем сказать, что при этом получится.
159) Так, например, главной трудностью в определении электрического поля считалось то, что необходимое для этого «пробное тело» не может быть меньше электрона.
160) Точно определенное значение соответствует функции распределения $w_{\mathfrak{M}}(a)$ вида
\[
w_{\Re}(a)=\left\{\begin{array}{lll}
1 & \text { для } & a \geqq a, \\
0 & \text { для } & a&lt;a .
\end{array}\right.
\]

В этом и только в этом случае дисперсия $\varepsilon^{2}$ равна нулю. Обычно же среднее значение $p$ и дисперсия $\varepsilon^{2}$ вычисляются следующим образом (интегралы Стильтьеса!):
\[
\begin{array}{c}
\rho=\int_{-\infty}^{+\infty} a d w_{\mathfrak{M}}(a) \\
\varepsilon^{2}=\int_{-\infty}^{+\infty}(a-\rho)^{2} d w_{\mathfrak{M}}(a)=\int_{-\infty}^{+\infty} a^{2} d w_{\mathfrak{M}}(a)-2 \rho \int_{-\infty}^{+\infty} a d w_{\mathfrak{M}}(a)+\rho^{2}= \\
=\int_{-\infty}^{+\infty} a^{2} d w_{\mathfrak{M}}(a)-\rho^{2}=\int_{-\infty}^{+\infty} a^{2} d w_{\mathfrak{M}}(a)-\left(\int_{-\infty}^{+\infty} a d w_{\mathfrak{M}}(a)\right)^{2}
\end{array}
\]
(cp. III. 4, прим. ${ }^{130}$ ) на стр. 173).
15 И. Нейман
II. Все отдельные системы $S_{1}, \ldots, S_{N}$ находятся в одном и том же состоянии, но законы природы не каузальны. Тогда причиной дисперсий будет уже не наше незнание, а сама природа, которая не считается с «принципом достаточного основания».
Случай I. общеизвестен, важным же и новым является, напротив, случай II. Конечно, сначала мы будем относиться скептически к возможности его осуществления, но затем найдем объективный критерий, который позволит отличать случан, когда он имеет место, от случаев, когда его нет. На первый взгляд кажется, что существуют серьезные возражения против возможности понять его и придать ему точныи смысл. Мы полагаем, что эти возражения не имеют основания и что случай II. является единственным выходом из известных трудностей (например, в квантовой механике). Перейем поэтому к обсуждению принципиальных трудностей случая II..

Против II. можно возразить, что природа вообще не может нарушить «принцип достаточного основания», т. е. причинность, так как здесь скорее идет речь просто об определении тождественности. Иными словами, теорема о том, что два тождественных объекта $S_{1}, S_{2}$, т. е. два экземпляра системы $S$, находящиеся в одном и том же состоянии, – будут вести себя одинаково при всех мыслимых воздействиях, верна, поскольку она ничего не говорит. Ведь если бы системы $S_{1}, S_{2}$ вели себя по-разному при одном и том же вмешательстве (например, если бы они давали разные значения некоторой величины $\mathfrak{\Re}$ при ее измерении), то их нельзя было бы назвать одинаковыми. Таким образом, в ансамбле $\left[S_{1}, \ldots, S_{N}\right]$, имеющем дисперсию по отношению к величине $\mathfrak{R}$, отдельные системы $S_{1}, \ldots, S_{N}$, по определению, не могут все находиться в одном и том же состоянии. (Применительно к квантовой механике это означало бы: поскольку при измерении одной и той же величины $\mathfrak{R}$ на нескольких системах, которые все пребывают в состоянии, описываемом волновой функцией $\varphi$, получаются разные значения, если $\varphi$ не является собственной функцией оператора $R$ величины $\mathfrak{R}^{161}$ ), то эти системы не одинаковы, т. е. описание с помощью волновых функций не является полным. Поэтому должны были бы существовать другие характеристики, упомянутые в III. 2 «скрытые параметры». Вскоре мы увидим, что это предположение не проходит без дальненших осложнений.) Следовательно, для большого статистического ансамбля, до тех пор пока хоть одна величина $\mathfrak{A}$ продолжает иметь в нем дисперсию, должна существовать возможность разбиения его на многие, различным образом построенные части (в соответствии с раз-
161) Речь идет о независимых измерениях на нескольких системах: последовательные измерения на одной и той же системе всегда давали бы одинаковые значения (ср. III. 3).

личными состояниями его элементов). Это тем более правдоподобно, что на первый взгляд кажется, что фактически существует простой способ подобного разбиения: именно, ансамбль можно разбить в соответствии с различными значениями, принимаемыми в нем величиной $\mathfrak{A}$. По-настоящему однородный ансамбль был бы получен только после подразделения или разбиения по отношению ко всем имеющимся величинам $\mathfrak{N}, \mathfrak{C}, \mathfrak{E}, \ldots$ В конечнои итоге ни одна из этіх величин не имела бы дисперсии ни в одном из подансамблен.

Утверждения, содержащиеся в последних фразах, ошибочны прежде всего потому, что не учитывают, что измерение изменяет измеряемую систему. Если величина $\mathfrak{P}$ (принимающая ради простоты лишь два значения $a_{1}, a_{2}$ ) измеряется во всех объектах $S_{1}, \ldots, S_{N}$ и принимает значение, скажем, $a_{1}$ на системах $S_{1}^{\prime}, \ldots, S_{N_{1}}^{\prime}$, а значение $a_{2}$ на системах $S_{1}^{\prime \prime}, \ldots, S_{N-N_{1}}^{\prime \prime}$, то после этого она не будет иметь дисперсии ни в ансамбле $\left[s_{1}^{\prime}, \ldots, s_{N_{1}}^{\prime}\right]$, ни в ансамбле $\left[s_{1}^{\prime \prime}, \ldots, s_{N-N_{1}}^{\prime \prime}\right]$ (там она всегда равна $a_{1}$ или состветственно $a_{2}$ ). Тем не менее это не будет простым разбиением ансамбля $\left[S_{1}, \ldots, S_{N}\right]$ на две указанные части, так как отдельные системы были изменены при $\mathfrak{A}$-измерении. Правда, согласно 1., у нас имеется метод нахождения распределения значений величины $\mathfrak{A}$ таким образом, чтобы ансамбль $\left[S_{1}, \ldots, S_{N}\right]$; изменился лишь незначительно (для этого надо измерять на $S_{1}, \ldots, S_{M}$, $M$ велико, $\frac{M}{N}$ мало), однако этот прием не приводит ни к какому разбиению, поскольку для большинства систем $S_{1}, \ldots, S_{N}$ (а именно для систем $S_{M+1}, \ldots, S_{N}$ ) он не позволяет ничего сказать о том, какое значение имеет величина $\mathfrak{R}$ в каждой отдельной системе из их числа. Теперь мы убеждаемся, что указанный выше метод построения совершенно однородной системы не приводит к цели. Денствительно, измерим еще другую величину ( ) (также принимающую лишь два значения $b_{1}, b_{2}$ ) в подансамблях $\left[s_{1}^{\prime}, \ldots, S_{N_{1}}^{\prime}\right]$ и $\left[s_{1}^{\prime \prime}, \ldots, s_{N-N_{1}}^{\prime \prime}\right]$. Пусть в системах $S_{1}^{\prime \prime \prime}, \ldots, s_{N_{11}}^{\prime \prime \prime}$ и $S_{1}^{У}, \ldots, s_{N_{12}}^{\mathrm{V}}$ найдено значение $b_{1}$, а в системах $\boldsymbol{S}_{1}^{\mathrm{IV}}, \ldots, \boldsymbol{S}_{N_{1}-N_{11}}^{\mathrm{IV}}$ и $S_{1}^{\mathrm{VI}}, \ldots, \boldsymbol{S}_{N-N_{1}-N_{12}-}^{\mathrm{VI}}$ значение $b_{2}$. Тогда в ансамблях $\left[\boldsymbol{S}_{1}^{\prime \prime \prime}, \ldots, \boldsymbol{S}_{N_{11}}^{\prime \prime \prime}\right],\left[\boldsymbol{S}_{1}^{\mathrm{IV}}, \ldots, \boldsymbol{S}_{N_{1}-N_{1}}^{\mathrm{IV}}\right]$, $\left[\boldsymbol{s}_{1}^{\mathrm{V}}, \ldots, \boldsymbol{s}_{N_{12}}^{\mathrm{V}}\right],\left[\boldsymbol{s}_{1}^{\mathrm{VI}}, \ldots, \boldsymbol{s}_{N-N_{1}-N_{12}}^{\mathrm{VI}}\right]$ величина ( больше не имеет дисперсии (ее значения будут равны соответственно $b_{1}, b_{2}, b_{1}, b_{2}$ ). Однако несмотря на то, что первые два ансамбля являются частями ансамбля $\left[s_{1}^{\prime}, \ldots, s_{N_{1}}^{\prime}\right]$, а два последних ансамбля – частями ансамбля $\left[s_{1}^{\prime \prime}, \ldots, s_{N-N_{11}}^{\prime \prime}\right]$, в которых величина $\mathfrak{R}$ не имела дисперсии, в каждом из этих новых четырех ансамблей величина $\mathfrak{A}$ может иметь дисперсию, так как -измерение изменило отдельные системы (из которых состоят ансамбли)! Это значит, что мы не продвигаемся вперед:
$15^{*}$

каждыи новый шаг разрушает результат предшествующего ${ }^{162}$ ) и ни какое повторение последовательных измерений не сможет привнести причинный порядок в эту путаницу, ибо атомные явления лежат на краю физического мира, где любое измерение вносит изменение того же порядка, что и сам измеряемый объект, так что последний изменяется существенным образом, в основном из-за соотношений неопределенности.

Таким образом, при известных обстоятельствах не существует метода, с помощью которого можно было бы разлагать дальше ансамбли с дисперсией (без изменения их элементов) или даже пробиться до вообще не обладающих дисперсией однородных ансамблей, которые мы должны представлять себе состоящими из причинно определенных, тождественных между собой отдельных объектов. Несмотря на это, можно было бы попытаться поддержать фиктивное представление о том, что всякий ансамбль с дисперсией можно разбить на две (или больше) отличные друг от друга и от всего ансамбля части; и даже без изменения его элементов, т. е. так, что смешивание обоих ансамблей разбиения снова давало бы исходный ансамбль. Как видим, попытка интерпретировать причинность как определение тождественности приводит ввиду этого к реальному вопросу, на который можно и должно ответить, возможно в отрицательном смысле. Именно: возможно ли на самом деле получить всякић ансамбль $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}\right]$, в котором имеется величина $\mathfrak{H}$ с дисперсией, в виде смеси двух (или большего числа) ансамблей, отличных друг от друга, а также от заданного ансамбля? (Случай, когда число ансамблей больше двух, скажем, $n=3,4, \ldots$ приводится к случаю $n=2$, если рассматривать первый из ансамблей и смесь $n-1$ остальных.)

Если бы, скажем, $\left[\boldsymbol{S}_{1}, \ldots, \boldsymbol{S}_{N}\right]$ был смесью двух ансамблей $\left[\boldsymbol{S}_{1}^{\prime}, \ldots, \boldsymbol{S}_{P}^{\prime}\right]$ и $\left[\boldsymbol{S}_{1}^{\prime \prime}, \ldots, \boldsymbol{S}_{Q}^{\prime \prime}\right]$, то вероятностную функцию $w_{\Re}(a)$ любой величины $\mathfrak{A}$ (см. прим. ${ }^{157}$ ) на стр. 223) можно было бы выразить через вероятностные функции $w_{\mathfrak{M}}^{\prime}(a), w_{\mathfrak{M}}^{\prime \prime}(a)$ последних двух ансамблей:
\[
\left(M_{\mathbf{1}} \cdot\right) w_{\mathfrak{M}}(a)=\alpha w_{\mathfrak{M}}^{\prime}(a)+\beta w_{\mathfrak{M}}^{\prime \prime}(a), \quad \alpha&gt;0, \beta&gt;0, \alpha+\beta=1 .
\]

Здесь $\alpha=\frac{P}{N}$ и $\beta=\frac{Q}{N}(N=P+Q)$ не зависят от $\mathfrak{A}$. Итак, в конечном счете мы наталкиваемся на математический вопрос: пусть в каком-нибудь ансамбле имеется величина $\mathfrak{H}$, обладающая дисперсией
${ }^{162}$ ) Посмотрим, например, что получится, если за $\mathfrak{A}$, $\boldsymbol{S}$ взять не измеримые одновременно (из-за соотношений неопределенности) величины $q$ (декартову координату) и $p$ (импульс). Если в каком-нибудь ансамбле дисперсия $q$ очень мала, то $p$-измерение с точностью (т. е. с дисперсией) $\varepsilon$ приводит к дисперсии в $q$, по меньщей мере равной $\frac{h}{4 \pi \varepsilon}$ (ср. III. 4), т. е. все разрушает,
с вероятностной функцией $w_{\mathfrak{M}}($ a) (относительно соответствующего свойства функции $w_{\mathfrak{M}}(a)$ см. прим. ${ }^{160}$ ) на стр. 225), существуют ли тогда два других ансамбля с вероятностными функциями $w_{\mathfrak{M}}^{\prime}(a)$, соответственно $w_{\mathfrak{M}}^{\prime \prime}(a)$, такие, что утверждение $\boldsymbol{M}_{1}$. имеет место для всех $\mathfrak{R}$ ? Этот же вопрос можно сформулировать еще несколько иначе, если характеризовать ансамбль не вероятностными функциями $w_{\Re}(a)$ величин $\mathfrak{R}$, а математическими ожиданиями
\[
\operatorname{Erw}(\mathfrak{\Re})=\int_{-\infty}^{+\infty} a d w_{\mathfrak{M}}(a) .
\]

Наш вопрос звучит тогда так: В ансамбле нет дисперсии, если в нем для каждой величины $\mathfrak{\Re}$ математическое ожидание
\[
\operatorname{Erw}\left([\mathfrak{R}-\operatorname{Erw}(\mathfrak{\Re})]^{2}\right)=\operatorname{Erw}\left(\mathfrak{A}^{2}\right)-[\operatorname{Erw}(\mathfrak{A})]^{2}
\]

равно нулю (ср. прим. ${ }^{160}$ ) на стр. 225), т. е. если
\[
\text { (Str.) } \quad \operatorname{Erw}\left(\mathfrak{R}^{2}\right)=[\operatorname{Erw}(\mathfrak{R})]^{2} .
\]

Всегда ли возможно в том случае, когда это не так, найти два других ансамбля с $\operatorname{Erw}^{\prime}(\mathfrak{R}), \operatorname{Erw}^{\prime \prime}(\mathfrak{R})$
\[
\left(\operatorname{Erw}(\mathfrak{R})
ot \equiv \operatorname{Erw}^{\prime}(\mathfrak{R})
ot \equiv \operatorname{Erw}^{\prime \prime}(\mathfrak{R})\right)
\]

такие, чтобы выполнялось условие
\[
\begin{array}{c}
\left(\boldsymbol{M}_{2}\right) \quad \operatorname{Erw}(\mathfrak{R})=\alpha \operatorname{Erw}^{\prime}(\mathfrak{\Re})+\beta \operatorname{Erw}^{\prime \prime}(\boldsymbol{\Re}), \quad \alpha&gt;0, \beta&gt;0, \\
\alpha+\beta=1,
\end{array}
\]

где $\alpha, \beta$ не зависят от $\mathfrak{P}$ ? (Заметим, что в случае единственной заданной величины $\mathfrak{A}$ число $\operatorname{Erw}(\mathfrak{\Re})$ не может быть заменителем функции $w_{\mathfrak{M}}(a)$; напротив, знание зсех Erw (Я) эквивалентно знанию всех $w_{\mathfrak{H}}(a)$. Денствительно, если $f_{a}(x)$ определить равенством $f_{a}(x)=\left\{\left.\begin{array}{lll}1 & \text { для } & x \leqq a, \\ 0 & \text { для } & x&gt;a,\end{array} \right\rvert\,\right.$, то будем иметь $\left.w_{\Re}(a)=\operatorname{Erw}\left(f_{a}(\mathfrak{\Re})\right).\right)$.

При математическом рассмотрении этого вопроса целесообразнее иметь дело не с ансамблями $\left[S_{1}, \ldots, S_{N}\right]$, а с соответствующими ожиданиями $\operatorname{Erw}(\mathfrak{\Re})$. Каждому ансамблю соответствует такая функция, которая определена в $\boldsymbol{S}$ для всех физических величин $\mathfrak{R}$ и имеет значениями вещественные числа и которая, наоборот, полностью характеризует все статистические своиства ансамбля. (Ср. сказанное выше о связи между $\operatorname{Erw}(\mathfrak{\Re})$ и $w_{\mathfrak{\Re}}(a)$ ). Конечно, еще надо установить, какими свойствами должна обладать функция от $\mathfrak{A}$, чтобы она представляла собой $\operatorname{Erw}(\mathfrak{R})$, по некоторому надлежащим образом выбраңному ансамблю. Но как только это будет выполнено, мы можем дать определение:
a) Функция от $\mathfrak{R}$, являющаяся математическим ожиданием $\operatorname{Erw}(\mathfrak{R})$, называется бездисперсной, если она удовлетворяет условию Str. $_{1}$.
ß) Функция от $\mathfrak{R}$, являющаяся математическим ожиданием $\operatorname{Erw}(\mathfrak{\Re})$, называется однородной или чистой, если для нее из $\boldsymbol{M}_{2}$. следует, что
\[
\operatorname{Erw}(\mathfrak{R}) \equiv \operatorname{Erw}\left(\mathfrak{R}^{\prime}\right) \equiv \operatorname{Erw}\left(\mathfrak{R}^{\prime \prime}\right) .
\]

То, что всякая бездисперсная функция $\operatorname{Erw}(\mathfrak{\Re})$ является чистой, ясно просто по смыслу и вскоре будет доказано. Наш же вопрос звучит так: является ли любая чистая функция $\operatorname{Erw}(\mathfrak{A})$ бездисперснои?

Ясно, что любая функция $\operatorname{Erw}(\mathfrak{R})$ должна обладать следующими свойствами:
A. Если величина $\mathfrak{A}$ тождественно равна 1 (т. е. если правилом ее измерения является: ничего не надо измерять, так как $\mathfrak{\Re}$ всегда имеет значение 1 ), то $\operatorname{Erw}(\Re)=1$.
B. Для любой величины $\mathfrak{A}$ и для любого вещественного числа $a$ имеет место равенство $\left.\operatorname{Erw}(a \mathfrak{R})=a \operatorname{Erw}(\mathfrak{R})^{163}\right)$.
C. Если по своему смыслу величина $\mathfrak{R}$ никогда не бывает отрицательной, если она, например, является квадратом ${ }^{163}$ ) некоторой другой величины $\mathfrak{E}$, то и $\operatorname{Erw}(\mathfrak{f}) \geqq 0$.
D. Если величины $\mathfrak{A}, \mathfrak{\mathscr { S }}, \ldots$ одновременно измеримы, то должно быть $\left.\operatorname{Erw}(\mathfrak{\Re}+\boldsymbol{\Xi}+\ldots)=\operatorname{Erw}(\mathfrak{R})+\operatorname{Erw}(\boldsymbol{\Xi})+\ldots{ }^{162}\right)$. (Для неодновременно измеримых величин $\mathfrak{A}$, Є… величина $\mathfrak{R}+\mathfrak{E}+\ldots$ не определена, ср. выше.)
Все это нелосредственно вытекает из определений рассматриваемых величин (т. е. из предписаний для их измерения), а также из определения математического ожидания как арифметического среднего всех результатов измерений по достаточно большому статистическому ансамблю. В отношении $D$. следует заметить, что его справедливость основана на той теореме из теории вероятностей, согласно которой математическое ожидание суммы всегда равно сумме математических ожиданий отдельных слагаемых, независимо от того, существует между ними вероятностная зависимость или нет (в противоположность, например, математическому ожиданию произведения). Естественно, что мы сформулировали $\boldsymbol{D}$. лишь для одновременно измеримых величин $\mathfrak{R}$, $\mathscr{E}, \ldots$, – ведь в противном случае величина $\mathfrak{R}+\mathfrak{E}+\ldots$ не имеет смысла.

Но в квантовой механике имеется еще одна, выходящая за пределы обсуждавшихся до сих пор, вычислительная операция: именно, подставляются, в смысле данного выше общего определения, вместо $x, y, \ldots$ в функции $f(x)=a x, f(x)=x^{2}, f(x, y, \ldots)=x+y+\ldots$ соответственне.
сложение двух произвольных, не обязательно одновременно неизмеримых, величин. Эта операция оснсвывается на том, что сумма $R+S$ двух эрмитовых операторов $R$ и $S$ опять является эрмитовым оператором, даже и тогда, когда $R$ и $S$ неперестановочны, в то время как произведение $R S$, например, оказывается эрмитовым лишь в случае коммутативности (ср. II. 5). Математические ожидания по любому состоянию $\varphi$ складываются: $(R \varphi, \varphi)+(S \varphi, \varphi)=((R+S) \varphi, \varphi)$. (Ср. $\boldsymbol{E}_{2}$. из III. 1). То же справедливо и для многих слагаемых. Мы отметим этот факт в нашем общем, пока еще не специализированном на случай квантовой механики, подходе:
$\boldsymbol{E}$. Пусть $\mathfrak{R}, \boldsymbol{\mathcal { S }}, \ldots$ – произвольные величины, тогда существует новая величина $\mathfrak{A}+\mathscr{C}+\ldots$ (не зависящая от выбора функции $\operatorname{Erw}(\mathfrak{\Re})$ ) такая, что
$\operatorname{Erw}(\mathfrak{A}+\boldsymbol{\Xi}+\ldots)=\operatorname{Erw}(\mathfrak{\Re})+\operatorname{Erw}(\boldsymbol{\Xi})+\ldots$
Если $\mathfrak{A}, \ldots$ одновременно измеримы, то эта $\mathfrak{A}+\boldsymbol{C}+\ldots$ должна, согласно $\boldsymbol{D}$., быть обычной суммой. В общем же случае эта величина лишь неявно определяется утверждением $\boldsymbol{E}$., и мы едва ли можем из измерительных предписаний для $\mathfrak{A}, \boldsymbol{G}, \ldots$ составить измерительное предписание для $\left.\mathfrak{R}+\Subset+\ldots{ }^{164}\right)$.

К сказанному выше добавим еще: мы хотим ввести в рассмотрение не только функции $\operatorname{Erw}(\mathfrak{M})$, представляющие собой математические ожидания, но также и такие функции, которые выражают собой относительные математические ожндания, т. е. мы опускаем условие нормировки $\boldsymbol{A}$. . Если $\operatorname{Erw}(1)$ (что, согласно $\boldsymbol{C}$. $\geq 0$ ) конечно и $
eq 0$, то это несущественно, так как для $\frac{\operatorname{Erw}(\mathfrak{\Re})}{\operatorname{Erw}(1)}$ все остается по-старому. Случай Erw (1) = соответствует, однако, существенно отличной возможности, ради которой мы и делаем это обобщение. Ее можно
164) Так, например, в гейзенберговой теории оператор энергии электрона, движущегося в потенциальном силовом поле $V(x, y, z)$,
\[
\mathrm{H}_{0}=\frac{\left(P^{x}\right)^{2}+\left(P^{y}\right)^{2}+\left(P^{z}\right)^{2}}{2 m}+V\left(Q^{x}, Q^{y}, Q^{z}\right)
\]
(ср., например, III. 6) является суммой двух неперестановочных операторов $R=\frac{\left(P^{x}\right)^{2}+\left(P^{y}\right)^{2}+\left(P^{z}\right)^{2}}{2 m}$ и $S=V\left(Q^{x}, Q^{y}, Q^{z}\right)$. Тогда как измерение величины $\mathfrak{A}$, соответствующей оператору $R$, является измерением импульса, а измерение величины ( ), соответствующей оператору $S$, – измерением координаты, величина $\mathfrak{A}+\boldsymbol{\mathcal { S }}$, соответствующая оператору $\mathrm{H}_{0}=R+S$, измеряется совершенно по-иному: например, с помощью измерения частоты спектральных линий, испускаемых этим (связанным) электроном, поскольку эти частоты определяют (на основании условия частот Бора) энергетические уровни, т. е. значения величины $\mathfrak{H}+\mathfrak{C}$. Тем не менее при любых обстоя тельствах
\[
\operatorname{Erw}(\mathfrak{\Re}+\boldsymbol{\wp})=\operatorname{Erw}(\mathfrak{\Re})+\operatorname{Erw}(\boldsymbol{®}) .
\]
лучше всего проиллюстрировать на одном простом примере. Именно, существуют случаи, когда лучше оперировать с относительными вероятностями, а не с истинными, в особенности с бесконечной полной относительной вероятностью (выражение $\operatorname{Erw}(1)$ представляет ведь собой полную вероятность); подобным случаем является, например, следующий. Пусть рассматриваемой системой будет частица, движущаяся в одном измерении, и пусть ее статистическое распределение будет таким, что она находится с равной вероятностью всюду на бесконечной прямой Тогда вероятность любого конечного интервала этой прямой будет равна нулю, но равновероятность всех положений на этой прямой выражается не этим обстоятельством, а тем, что отношение вероятностей двух конечных интервалов равно отношению их длин. Так как $\frac{0}{0}$ не имеет смысла, то это можно понять, лишь приписав длинам смысл относительных вероятностей, но тогда полная относительная вероятность будет равна, конечно, $\infty$.

Учитывая все сказанное до сих пор, мы приходим к следующей, окончательной форме наших условий ( $\boldsymbol{A}^{\prime}$. соответствует $\boldsymbol{C}$. , а $\boldsymbol{B}^{\prime}$. соответствует $\boldsymbol{B}$., $\boldsymbol{D}$., $\boldsymbol{E}$.):
$\boldsymbol{A}^{\prime}$. Если величина $\mathfrak{R}$ по своей природе никогда не отрицательна, если она, например, является квадратом некоторой другой величины $\boldsymbol{\mathcal { C }}$, то $\operatorname{Erw}(\mathfrak{\Re}) \geqq 0$.
$\boldsymbol{B}^{\prime}$. Если $\mathfrak{A}, \boldsymbol{O}_{1}, \ldots$ – произвольные величины и если $a$, $b, \ldots$ – вещественные числа, то $\operatorname{Erw}(a \mathfrak{A}+b \mathfrak{C}+\ldots)=$ $=a \operatorname{Erw}(\mathfrak{\Re})+b \operatorname{Erw}(\widetilde{\Xi})+\ldots$
Подчеркнем еще:
1. Поскольку мы рассматриваем относительные математические ожидания, то функции $\operatorname{Erw}(\mathfrak{\Re})$ и $c \operatorname{Erw}(\mathfrak{\Re})(c&gt;0$ – константа!) надо считать не суцественно различными.
2. Функция $\operatorname{Erw}(\mathfrak{A}) \equiv 0$ (для всех $\mathfrak{R}$ ) не выражает никакого высказывания, а потому должна быть исключена.
3. Мы имеем дело с абсолютными, т. е. с правильно нормированными математическими ожиданиями, если $\operatorname{Erw}(1)=1$. Согласно $\boldsymbol{A}^{\prime}$., выражение $\operatorname{Erw}(1)$, во всяком случае, $\geq 0$, и если только оно конечно и $
eq \mathrm{C}$, то 1 . с $c=\frac{1}{\operatorname{Erw}(1)} \quad$ возвращает нас к правильной нормировке. При Erw (1) $=0$, как будет показано, имеет место 2., а потому этот случай исключается. $\operatorname{Ecли} \operatorname{Erw}(1)=\infty$, то мы имеем дело с существенно ненормируемой (т. е. относительной) статистикой.
Нам остается теперь возвратиться к нашим определениям $\boldsymbol{\alpha}$ ), $\beta$ ). Имея в виду 1., условие $\boldsymbol{M}_{2}$. можно заменить следующим более простым условием:
$\left(\boldsymbol{M}_{3}.\right) \quad \operatorname{Erw}(\mathfrak{R}) \equiv \operatorname{Erw}^{\prime}(\mathfrak{R})+\operatorname{Erw}^{\prime \prime}(\mathfrak{R})$.
Следует иметь в виду, что и при выводе Str. предполагалось равенство $\operatorname{Erw}(1)=1$. В случае $\operatorname{Erw}(1)=\infty$ нельзя дать определение свойтву отсутствия дисперсии, так как это свойство означает, что $\operatorname{Erw}\left((\mathfrak{A}-p)^{2}\right)=0$, где $p$-абсолютное математическое ожидание величины $\mathfrak{A}$, т. е. $\frac{\operatorname{Erw}(R)}{\operatorname{Erw}(1)}$, каковое отношение не имеет смысла, так как равно $\frac{\infty}{\infty}{ }^{165}$ ). Итак $\boldsymbol{\alpha}$ ), $\boldsymbol{\beta}$ ) гласят теперь:
$\boldsymbol{\alpha}^{\prime}$ ) Функция от $\mathfrak{R}$, являющаяся математическим ожиданием $\operatorname{Erw}(\mathfrak{\Re})$, называется бездисперсной, если $\operatorname{Erw}(1)
eq 0$ и конечно, так что можно считать, согласно $1 .$, что $\operatorname{Erw}(1)=1$. Характеристичным является тогда Str $_{1}$..
$\beta^{\prime}$ ) Функция от $\mathfrak{R}$, являющаяся математическим ожиданием $\operatorname{Erw}(\mathfrak{\Re})$, называется однородной или чистой, если для нее условие $\boldsymbol{M}_{3}$. влечет за собой соотношения
\[
\operatorname{Erw}^{\prime}(\mathfrak{\Re})=c^{\prime} \operatorname{Erw}(\mathfrak{R}), \quad \operatorname{Erw}^{\prime \prime}(\mathfrak{\Re})=c^{\prime \prime} \operatorname{Erw}(\mathfrak{\Re})
\]
( $c^{\prime}, c^{\prime \prime}$ – константы, конечно $c^{\prime}+c^{\prime \prime}=1$, и в силу $\boldsymbol{A}^{\prime}$. и $1 ., 2$, $c^{\prime}&gt;0, c^{\prime \prime}&gt;0$ ).
Принимая за основу $\boldsymbol{A}^{\prime}$., $\boldsymbol{B}^{\prime}$. и $\boldsymbol{\alpha}^{\prime}$ ), $\boldsymbol{\beta}^{\prime}$ ), мы будем в состоянии принудительно разрешить вопрос о причинности, если только нам будут известны физические величины $\mathfrak{\Re}, \ldots$ в $\boldsymbol{S}$, а также существующие между ними функциональные связи. Это приведет нас в последующих параграфах к соотношениям квантовой механики.
В заключение этого параграфа сделаем еще два замечания.
Сначала замечание, относящееся к случаю $\operatorname{Erw}(1)=0$. Тогда из $\boldsymbol{B}^{\prime}$. следует, что $\operatorname{Erw}(c)=0$, а потому, если только какая-нибудь величина $\mathfrak{R}$ всегда $\geqq c^{\prime}$, $\leqq c^{\prime \prime}$, будут, согласно $\boldsymbol{A}^{\prime}$. , иметь место соотношения $\operatorname{Erw}\left(c^{\prime \prime}-\mathfrak{P}\right) \geq 0, \operatorname{Erw}\left(\mathfrak{A}-c^{\prime}\right) \geqq 0$, так что, согласно $\boldsymbol{B}^{\prime}$., будем иметь $\operatorname{Erw}\left(c^{\prime}\right) \leqq \operatorname{Erw}(\mathfrak{\Re}) \leqq \operatorname{Erw}\left(c^{\prime \prime}\right)$, т. е. $\operatorname{Erw}(\mathfrak{\Re})=0$. Пусть теперь $\mathfrak{R}$ произвольно и $f_{1}(x), f_{2}(x), \ldots$ – некая последовательность ограниченных функций, для которой
\[
f_{1}(x)+f_{2}(x)+\ldots=x
\]
(например, $f_{1}(x)=\frac{\sin x}{x}, f_{n}(x)=\frac{\sin n x}{n x}-\frac{\sin (n-1) x}{(n-1) x}$ при $n=2$, $3, \ldots)$. Тогда $\operatorname{Erw}\left(f_{n}(\mathfrak{\Re})\right)=0$ для $n=1,2, \ldots$ так что, согласно $\boldsymbol{B}^{\prime}$., будет также $\operatorname{Erw}(\mathfrak{R})=0$. Следовательно, в соответствии с ранее сделанными утверждениямп, случай $\operatorname{Erw}(1)=0$, согласно 2., должен быть исключен.

Во-вторых, отметим следующее замечательное обстоятельство. Согласно Str. для отсутствия дисперсии характеристично условие $\operatorname{Erw}\left(\mathfrak{\Re}^{2}\right)=[\operatorname{Erw}(\mathfrak{R})]^{2}$, хотя в этом случае $\operatorname{Erw}(\mathfrak{R})$ равно попросту значению величины $\mathfrak{R}$, а значит, $\operatorname{Erw}(f(\mathfrak{R}))$ есть значение величины $f(\mathfrak{R})$,
165) В случае бездисперсных ансамблей, однако, нет оснований не вводить истинные математические ожидания.
так что должно быть
\[
\text { (Str.) } \quad \operatorname{Erw}(f(\mathfrak{\Re}))=f(\operatorname{Erw}(\mathfrak{R}))
\]

для любой функции $f(x)$. Значит, $\operatorname{Str}_{1}$. является частным случаем $\operatorname{Str}_{2}$.: $f(x)=x^{2}$. Но каким же образом это условие может быть достаточным? Ответ гласит: если Str 2. $_{2}$ выполняется для $f(x)=x^{2}$, то оно будет справедливо и для всех $f(x)$. Можно было бы даже $x^{2}$ заменить любой другой непрерывной и выпуклой функциен от $x$ (т.е. функциен, обладающей свойтвом: $f\left(\frac{x+y}{2}\right)&lt;\frac{f(x)+f(y)}{2}$ при любых $x
eq y$ ). Нд доказательстве мы не будем останавливаться

Categories

1
Оглавление
email@scask.ru