Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике Теперь у нас две формы соотношения неопределенностей. Во-первых, опираясь на свойства разложения Фурье, мы показали, что по порядку величины \( \delta p \cdot \delta q \geq h \). Данное соотношение носит в какой-то мере качественный характер, поскольку относится лишь к порядкам величины. Это и понятно, если учесть допущения, на которых основаны разложения Фурье, и особенно если вспомнить рассуждения относительно микроскопа Гейзенберга, где обоснование соотношения неопределенностей опиралось на определение оптической разрешающей способности (две близко расположенные точки объекта могут быть разрешены оптическим прибором лишь в том случае, если центр дифракционного изображения одной из точек совпадает с первым минимумом дифракционного изображения второй точки). Определение разрешающей способности содержит элемент произвола и носит лишь приближенный характер. которое вытекает из общей формулы примененной к канонически сопряженным величинам \( q \) и \( p \). Таким образом, теорема о дисперсиях, как и качественные соотношения Гейзенберга, приводит к выводу, что в одном акте измерения невозможно получить точные значения двух канонически сопряженных величин \( p \) и \( q \), ибо, если бы после измерения величины \( p \) и \( q \) были известны точно, мы имели бы \( \sigma_{q}=0, \sigma_{p}=0 \), а это противоречит соотношению \( \sigma_{q} \cdot \sigma_{p} \geq h / 4 \pi \). После такого измерения состояние наших знаний уже нельзя было бы представлять функцией \( \psi \), ибо такое представление связано с соотношением \( \sigma_{q} \cdot \sigma_{p} \geq h / 4 \pi \). Я столь долго останавливаюсь на данном вопросе потому, что могут показаться логичными следующие рассуждения. Возьмем большое число систем, находящихся в одном и том же состоянии, т.е. описываемых одной и той же функцией \( \psi \), и будем одновременно измерять сопряженные величины \( p \) и \( q \). Как мы знаем, для каждой системы мы можем получить различные значения с разными вероятностями, которые могут быть вычислены по известной функции \( \psi \). В связи с этим можно было бы думать, что теорема о дисперсиях требует лишь, чтобы произведение дисперсий величин \( p \) и \( q \) было больше или равно \( h / 4 \pi \), но не запрещает получать при некоторых измерениях одновременно точные значения \( p \) и \( q \). Ошибка таких рассуждений состоит в том, что рассматриваются лишь вероятности до измерения (характеризуемые функцией \( \psi \) перед измерением). Но необходимо, чтобы и после измерения состояние можно было характеризовать волновой функцией \( \psi \) и чтобы теорема о дисперсиях выполнялась для соответствующего распределения вероятностей. Именно это требование позволяет сделать на основании теоремы о дисперсиях вывод о невозможности одновременного измерения \( p \) и \( q \). Пусть имеется наблюдаемая величина \( A \). Для системы в заданном состоянии \( \psi \) разные значения величины \( A \) имеют вполне определенные вероятности, которые на основании общих принципов волновой механики можно вычислить по известной функции \( \psi \). Уточним понятие неопределенности в смысле Гейзенберга: будем называть неопределенностью величины \( A \) в состоянии \( \psi \) наименьший интервал \( \delta A \) значений наблюдаемой \( A \), содержащий все значения величины \( A \), полная вероятность которых превышает \( 1-\varepsilon \), где \( \varepsilon- \) очень малое число (например, \( \varepsilon=1 / 1000 \) ). Измерение величины \( A \) почти с определенностью даст значение, лежащее в интервале \( \delta A \). Такое определение зависит от выбранного значения \( \varepsilon \), но если число \( \varepsilon \) раз и навсегда выбрано, то понятие неопределенности будет совершенно четким. Если принять данное определение, то исследование разложений Фурье приводит к следующему. Пусть \( \delta A \) и \( \delta B \) – неопределенности в состоянии \( \downarrow \) для двух каноничесқи сопряженных величин \( A \) и \( B \), так что Можно предположить, что один из определенных выше интервалов \( \delta A \) и \( \delta B \) имеет «резкие гра́ницы», т.е. что вероятность нахождения значений величины \( A \) (или \( B \) ) вне интервала \( \delta \boldsymbol{A} \) (или \( \delta B \) ) равна нулю; при этом можно принять \( \varepsilon=0 \). В таком случае можно показать, что \( \alpha(\varepsilon)=\alpha(0)=\infty \) и что \( \delta A \cdot \delta B=\infty \). Это можно сделать снова путем исследования разложения Фурье (мы приведем пример немного погодя). Если волна \( \downarrow \) отлична от нуля лишь в интервале \( \Delta x \) (интервал с резкими границами), то в разложение Фурье функции \( \psi \) будут входить все значения \( p_{x} \), так что \( \Delta p_{x}=\infty \). Поэтому \( \Delta x \cdot \Delta p_{x}=\Delta x \cdot \infty=\infty \). Но этот результат, точный с математической точки зрения, не представляет особого интереса с практической точки зрения, поскольку, вообще говоря, ниже определенного значения \( \varepsilon \) вероятность практически равна нулю. По этой причине соотношение Гейзенберга \( \delta A \cdot \delta B \geq \alpha h \) с коэффициентом \( \alpha \), близким к единице, практически всегда выполняется, даже если один из интервалов \( \delta A \) и \( \delta B \) имеет резкие границы. Поясним аналогией. В теории ширины спектральных линий доказывается, что профиль линии в частотном спектре имеет следующий вид: Теоретически ширина линии бесконечно велика, но этот математически строгий результат не имеет реального значения, поскольку при уменьшении интенсивности \( I( Множитель \( 1 / \sqrt{b-a} \) обеспечивает нормировку волны Между границами интервала \( x=a \) и \( x=b \) наша волновая функция \( \psi \) имеет вид монохроматической волны, а вне интервала с резкими границами \( \psi=0 \). Если измерить координату \( x \), то она с определенностью окажется в интервале от \( a \) до \( b(\delta x=b-a \) с \( \varepsilon=0 \) ). Положим \( k_{0}=(2 \pi / h) p_{0} \) и \( k=(2 \pi / h) p \) и найдем разложение Фурье для \( \psi \). Имеем где откуда и, следовательно \( { }^{1)} \), Таким образом, \( |c(k)|^{2} \) обращается точно в нуль лишь при бесконечных значениях \( k \). Следовательно, интервалу с резкими границами для величины \( x \) соответствует бесконечный интервал для \( k \) (или для \( p \) ). Поэтому, если положить \( \varepsilon=0 \), то \( \Delta x=b-a \) и \( \Delta p_{x}=\infty \), откуда Микроскоп Гейзенберга. Рассмотрим снова пример с микроскопом Гейзенберга. Здесь \( \Delta p_{x} \) – интервал с резкими границами, поскольку он определяется апертурой микроскопа. В противоположность этому \( \Delta x \) – интервал без резких границ, теоретически равный бесконечности, поскольку величина \( \Delta x \) определяется дифракцией, ставящей предел разрешающей способности. Волна, приходящая в точку \( p^{\prime} \) плоскости изображения, в принципе приходит не только из одной точки \( p \) в плоскости объекта. Она может прийти от любой точки в плоскости объекта, и \( \Delta x \) в принципе не имеет гранниц, но на практике, как показывает теория разрешающей способности, неопределенность \( \Delta x \) положения точки \( P \) ограничивается ближайшей окрестностью точки, геометрическим изображением которой является точка \( p^{\prime} \). Экран с отверстием. Перейдем к примеру экрана с отверстием. Здесь интервал \( \Delta x \) определяется границами отверстия и потому имеет резкие границы. За экраном свет дифрагирует во всех направлениях, так что интервал \( \Delta p_{x} \) в принципе бесконечен, но полосы, которые можно практически наблюдать, лежат поблизости от геометрической тени. Следовательно, на практике интервал \( \Delta p_{x} \) весьма ограничен. Гауссов волновой пакет. Для гауссова волнового пакета имеем где \( \sigma_{q} \cdot \sigma_{p}=h / 4 \pi \). Поэтому гауссов волновой пакет не имеет резких границ ни по \( q \), ни по \( p \). Тогда \( \delta q \) и \( \delta p \) – неопределенности, соответствующие данному значению величины \( \varepsilon \), согласно нашему определению неопределенностей, причем \( \varepsilon \) является функцией величины \( m \) и наоборот. При заданном значении \( \varepsilon \) величина \( m \) фиксирована и мы имеем Если \( \varepsilon \rightarrow 0 \), то \( m \rightarrow \infty \) и \( \delta q \cdot \delta p \rightarrow \infty \). Но на практике достаточно принять, что величина \( \varepsilon \) очень мала. Такое предположение будет правильным уже при \( m=4 \pi \), поскольку ибо \( e^{-6} \approx 1 / 350 \). Таким образом, на практике \( \delta q \cdot \delta p \approx h \). Теорема о дисперсиях, которая в случае сопряженных величин выражается соотношением \( \sigma_{A} \cdot \sigma_{B} \geq h / 4 \pi \), точнее соотношения неопределенностей Гейзенберга. Как и из этого соотношения, из нее следует, что для двух канонически сопряженных величин нельзя получить одновременно точные значения в одном акте измерения \( { }^{1)} \). Если положить то получим Поэтому Мы можем принять следующее определение неопределенностей \( \delta x \) и \( \delta k \) : где \( N \) – очень большое число, откуда \( \delta x=(1 / \gamma) \ln N, \delta k \approx(\gamma / 4 \pi) \sqrt{N} \). Таким образом, имеем \( \delta x \cdot \delta k=(1 / 4 \pi) \sqrt{N} \ln N \), или, если \( k=p_{x} / h, \delta x \cdot \delta p_{x}=(h / 4 \pi) \sqrt{N} \ln N \). При \( N=20 \) имеем \( \delta x \cdot \delta p_{x} \approx h \). В то же время \( \sigma_{p_{x}}=\infty \), поскольку интеграл расходится. Для \( \sigma_{x} \) находим значение \( 1 / \gamma \). Поэтому \( \sigma_{p_{x}} \cdot \sigma_{x}=\infty \), что намного больше величины \( h / 4 \pi \). Здесь теорема о дисперсиях ничего не дает, тогда как соотношение неопределенностей по-прежнему выполняется. – Л. Б. Из теоремы о дисперсиях следует, что Возникает вопрос, существуют ли для \( M_{x}, M_{y}, M_{z} \) соотношения неопределенностей? Разумеется, можно, как и в предыдущем случае, принять определение неопределенностей \( \delta M_{x}, \ldots \), взяв очень малое число \( \varepsilon \). Однако заранее ничего нельзя сказать о величине, такого произведения, как \( \delta M_{x}: \delta M_{y} \). Но, поскольку вероятность стандартного отклонения всегда довольно велика, чаще всего величина \( \delta M_{x} \) будет больше \( \sigma_{M_{x}} \), а \( \delta M_{y} \) – больше \( \sigma_{M_{y}} \), откуда следует, что Мы покажем еще, что не могут одновременно выполняться условия \( \bar{M}_{z} В самом деле, чтобы выполнялось условие \( \bar{M}_{z} Отметим другие различия между случаем некоммутируюших величин первого типа и случаем некоммутирующих величин второго типа. Пусть система, первоначально нахо́дящаяся в состоянии 1 , характеризуется волновой функцией \( \psi_{1} \), и пусть \( A \) и \( B \) – две наблюдаемые этой системы. Предположим, что некоторая операция измерения переводит систему в состояние 2 , характеризуемое некоторой волновой функцией \( \psi_{2} \). После измерения Если \( A \) и \( B \) канонически сопряжены или, в более общем случае, если коммутатор \( [A, B] \) кратен единице, то его среднее значение \( [\bar{A}, \bar{B}] \) есть пос. тоянная, не зависящая от состояния. В таком случае произведения \( \sigma_{A}^{(1)} \cdot \sigma_{B}^{(1)} \) и \( \sigma_{A}^{(2)} \cdot \sigma_{B}^{(2)} \) имеют один и тот же нижний предел. Если же \( A B-B A \) есть некий оператор \( C \), то среднее значение \( \overline{[A, B]} \) в общем случае зависит от рассматриваемого состояния, и если в состоянии 2 выполняется соотношение хотя Другими словами, нижняя граница прризведения \( \sigma_{A}^{(2)} \cdot \sigma_{B}^{(2)} \) после измерения определяется состоянием, существующии после данного измерения, а не начальным состоянием. Применим это к случаю, когда \( A=M_{x}, B=M_{y} \) и \( [A, B]=(h / 2 \pi i) M_{z} \). Если в состоянии 1 выполняется условие \( \bar{M}_{z}^{x} В начальном состоянии 1 для величин \( A \) и \( B \) имеются определенные распределения вероятностей, которые можно вычислить, зная функцию \( \psi_{1} \). Пусть \( \delta A \) и \( \delta B \) – два произвольно выбранных интервала значений для наблюдаемых \( A \) и \( B \). Вообще говоря, эти интервалы для состояния 1 не будут неопределенностями в указанном выше точном смысле. Но допустим, что путем измерения мы установили, что вероятности нахождения значения величины \( A \) вне \( \delta A \) и величины \( B \) вне \( \delta B \) обе меньше \( \varepsilon \). Тогда в состоянии \( \psi_{2} \), которое мы имеем после измерения, величины \( \delta A \) и \( \delta B \) станут неопределенностями в указанном выше смысле и будет выполняться соотношение \( \delta A \cdot \delta B \) может меняться с изменением состояния и после измерения эта граница определяется значением величины \( {\overline{(A B}-\overline{B A})_{2}}^{1} \).
|
1 |
Оглавление
|