Главная > КВАНТОВАЯ МЕХАНИКА(Л.ШИФФ)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотрим сначала матрицы, у которых число строк и столбцов конечно, а затем покажем, как обобщаются полученные результаты на случай матриц с бесконечным числом строк и столбцов $\mathrm{B}^{1}$.

Сложение и умножение матриц.
Матрицей называется квадратная или прямоугольная таблица чисел, которая по определенным правилам складывается и перемножается с другой такой таблицей. Мы будем обозначать матрицы заглавными латинскими буквами, например $A$, а образующие ее числа, или элементы, – теми же буквами, но с индексами, например $A_{k l}$; здесь $k$ означает столбец, a $l$ – строку, в которых находится элемент $A_{k l}$. Матрицы можно складывать, если они имеют одинаковый ранс, т. е. одинаковое число строк и одинаковое число столбцов. Сложение коммутативно:
\[
A+B=B+A .
\]

Если обозначить через $C$ сумму матриц, то
\[
C_{k l}=A_{k t}+B_{k l} \text {. }
\]

Если число столбцов у матрицы $A$ равно числу строк у матрицы $B$, то $A$ можно умножить справа на $B$; в результате перемножения получится матрица $C$, число строк которой совпадает с числом строк в матрице $A$, а число столбцов – с числом столбцов в матрице $B$ :
\[
C=A B, \quad C_{k l}=\sum_{m} A_{k m} B_{m l} .
\]

Здесь суммирование производится по всем индексам $m$, обозначающим столбцы $A$ и строки $B$. Из соотношений (21.2) и (21.3) непосредственно следует дистрибутивность умножения:
\[
A(B+C)=A B+A C .
\]

Умножение подчиняется также ассоциативному закону:
\[
A(B C)=(A B) C,
\]

где левая часть означает, что $A$ умножается справа на произведение $B$ и $C$, а правая часть – что произведение $A$ и $B$ умножается справа на $C$. Произведение (21.5) записывается просто в виде $A B C$; из (21.3) получим для него явное выражение
\[
D=A B C, \quad D_{k l}=\sum_{m, n} A_{k m} B_{m n} C_{n l} .
\]

Из (21.3) явствует, что, вообще говоря, $A B$ не равно $B A$; таким образом, умножение в общем случае не коммутативно ${ }^{2}$.

Нулевая, единичная и постоянная матрицы.
Если $A$ – произвольная квадратная матрица, то нулевая матрица $\bigcirc$ определяется равенствами
\[
A=\bigcirc, \quad A \bigcirc=\bigcirc,
\]

из которых следует, что все элементы матрицы $O$ равны нулю. Если матрица $A$ не квадратная, то все элементы $\bigcirc$ по-прежнему равны нулю, но сами матрицы $O$, фигурирующие в разных местах в (21.7), имеют неодинаковое число строк и столбцов.

Единичная матрица 1 определяется требованием, чтобы для произвольных матриц $A$ и $B$ выполнялись соотношения
\[
1 A=A, \quad B 1=B .
\]

Из (21.8) следует, что единичная матрица является квадратной, и ранг ее (число строк или столбцов) равен числу строк в $A$ или числу столбцов в $B$. Далее, ее элементы, лежащие на главной диагонали ( $k=l$ ), равны единице, а недиагональные элементы равны нулю; таким образом, элементы единичной матрицы совпадают с символами Кронекера $\delta_{k l}$, введенными в $\S 10$.

Произведение числа $c$ на матрицу $A$ равно матрице $c A$, элементы которой получаются в результате умножения элементов матрицы $A$ на с. Поэтому, если определить постоянную матрицу $C$ как матрицу, кратную единичной, так что вместо единицы диагональным элементом будет отличное от нуля число $c$, то
\[
c A=C A,
\]

где $C_{k l}=c \delta_{k l}$ – матричные элементы постоянной матрицы $C^{1}$ ).

Шпур, детерминант и обратная матрица.
Сумма диагональных элементов квадратной матрицы называется ее шпуром (а также следом или диагональной суммой) и обозначается символом $\mathrm{Sp}$ :
\[
\operatorname{Sp}(A)=\sum_{k} A_{k k} .
\]

Детерминант квадратной матрицы определяется по обычному правилу вычисления детерминанта для чисел, расположенных в квадратной таблице.

Матрица $A$ может иметь или не иметь обратную матрицу $A^{-1}$, определяемую равенствами
\[
A A^{-1}=1, \quad A^{-1} A=1 .
\]

Матрица $A$ называется несингулярной, если она имеет обратную матрицу, и сингулярной в противном случае. Если $A$ – несингулярная матрица конечного ранга, то можно показать (см. задачу 2), что она является квадратной и ( $k, l$ )-й элемент обратной матрицы равен алгебраическому дополнению элемента $A_{l k}$, деленному на детерминант матрицы $A$; таким образом, матрица сингулярна, если ее детерминант равен нулю. Легко проверить, что для несингулярных матриц $A, B$ и $C$
\[
(A B C)^{-1}=C^{-1} B^{-1} A^{-1} .
\]

Эрмитовы и унитарные матрицы.
Матрица $A^{*}$ называется эрмитово сопряженной с $A$, если она получается из $A$ заменой строк на столбцы и всех элементов на комплексно сопряженные им величины. Поэтому, если
\[
B=A^{*}, \text { то } B_{k l}=\bar{A}_{l k} .
\]

Нетрудно проверить, что эрмитово сопряженной с произведением нескольких матриц будет матрица, полученная в результате перемножения сопряженных матриц в обратном порядке:
\[
(A B C)^{*}=C^{*} B^{*} A^{*} \text {. }
\]

Матрица называется эрмитовой, или самосопряженной, если она равна своей эрмитово сопряженной матрице; таким образом, матрица $A$ эрмитова, если
\[
A=A^{*} .
\]

Эрмитовыми, очевидно, могут быть только квадратные матрицы.
Матрица называется унитарной, если эрмитово сопряженная с ней матрица равна обратной; таким образом, матрица $A$ унитарна, если
\[
A^{*}=A^{-1} \text { или } A A^{*}=1 \text { и } A^{*} A=1 .
\]

Унитарные матрицы конечного ранга должны быть квадратными.

Преобразование и диагонализация матриц.
Преобразование квадратной матрицы $A$ в $A^{\prime}$ с помощью несингулярной матрицы $S$ определяется соотношением
\[
S A S^{-1}=A^{\prime} .
\]

Отсюда ясно, что $S^{-1}$ преобразует обратно $A^{\prime}$ в $A$.
Преобразование не изменяет вида матричного уравнения. Так, уравнение
\[
A B+C D E=F
\]

при преобразовании переходит в
\[
S A B S^{-1}+S C D E S^{-1}=S F S^{-1},
\]

что эквивалентно уравнению
\[
S A S^{-1} \cdot S B S^{-1}+S C S^{-1} \cdot S D S^{-1} \cdot S E S^{-1}=S F S^{-1}
\]

или
\[
A^{\prime} B^{\prime}+C^{\prime} D^{\prime} E^{\prime}=F^{\prime}
\]

где штрихами обозначены преобразованные матрицы. В силу инвариантности матричных уравнений относительно преобразований можно производить любые подходящие преобразования системы матриц, не нарушая справедливости получаемых при этом результатов.

Квадратная матрица называется диагональной, если у нее отличные от нуля элементы расположены только на главной диагонали ( $k=l$ ). Диагональные элементы называются при этом собственными значениями матрицы. Нетрудно видеть, что $n$-я степень диагональной матрицы также будет диагональной и собственные значения ее будут $n$-ми степенями собственных значений первоначальной матрицы.

Говорят, что матрица $S$ в (21.17) диагонализует матрицу $A$, если полученная в результате преобразования матрица $A^{\prime}$ диагональна, т. е. $A_{k l}^{\prime}=A_{k}^{\prime} \delta_{k l}$. Для явного определения $A^{\prime}$ умножим (21.17) справа на $S$ :
\[
S A=A^{\prime} S .
\]

Приравнивая элементы правых и левых частей (21.18), получаем систему линейных алгебраических уравнений:
\[
\sum_{m} S_{k m} A_{m l}=A_{k}^{\prime} S_{k l}, \text { или } \sum_{m} S_{k m}\left(A_{m l}-A_{k}^{\prime} \delta_{. n l}\right)=0,
\]

где $A_{k}^{\prime}$ – одно из собственных значений $A^{\prime}$, а суммирование по индексу $m$ производится от единицы до $N$ ( $N$ – ранг матрицы $A$ ).

Равенства (21.19) можно теперь рассматривать как систему $N$ однородных алгебраических уравнений относительно элементов матрицы преобразования $S_{k m}$, где $k$ фиксировано. Необходимым и достаточным условием разрешимости этой системы является обращение в нуль детерминанта, составленного из коэффициентов уравнения; иначе говоря, детерминант квадратной матрицы ( $\left.A_{m l}-A_{k}^{\prime \prime} \delta_{m l}\right)$ должен быть равен нулю. Отсюда получаем одно алгебраическое уравнение $N$-й степени, так называемое вековое уравнение, имеющее $N$ корней $A_{k}^{\prime}$. Таким образом, собственные значения диагональной матрицы $A^{\prime}$, полученной из $A$ в результате преобразования, не зависят от способа диагонализации $A$ (исключая, может быть, последовательность расположения): поэтому их называют также собственными значениями первоначальной недиагональной матрицы $A$. Матрицы $A$ и $A^{\prime}$ называются вырожденными, если два или более собственных значения совпадают друг с другом.

Матрицы бесконечного ранга.
Правила сложения и умножения матриц (21.2) и (21.3) очевидным образом переносятся на случай бесконечного числа строк и столбцов, если только бесконечная сумма в (21.3) сходится. Иногда мы будем иметь дело с матрицами, у которых число строк или столбцов (или и тех и других) является несчетно бесконечным; в этом случае один или оба матричных индекса становятся непрерывными переменными и обычное суммирование нужно заменить интегрированием. Мы не будем здесь подробно рассматривать эти возможности, но просто допустим, что все разумные результаты без каких-либо затруднений переносятся с конечных на бесконечные матрицы ${ }^{1}$. Когда говорят, что эрмитова матрица бесконечного ранга является квадратной, то имеют в виду, что ее строки и столбцы перенумерованы одинаковым образом. Унитарная матрица бесконечного ранга не обязательно должна быть квадратной. Ее строки и столбцы могут нумероваться различно; при этом, например, число строк может быть счетным, а число столбцов – несчетно бесконечным.

В квантовой механике в основном имеют дело с эрмитовыми и унитарными матрицами, чаще всего бесконечного ранга. Основная теорема, которую мы примем без доказательства, состоит в том, что любую эрмитову матрицу можно привести к диагональному виду с помощью унитарного преобразования. Из этой теоремы следует, что собственные значения эрмитовой матрицы определяются однозначно, с точностью до порядка их расположения. Как легко показать с помощью этой теоремы (см. задачу 1), для того чтобы можно было диагонализовать две эрмитовы матрицы с помощью одного и того же унитарного преобразования, необходимо и достаточно, чтобы они коммутировали. (Матрицы $A$ и $B$ коммутируют, если $A B=B A$.) Далее из этой теоремы следует, что собственные значения эрмитовой матрицы вещественны. Если $S$ и $A$ в (21.17) представляют собой соответственно унитарную и эрмитову матрицы, то это соотношение можно переписать в виде
\[
S A S^{*}=A^{\prime} .
\]

В силу (21.14) уравнение, эрмитово сопряженное с (21.20), имеет вид
\[
S A S^{*}=A^{* *} \text {. }
\]

Отсюда следует, что $A^{\prime *}=A^{\prime}$, т. е. в результате преобразования с помощью унитарной матрицы свойство эрмитовости сохраняется. Если матрица $A^{\prime}$ эрмитова и диагональна, то из (21.13) следует, что все ее собственные значения вещественны. Легко видеть, что справедливо и обратное утверждение: если в результате унитарного

преобразования матрицу можно привести к диагональному виду и все ее собственные значения вещественны, то она является эрмитовой.

Важно отметить, что если ранг $A$ бесконече́н, то матрица $A^{-1}$ будет обратна $A$ лишь в том случае, когда выполняются оба соотношения (21.11). Аналогично для унитарности $A$ должно выполняться как второе, так и третье соотношения (21.16).

Categories

1
Оглавление
email@scask.ru