Главная > ТЕОРИЯ ГРУПП И ЕЕ ПРИМЕНЕНИЕ К КВАНТОМЕХАНИЧЕСКОЙ ТЕОРИИ АТОМНЫХ СПЕКТРОВ (Е.Вигнер)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Совокупность $n$ чисел ( $v_{1}, v_{2}, v_{3}, \ldots, v_{n}$ ) называется $n$-мерным вектором, или вектором $n$-мерного пространства; сами эти числа являются компонентами этого вектора. Координаты точки в $n$-мерном пространстве могут быть истолкованы как вектор, соединяющий начало координат с рассматриваемой точкой. Векторы булут обозначаться жирными курсивными латинскими буквами; их компоненты будут иметь латинский индекс, указывающий на соответствующую координатную ось. Таким образом, $v_{k}$ есть компонента вектора (число), а $\boldsymbol{v}$ – вектор, т. е. совокупность $n$ чисел.
– Два вектора называются равными, если их соответствующие компоненты равны. Таким образом, равенство
\[
\boldsymbol{v}=\boldsymbol{w}
\]

эквивалентно $n$ соотношениям
\[
v_{1}=w_{1}, \quad v_{2}=w_{2}, \ldots, \quad v_{n}=w_{n} .
\]

Вектор называется нулевым, если все его компоненты обращаются в нуль. Произведение $c \boldsymbol{v}$ числа $c$ на вектор $\boldsymbol{v}$ является вектором, компоненты которого в $c$ раз больше компонент $\boldsymbol{v}$, или $(c \boldsymbol{v})_{k}=c v_{k}$. Сложение векторов определяется правилом, согласно которому компоненты суммы векторов равны суммам соответствующих компонент, т. е. формулой
\[
(v+w)_{k}=v_{k}+w_{k} .
\]

В математических задачах часто бывает целесообразно ввести новые переменные вместо первоначальных. В простейшем случае новые переменные $x_{1}^{\prime}, x_{2}^{\prime}, \ldots, x_{n}^{\prime}$ являются линейными функциями старых переменных $x_{1}, x_{2}, \ldots, x_{n}$. Иначе говоря,
\[
\begin{array}{c}
x_{1}^{\prime}=\alpha_{11} x_{1}+\ldots+\alpha_{1 n} x_{n}, \\
x_{2}^{\prime}=\alpha_{21} x_{1}+\ldots+\alpha_{2 n} x_{n}, \\
\cdot \cdot \cdot \cdot \cdot \cdot \cdot \cdot \cdot \alpha_{n n} x_{n}, \\
x_{n}^{\prime}=\alpha_{n 1} x_{1}+\cdots \cdot
\end{array}
\]
$\Gamma а в а$
или
\[
x_{i}^{\prime}=\sum_{k=1}^{n} \alpha_{i k} x_{k} .
\]

Такой способ введения новых переменных называется линейным преобразованием. Преобразование полностью определяется коэффициентами $\alpha_{11}, \ldots, \alpha_{n n}$, и совокупность этих $n^{2}$ чисел, расположенных в форме квадратной таблицы, называется матрицей линейного преобразования (1.3):
\[
\left(\begin{array}{cccc}
\alpha_{11} & \alpha_{12} & \ldots & \alpha_{1 n} \\
\alpha_{21} & \alpha_{22} & \ldots & \alpha_{2 n} \\
\vdots & \vdots & & \vdots \\
\alpha_{n 1} & \alpha_{n 2} & \ldots & \alpha_{n n}
\end{array}\right) .
\]

Мы будем записывать такую матрицу более кратко в виде $\left(\alpha_{t k}\right)$ или просто $\boldsymbol{a}$.

Чтобы равенства (1.3) дећствительно представляли введение новых переменных, необходимо не только переменные $x^{\prime}$ выразить через $x$, но и выразить эти последние через $x^{\prime}$. Иначе говоря, если мы рассматриваем $x_{i}$ как неизвестные в уравнениях (1.3), должно существовать единственное решение этих уравнений, выражающее переменные $x$ через $x^{\prime}$. Необходимым и достаточным условием этого является неравенство нулю определителя, составленного из коэффициентов $\alpha_{i k}$ :
\[
\left|\begin{array}{ccc}
\alpha_{11} & \ldots & \alpha_{1 n} \\
\vdots & & \vdots \\
\alpha_{n 1} & \ldots & \alpha_{n n}
\end{array}\right|
eq 0 .
\]

Преобразования, матрицы которых имеют отличные от нуля определители, называются собственными преобразованиями, однако таблица коэффициентов вида (1.4) всегда называется матрицей, независимо от того, отвечает ли она собственному преобразованию или нет. Матрицы будем обозначать буквами, напечатанными жирным шрифтом, а элементы матриц-светлыми буквами с индексами, указывающими на соответствующие оси. Таким образом, $\alpha$ есть матрица, таблица $n^{2}$ чисел; $\alpha_{j k}$ есть элемент матрицы (число).

Две матрицы равны, если все их соответствующие коэффициенты равны. Следовательно, равенство
\[
\alpha=\beta
\]

эквивалентно $n^{2}$ равенствам
\[
\alpha_{j k}=\beta_{j k} \quad(j, k=1,2, \ldots, n) .
\]
Уравнениям
\[
x_{i}^{\prime}=\sum_{k=1}^{n} \alpha_{i k} x_{k}
\]

можно придать другое толкование, если рассматривать $x_{j}^{\prime}$ не как компоненты исходного вектора в новой системе координат, а как компоненты нового вектора в исходной системе координат. Тогда мы говорим, что матрица $\boldsymbol{\alpha}$ преобразует вектор $\boldsymbol{x}$ в вектор $\boldsymbol{x}^{\prime}$, или что $\boldsymbol{\alpha}$, примененная к вектору $\boldsymbol{x}$, дает вектор $\boldsymbol{x}^{\prime}$ :
\[
\boldsymbol{x}^{\prime}=\boldsymbol{\alpha} \boldsymbol{x} \text {. }
\]

Это уравнение полностью эквивалентно (1.3a).
Любая $n$-мерная матрица является линейным оператором по отношению к $n$-мерным векторам. Она представляет собой оnepaтор, потому что она преобразует один вектор в другой; этот оператор является линейным, поскольку для произвольных чисел $a$ и $b$ и произвольных векторов $r$ и $\boldsymbol{v}$ справедливо соотношение

Для доказательства (1.6) достаточно выписать в явном виде правую и левую части равенства; $k$-я компонента вектора $a r+b \boldsymbol{v}$ равна $a r_{k}+b v_{k}$, так что $i$-я компонента вектора в левой части равна
\[
\sum_{k=1}^{n} \alpha_{i k}\left(a r_{k}+b v_{k}\right) .
\]

Но она совпадает с $l$-й компонентой вектора в правой части (1.6)
\[
a \sum_{k=1}^{n} \alpha_{i k} r_{k}+b \sum_{k=1}^{n} \alpha_{i k} v_{k} .
\]

Тем самым линеиность матричных операторов установлена.
Отметим, что $n$-мерная матрица является наиболее общим линейным оператором в $n$-мерном векторном пространстве. Это значит, что всякнй линейный оператор в этом пространстве эквивалентен матрице. Чтобы доказать это, рассмотрим произвольный линейный оператор $O$, преобразующий вектор $e_{1}=(1,0,0, \ldots, 0)$ в вектор $r_{.1}$, вектор $e_{2}=(0,1,0, \ldots, 0)$ в вектор $r_{.2}$ и, наконец, вектор $e_{n}=(0,0,0, \ldots, 1)$ в вектор $r_{\cdot n}$, где компоненты вектора $r_{. k}$ равны $r_{1 k}, r_{2 k}, \ldots, r_{n k}$. Тогда матрица $\left(r_{l k}\right.$ ) преобразует каждый из векторов $e_{1}, e_{2}, \ldots, e_{n}$ в те же векторы $r_{.1}$, $\boldsymbol{r}_{.2}, \ldots, \boldsymbol{r}_{. n}$, что и оператор 0 . Кроме того, любой $n$-мерный вектор $\boldsymbol{a}$ является линейной комбинацией векторов $e_{1}, e_{2}, \ldots, e_{n}$. Таким образом, как $O$, так и ( $r_{i k}$ ) (поскольку они линейны) преобразуют любой произвольный вектор $a$ в один и тот же вектор $a_{1} r_{1}+\ldots+a_{n} r_{n}$. Сяедовательно, матрица ( $r_{i k}$ ) эквивалентна оператору O.
Наиболее важным свойством линейных преобразований является то, что два линейных преобразования, примененные последовательно, могут быть скомбинированы в одно линейное преобразование. Предположим, например, что мы вводим новые переменные $x^{\prime}$ вместо первоначальных $x$ посредством линеинного преобразования (1.3) и затем вводим переменные $x^{\prime \prime}$ путем второго линейного преобразования
\[
\begin{array}{c}
x_{1}^{\prime \prime}=\beta_{11} x_{1}^{\prime}+\beta_{12} x_{2}^{\prime}+\ldots+\beta_{1 n} x_{n}^{\prime}, \\
\cdot \cdot \cdot \cdot \cdot \cdot \cdot \beta_{n n} x_{n}^{\prime} .
\end{array}
\]

Обе операции могут быть скомбинированы в одну, так что переменные $x^{\prime \prime}$ вводятся непосредственно вместо $x$ с помощью одного линейного преобразования. Подставляя (1.3) в (1.7), находим
\[
\begin{array}{l}
x_{1}^{\prime \prime}=\beta_{11}\left(\alpha_{11} x_{1}+\ldots+\alpha_{1 n} x_{n}\right)+\ldots+\beta_{1 n}\left(\alpha_{n 1} x_{1}+\ldots+\alpha_{n n} x_{n}\right) \text {, } \\
x_{2}^{\prime \prime}=\beta_{21}\left(\alpha_{11} x_{1}+\ldots+\alpha_{1 n} x_{n}\right)+\ldots+\beta_{2 n}\left(\alpha_{n 1} x_{1}+\ldots+\alpha_{n n} x_{n}\right) \text {. } \\
\dot{x}_{n}^{\prime \prime}=\dot{\beta}_{n 1}\left(\alpha_{11} \dot{x}_{1}+\cdots+\alpha_{1 n} x_{n}\right)+\cdots+\beta_{n n}\left(\alpha_{n 1} x_{1}+\cdots+\dot{\alpha}_{n n} \dot{x}_{n}\right) . \\
\end{array}
\]

Таким образом, переменные $x^{\prime \prime}$ являются линейными функциями переменных $x$. Мы можем записать (1.8) в более компактной форме, используя сокращенную запись равенств (1.3) и (1.7):
\[
\begin{array}{l}
x_{j}^{\prime}=\sum_{k=1}^{n} \alpha_{j k} x_{k} \quad(j=1,2, \ldots, n), \\
x_{i}^{\prime \prime}=\sum_{j=1}^{n} \beta_{i j} x_{j}^{\prime} \quad(i=1,2, \ldots, n) .
\end{array}
\]

Torда (1.8) принимает вид
\[
x_{i}^{\prime \prime}=\sum_{j=1}^{n} \sum_{k=1}^{n} \beta_{i j} \alpha_{j k} x_{k}
\]

Кроме төго, вводя матрицу $\gamma$ и определяя ее элементы с помощью соотношений
\[
\gamma_{l k}=\sum_{j=1}^{n} \beta_{i j} \alpha_{j k},
\]

получаем просто
\[
x_{l}^{\prime \prime}=\sum_{k=1}^{n} \Upsilon_{i k} x_{k}
\]
Это показывает, что комбинация двух линейных преобразований (1.7) и (1.3) с матрицами ( $\beta_{i k}$ ) и ( $\alpha_{i k}$ ) представляет собой линейное преобразование, имеющее матрицу ( $\left.\gamma_{i k}\right)$.

Матрица ( $\left.\gamma_{i k}\right)$, определенная через матрицы $\left(\alpha_{i k}\right.$ ) и $\left(\beta_{i k}\right.$ ) согласно равенству (1.9), называется произведением матриц ( $\beta_{i k}$ ) и $\left(\alpha_{i k}\right)$. Так как $\left(\alpha_{i k}\right)$ преобразует вектор $\boldsymbol{r}$ в вектор $\boldsymbol{r}^{\prime}=\boldsymbol{\alpha} \boldsymbol{r}$, a $\left(\beta_{i k}\right.$ ) преобразует вектор $\boldsymbol{r}^{\prime}$ в вектор $\boldsymbol{r}^{\prime \prime}=\beta \boldsymbol{r}^{\prime}$, то матрица $\left(\gamma_{i k}\right.$ ), представляющая по определению произведение матриц $\left(\alpha_{i k}\right)$ и ( $\beta_{i k}$ ), преобразует вектор $\boldsymbol{r}$ непосредственно в вектор $\boldsymbol{r}^{\prime \prime}=\boldsymbol{\gamma} \boldsymbol{r}$. Этот метод сочетания преобразований называется „матричным умножением “ и имеет ряд простых свойств, которые мы перечислим ниже в виде теорем.

Прежде всего мы замечаем, что формальное правило умножения матриц совпадает с правилом умножения определителей.
1. Определитель произведения двух матрии равен произведению определителей каждого из двух сомножителей.
При перемножении матриц соотношение
\[
\alpha \beta=\beta \alpha
\]

не является обязательно справедливым. Например, рассмотрим две матрицы
\[
\left(\begin{array}{ll}
1 & 1 \\
0 & 1
\end{array}\right) \text { и }\left(\begin{array}{ll}
1 & 0 \\
1 & 1
\end{array}\right) \text {. }
\]

Тогда
\[
\left(\begin{array}{ll}
1 & 1 \\
0 & 1
\end{array}\right)\left(\begin{array}{ll}
1 & 0 \\
1 & 1
\end{array}\right)=\left(\begin{array}{ll}
2 & 1 \\
1 & 1
\end{array}\right),
\]

но
\[
\left(\begin{array}{ll}
1 & 0 \\
1 & 1
\end{array}\right)\left(\begin{array}{ll}
1 & 1 \\
0 & 1
\end{array}\right)=\left(\begin{array}{ll}
1 & 1 \\
1 & 2
\end{array}\right) .
\]

Этим устанавливается второе свойство матричного умножения.
2. Произведение двух матрии зависит, вообще говоря, от порядка сомножителей.

В том весьма частном случае, когда равенство (1.E.1) справедливо, матрицы $\alpha$ и $\beta$ называются коммутирующими.
3. В противоположность перестановочному закону npu nеремножении матрии имеет место сочетательный (ассоциативный) закон умножения.
Иначе говоря,
\[
\gamma(\beta \alpha)=(\gamma \beta) \alpha .
\]

Таким образом, несущественно, умножается ли матрица $\gamma$ на произведение матриц $\beta$ и $\alpha$ или произведение матриц $\gamma$ и $\beta$ – на матрицу $\boldsymbol{\alpha}$. Чтобы доказать это, обозначим элемент с индексами $t$
и $k$ матрицы в левой части (1.10) через $\varepsilon_{i k}$. Тогда
\[
\varepsilon_{i k}=\sum_{j=1}^{n} \Upsilon_{i j}(\beta \alpha)_{j k}=\sum_{j=1}^{n} \sum_{l=1}^{n} \Upsilon_{i j} \beta_{j l} \alpha_{l k} .
\]

Элемент с индексами $i$ и $k$ в правой части (1.10) равен
\[
\varepsilon_{i k}^{\prime}=\sum_{l=1}^{n}(\gamma \beta)_{i l} \alpha_{l k}=\sum_{l=1}^{n} \sum_{j=1}^{n} \gamma_{i j} \beta_{j l} \alpha_{l k} .
\]

Мы видим, что $\varepsilon_{i k}=\varepsilon_{i k}^{\prime}$ и, следовательно, (1.10) доказано. Поэтому в обеих частях (1.10) можно просто писать $\boldsymbol{\gamma} \beta \boldsymbol{\alpha}$.

Справедливость сочетательного закона становится немедленно очевидной, если рассматривать матрицы как линейные операторы. Пусть $\boldsymbol{\alpha}$ преобразует вектор $\boldsymbol{r}$ в вектор $\boldsymbol{r}^{\prime}=\boldsymbol{\alpha}, \beta$-вектор $\boldsymbol{r}^{\prime}$ в $\boldsymbol{r}^{\prime \prime}=\beta \boldsymbol{r}^{\prime}$ и $\boldsymbol{\gamma}$ – вектор $\boldsymbol{r}^{\prime \prime}$ в $\boldsymbol{r}^{\prime \prime \prime}=\boldsymbol{\gamma} \boldsymbol{r}^{\prime \prime}$. Тогда объединение двух матриц в одну путем матричного умножения означает просто комбинацию двух операций. Произведение $\beta \boldsymbol{\alpha}$ преобразует $\boldsymbol{r}$ непосредственно в $\boldsymbol{r}^{\prime \prime}$, а $\gamma \beta$ преобразует $\boldsymbol{r}^{\prime}$ прямо в $\boldsymbol{r}^{\prime \prime \prime}$. Таким образом, как $(\gamma \beta) \boldsymbol{\alpha}$, так и $\boldsymbol{\gamma}(\beta \boldsymbol{\alpha})$ преобразуют $\boldsymbol{r}$ в $\boldsymbol{r}^{\prime \prime \prime}$, и обе эти операции эквивалентны.
4. Единичная патрица
\[
\mathbf{1}=\left(\begin{array}{ccccc}
1 & 0 & 0 & \ldots & 0 \\
0 & 1 & 0 & \ldots & 0 \\
0 & 0 & 1 & \ldots & 0 \\
. & . & . & & . \\
. & . & . & & . \\
. & . & . & & . \\
0 & 0 & 0 & \ldots & 1
\end{array}\right)
\]

играет особую роль в матричном умножении, такую же как число 1 в обычном умножении. Дляя любой матрицы $\boldsymbol{\alpha}$
\[
\boldsymbol{\alpha} \cdot 1=1 \cdot \boldsymbol{\alpha} .
\]

Тем самым 1 коммутирует со всеми матрицами, и ее произведение на любую матрицу равно этой матрице. Элементы единичной матрицы обозначаются символом $\delta_{i k}$, так что
\[
\begin{array}{ll}
\delta_{i k}=0 & (i
eq k), \\
\delta_{i k}=1 & (i=k) .
\end{array}
\]

Величина $\delta_{t k}$, определенная таким образом, называется дельтасимволом Кронекера. Матрица ( $\left.\delta_{i k}\right)=1$ производит тождественное преобразование, оставляющее переменные без изменения.

Если для заданной матрицы $\boldsymbol{\alpha}$ существует такая матрица $\beta$, при которой
\[
\beta \alpha=1,
\]
то $\beta$ называется матрицей, обратной матрице $\boldsymbol{\alpha}$. Соотношение (1.13) означает, что существует преобразование с матрицей $\beta$, которое в сочетании с матрицей $\boldsymbol{\alpha}$ дает тождественное преобразование. Если определитель матрицы $\alpha$ не равен нулю $\left(\left|\alpha_{i k}\right|
eq 0\right)$, то обратное преобразование всегда существует (как уже упоминалось на стр. 10). Чтобы доказать это, выпишем $n^{2}$ уравнений (1.13) в явном виде:
\[
\sum_{j=1}^{n} \beta_{i j} \alpha_{j k}=\delta_{i k} \quad(l, k=1,2, \ldots, n) .
\]

Рассмотрим теперь $n$ уравнений, в которых $t$ имеет одно значение, например $l$. Эти уравнения составляют $n$ линейных уравнений с $n$ неизвестными $\beta_{l 1}, \beta_{l 2}, \ldots, \beta_{l n}$. Следовательно, они имеют единственное решение, если только определитель $\left|\alpha_{j k}\right|$ не обращается в нуль. То же самое справедливо для остальных $n-1$ систем уравнений. Тем самым устанавливается пятое свойство.
5. Если определитель $\left|\alpha_{j k}\right|$ отличен от нуля, то существует одна и только одна такая матрица $\beta$, что $\beta \alpha=1$.

Больше того, определитель $\left|\beta_{j k}\right|$ является обратным определителю $\left|\alpha_{j k}\right|$, поскольку, согласно теореме 1 ,
\[
\left|\beta_{j k}\right| \cdot\left|\alpha_{j k}\right|=\left|\delta_{j k}\right|=1 .
\]

Отсюда следует, что матрица $\alpha$ не имеет обратной, если $\left|\alpha_{i k}\right|=0$, и что матрица $\beta$, обратная матрице $\alpha$, также должна иметь обратную.

Теперь мы покажем, что если имеет место соотношение (1.13), то соотношение
\[
\alpha \beta=1
\]

также справедливо. Это значит, что если $\beta$ является матрицей, обратной $\boldsymbol{\alpha}$, то одновременно $\boldsymbol{\alpha}$ есть матрица, обратная $\beta$. Это проще всего показать путем умножения равенства (1.13) справа на матрицу $\beta$ :
\[
\beta \alpha \beta=\beta,
\]
и. умножения полученного равенства слева на матрицу, обратную $\beta$. которую мы обозначим через $\gamma$. Тогда
\[
\gamma \beta \alpha \beta=\gamma \beta,
\]

и поскольку, согласно предположению, $\gamma \beta=1$, последнее равенство совпадает с (1.16). Обратно, нетрудно показать, что (1.13) следует из (1.16). Таким образом, доказана теорема 6 (матрица, обратная $\boldsymbol{\alpha}$, обозначается через $\boldsymbol{\alpha}^{-1}$ ):
6. Если $\boldsymbol{\alpha}^{-1}$ есть матрица, обратная матрице $\boldsymbol{\alpha}$, то матрица $\alpha$ также является обратной $\boldsymbol{\alpha}^{-1}$. Очевидно, что матрицы, обратные друг другу, коммутируют.
Правило. Матрица, обратная произведению $\alpha \beta \gamma \delta$, получается путем перемножения матриц, обратных отдельным сомножителям, в обратном порядке, т. е.
\[
\left(\delta^{-1} \gamma^{-1} \beta^{-1} \alpha^{-1}\right) \cdot(\alpha \beta \gamma \delta)=1 .
\]

Другой важной матрицей является нулевая матрица.
7. Нулевой матрицей называется матрица, каждый элемент которой равен нулю:
\[
\mathbf{0}=\left(\begin{array}{ccccc}
0 & 0 & 0 & \ldots & 0 \\
0 & 0 & 0 & \ldots & 0 \\
. & . & . & & . \\
. & . & . & & . \\
0 & 0 & 0 & \ldots & 0
\end{array}\right) .
\]

Очевидно, что для любой матрицы $\alpha$ имеет место равенство
\[
\boldsymbol{\alpha} \cdot \mathbf{0}=\mathbf{0} \cdot \boldsymbol{\alpha}=\mathbf{0} .
\]

Нулевая матрица играет важную роль в другой операции с матрицами, а именно в сложении. Сумма $\gamma$ двух матриц $\alpha$ и $\beta$ есть матрица с элементами
\[
\gamma_{i k}=\alpha_{i k}+\beta_{i k} \text {. }
\]

При этом $n^{2}$ уравнений (1.19) эквивалентны уравнению
\[
\boldsymbol{\gamma}=\boldsymbol{\alpha}+\boldsymbol{\beta} \text { или } \boldsymbol{\gamma}-\boldsymbol{\alpha}-\boldsymbol{\beta}=\mathbf{0} .
\]

Сложение матриц, очевидно, перестановочно:
\[
\alpha+\beta=\beta+\boldsymbol{\alpha} .
\]

Кроме того, умножение на сумму подчиняется распределительному закону:
\[
\begin{array}{l}
\gamma(\alpha+\beta)=\gamma \alpha+\gamma \beta \\
(\alpha+\beta) \gamma=\alpha \gamma+\beta \gamma .
\end{array}
\]

Далее, произведение матрицы $\boldsymbol{\alpha}$ на число $a$ определяется как матрица $\gamma$, каждый элемент которой равен произведению $a$ на соответствующий элемент $\boldsymbol{\alpha}$ :
\[
\gamma_{i k}=a \alpha_{i k} \text {. }
\]

Очевидным следствием являются формулы
\[
(a b) \alpha=a(b \alpha), \quad \alpha a \beta=a \alpha \beta, \quad a(\alpha+\beta)=a \alpha+a \beta .
\]

Так как целые степени матрицы $\alpha$ могут быть легко определены посредством последовательного умножения
\[
\left.\begin{array}{rlrl}
\alpha^{2} & =\alpha \cdot \alpha, & \alpha^{3} & =\alpha \cdot \alpha \cdot \alpha, \ldots, \\
\alpha^{-2} & =\alpha^{-1} \cdot \alpha^{-1}, & \alpha^{-3} & =\alpha^{-1} \cdot \alpha^{-1} \cdot \alpha^{-1}, \ldots,
\end{array}\right\}
\]

—————————————————————-
0010ru_fiz_kvan_book23_no_photo_page-0018.jpg.txt

Векторы и матрицы
17
то можно также определить многочлены с положительными и отрицательными целыми степенями
\[
\ldots+a_{-n} \boldsymbol{\alpha}^{-n}+\ldots+a_{-1} \boldsymbol{\alpha}^{-1}+a_{0} 1+a_{1} \boldsymbol{\alpha}+\ldots+a_{n} \boldsymbol{\alpha}^{n}+\ldots
\]

Коэффициенты $a$ в приведенном выражении являются числами, а не матрицами. Функция от а типа (1.23) коммутирует со всякой другой функцией от $\boldsymbol{\alpha}$ (и, в частности, с самой матрицей $\boldsymbol{a})$.

Еще одним часто встречающимся типом матрицы является диагональная матрица.
8. Диагональная матрица-это матрица, все элементы которой, кроме тех, что лежат на главной диагонали, равны нулю:
\[
\mathbf{D}=\left(\begin{array}{cccc}
D_{1} & 0 & \ldots & 0 \\
0 & D_{2} & \ldots & 0 \\
. & . & & . \\
. & . & & . \\
. & . & & . \\
0 & 0 & \ldots & D_{n}
\end{array}\right) .
\]

Общий элемент этой диагональной матрицы может быть записан в виде
\[
D_{i k}=D_{i} \delta_{i k} .
\]

Все диагональные матрицы коммутируют, и произведение двух диагональных матриц есть снова диагональная матрица. Это можно видеть непосредственно из определения произведения:
\[
\left(\mathrm{DD}^{\prime}\right)_{i k}=\sum_{j} D_{l j} D_{j k}^{\prime}=\sum_{j} D_{i} \delta_{i j} D_{j}^{\prime} \delta_{j k}=D_{i} D_{i}^{\prime} \delta_{i k} .
\]

Обратно, если какая-либо матрица $\boldsymbol{\alpha}$ коммутирует с диагональной матрицей $\mathrm{D}$, все диагональные элементы которой различны, сама $\boldsymbol{\alpha}$ должна быть диагональной матрицей. Выписывая произведение

находим
\[
\begin{aligned}
\alpha \mathrm{D} & =\mathrm{D} \alpha, \\
(\alpha \mathrm{D})_{i k}=\alpha_{i k} D_{k} & =(\mathrm{D} \alpha)_{i k}=D_{i} \alpha_{i k},
\end{aligned}
\]
\[
\left(D_{i}-D_{k}\right) \alpha_{l k}=0 ;
\]

для недиагонального элемента $(l
eq k)$ из $D_{i}
eq D_{k}$ следует, что $\alpha_{i k}$ равен нулю. Таким образом, $\alpha$ диагональна.
Сумма диагональных элементов матрицы называется ее следом:
\[
\operatorname{Tr} \alpha=\sum_{j} \alpha_{j j}=\alpha_{11}+\alpha_{22}+\ldots+\alpha_{n n} .
\]
След произведения матриц $\alpha \beta$ равен
\[
\operatorname{Tr} \alpha \beta=\sum_{i}(\alpha \beta)_{i i}=\sum_{j k} \alpha_{j k} \beta_{k j}=\operatorname{Tr} \beta \boldsymbol{\alpha} .
\]

Это равенство устанавливает еще одно свойство матриц.
9. След произведения двух матрии не зависит от порядка перемножения матрии.

Это правило находит наиболее важное приложение в связи с преобразованием подобия матриц. Преобразование подобия это такое преобразование, при котором преобразуемая матрица $\boldsymbol{\alpha}$ умножается на преобразующую матрицу $\beta$ справа и на матрицу, обратную $\beta$, слева. Матрица $\alpha$ при этом преобразуется в $\beta^{-1} \alpha \beta$. Преобразование подобия оставляет след матрицы без изменения, так как установленное выше правило показывает, что $\beta^{-1} \alpha \beta$ имеет тот же след, что и $\alpha \beta \beta^{-1}=\boldsymbol{\alpha}$.

Важность преобразований подобия вытекает из следующего факта.
10. Матричное уравнение остается в силе, если каждую матрицу, входящую в него, подвергнуть одному и тому же преобразованию подобия.
Например, преобразование произведения матриц $\alpha \beta=\gamma$ дает
\[
\sigma^{-1} \alpha \sigma \sigma^{-1} \beta \sigma=\sigma^{-1} \gamma \sigma,
\]

и если
\[
\alpha \beta=1,
\]

то
\[
\sigma^{-1} \alpha \sigma \sigma^{-1} \beta \sigma=\sigma^{-1} 1 \cdot \sigma=1 .
\]

Нетрудно видеть, что соотношения между суммами матриц и нроизведениями матриц и чисел тоже сохраняются при преобразовании подобия. Так, из равенства
\[
\gamma=\alpha+\beta
\]

следует, что
\[
\sigma^{-1} \gamma=\sigma^{-1}(\alpha+\beta)=\sigma^{-1} \alpha+\sigma^{-1} \beta
\]

и
\[
\sigma^{-1} \gamma \sigma=\sigma^{-1} \alpha \sigma+\sigma^{-1} \beta \sigma .
\]

Аналогично, из равенства
следует
\[
\beta=a \alpha
\]
\[
\sigma^{-1} \beta \sigma=a \sigma^{-1} \alpha \sigma \text {. }
\]

Поэтому теорема 10 применима к любому матричному уравнению, в которое входят произведения матриц на числа или другие матрицы, целые (положительные или отрицательные) степени матриц и суммы матриц.
Эти десять теорем для операций с матрицами содержались уже в первых статьях по квантовой механике Борна и Йордана ${ }^{1}$ ) и, несомненно, уже известны многим читателям. Они приведены здесь еще раз потому, что уверенное владение этими основными правилами совершенно необходимо для понимания дальнейшего изложения и, в сущности, для всякого квантовомеханического расчета. Кроме того, ими очень часто пользуются в неявном виде, так как иначе даже простейшие доказательства становятся излишне громоздкими ${ }^{2}$ ).

Categories

1
Оглавление
email@scask.ru