Главная > METOД TEOPИИ ГРУПП B KBAHTOBOЙ MEXAHИKИ (Б.Л. Ван-дер-Варден)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

$n$-мерное векторное пространство $\left(e_{1}, \ldots, e_{n}\right)$ образовано линейными комбинациями $c_{1} e_{1}+\cdots+c_{n} e_{n} n$ линейно-независимых базисных векторов $e_{1}, \ldots, e_{n}$ с комплексными коэффициентами $c_{1}, \ldots, c_{n}$, Вообще мы будем называть векторным пространством любую совокупность произвольных величин, состоящую из линейных комбинаций $n$ линейно-независимых величин. Так, например, в рассмотренных в разделе I задачах собственные функции каждого уровня энергии образуют векторное пространство.

Линейный оператор или линейное преобразование $A$ векторного пространства в самое себя переводит каждый базисный вектор $e_{\mu}$ в новый вектор $e_{\mu}^{\prime}$
\[
A e_{\mu}=e_{\mu}^{\prime}=\sum e_{\lambda} a_{\lambda \mu},
\]

и каждой линейной комбинации $v=\sum e_{\lambda} c_{\lambda}$ приводит в соответствие такую же линейную комбинацию $e_{\lambda}^{\prime}$
\[
A v=\sum \sum e_{\lambda} a_{\lambda \mu} c_{\mu} .
\]

Коэффициенты $A v$ равны, следовательно,
\[
c_{\lambda}^{\prime}=\sum a_{\lambda \mu} c_{\mu} .
\]

При определенном выборе базисных векторов $e_{1}, \ldots, e_{n}$ линейное преобразование $A$ представляется матрицей
\[
\left(\begin{array}{llll}
a_{11} & a_{12} & \cdots & a_{1 n} \\
\vdots & \vdots & & \vdots \\
a_{n 1} & a_{n 2} & \cdots & a_{n n}
\end{array}\right),
\]
которую часто тоже обозначают через $A .^{1}$
Применяя два линейных преобразования $A$ и $B$ одно за другим, сначала $B$, а потом $A$, получим произведение преобразований $A B$, которое, вследствие соотношения
\[
A B e_{\mu}=A\left(B e_{\mu}\right)=A \sum e_{\lambda} b_{\lambda \mu}=\sum \sum e_{\varkappa} a_{\varkappa \lambda} b_{\lambda \mu},
\]

может быть представлено произведением матриц $\left(a_{\varkappa \lambda}\right) \cdot\left(b_{\lambda \mu}\right)$ с элементами $\sum_{\lambda} a_{\varkappa \lambda} b_{\lambda \mu}$.
Уравнение (7.2) можно записать в виде матричного уравнения
\[
\left(\begin{array}{c}
c_{1}^{\prime} \\
\vdots \\
c_{n}^{\prime}
\end{array}\right)=\left(a_{\lambda \mu}\right) \cdot\left(\begin{array}{c}
c_{1} \\
\vdots \\
c_{n}
\end{array}\right) .
\]

Если детерминант $|A|$ матрицы $A$ отличен от нуля, то можно решить (7.2) относительно $c_{\mu}$ и получить преобразование $A^{-1}$, обратное преобразованию $A$
\[
A^{-1} A v=v \text { для каждого вектора } v .
\]

Поэтому произведение $A^{-1} A$, а также $A A^{-1}$ является «идентичным преобразованием» $\mathbf{1}$, которое представляется «единичной матрицей».
\[
E=\left(\begin{array}{cccc}
1 & 0 & \cdots & 0 \\
0 & 1 & \cdots & 0 \\
& & \ddots & \\
0 & 0 & \cdots & 1
\end{array}\right) .
\]

Если же, напротив, $|A|=0$, то $A$ не имеет обратной матрицы и называется сингулярной матрицей.
${ }^{1}$ При применении этих формул надо обратить внимание на то, что каждое уравнение (7.1) соответствует столбцу матрицы $A$, а каждое уравнение (7.2) соответствует строке. Выписывая полностью уравнения (7.1)
\[
\begin{aligned}
A e_{1} & =e_{1} a_{11}+e_{2} a_{21}+\cdots+e_{n} a_{n 1} \\
A e_{2} & =e_{1} a_{12}+e_{2} a_{22}+\cdots+e_{n} a_{n 2}, \\
& \ldots
\end{aligned}
\]

мы видим, что матрица коэффициентов справа является транспонированной относительно исходной.
Введем новые базисные векторы $d_{1}, \ldots, d_{n}$ с помощью базисного преобразования с несингулярной матрицей $P=\left(p_{\lambda \mu}\right)$
\[
d_{
u}=P e_{
u}, \quad e_{
u}=P^{-1} d_{
u}, \quad P^{-1}=\left(q_{\varkappa \lambda}\right),
\]

тогда
\[
\begin{aligned}
A d_{
u} & =A \sum e_{\mu} p_{\mu
u}=\sum \sum e_{\lambda} a_{\lambda \mu} p_{\mu \lambda}= \\
& =\sum \sum \sum d_{\varkappa} q_{\varkappa \lambda} a_{\lambda \mu} p_{\mu
u} ;
\end{aligned}
\]

откуда следует, что то же самое преобразование $A$, отнесенное к новому базису, представляется матрицей $P^{-1} A P$. Если мы преобразуем все пространство с помощью преобразования $Q$, тогда преобразование $A$ переходит в новое преобразование $Q A Q^{-1}$. Действительно, если старое преобразование $A$ переводит вектор $v$ в $w$, то новое преобразование должно переводить вектор $Q v$ в $Q w$, а это и дает преобразование $Q A Q^{-1}$.

Мы говорим об унитарном векторном пространстве, если установлена эрмитовская форма
\[
(v, v)=\sum \sum g_{\lambda \mu} \bar{c}_{\lambda} c_{\mu} ; \quad g_{\lambda \mu}=\bar{g}_{\mu \lambda},
\]

значение которой для любого вектора $v=\left(c_{1}, \ldots, c_{n}\right)$, за исключением $v=0$, всегда положительно (определенная положительная эрмитовская форма). При этом скалярное произведение двух векторов определяется выражением
\[
(v, w)=\sum \sum g_{\lambda \mu} \bar{c}_{\lambda} d_{\mu} .
\]

Если оно равно нулю, векторы называются ортогональными.
Можно выбрать ортогональные базисные векторы $e_{1}, \ldots, e_{n}$ так, чтобы $\left(e_{\lambda}, e_{\mu}\right)=0$ для $\lambda
eq \mu$. Тогда $g_{\lambda \mu}=0$ для $\lambda
eq \mu .{ }^{1}$

Далее мы можем нормировать эти векторы так, чтобы $\left(e_{\lambda}, e_{\lambda}\right)=1$ или $g_{\lambda \lambda}=1$. Тогда
\[
(v, v)=\sum \bar{c}_{\lambda} c_{\lambda} ; \quad(v, w)=\sum \bar{c}_{\lambda} d_{\lambda},
\]
${ }^{1}$ Доказательство. Если векторы $e_{1}, \ldots, e_{n}$ не ортогональны, то мы сначала заменим для $\lambda=2,3, \ldots, n$ каждое $e_{\lambda}$ на $e_{\lambda}^{\prime}=e_{\lambda}+\beta_{\lambda} e_{1}$, где $\beta$ выбрано так что $\left(e_{1}, e_{\lambda}^{\prime}\right)=\left(e_{1}, e_{\lambda}\right)+\beta \cdot\left(e_{\lambda}, e_{\lambda}\right)=0$. Таким же образом заменим потом для $\lambda=3, \ldots, n$ каждое $e_{\lambda}^{\prime}$ на $e_{\lambda}^{\prime \prime}=e_{\lambda}^{\prime}+\beta_{\lambda}^{\prime} e_{2}^{\prime}$ так, что $\left(e_{2}^{\prime}, e_{\lambda}^{\prime \prime}\right)=0$ и т. д.

и матрица ( $g_{\lambda \mu}$ в (7.3) сводится к единичной матрице для новых ортогональных базисных векторов.
$m$-мерное линейное подпространство или частичное пространство $\left(v_{1}, \ldots, v_{m}\right)$ векторного пространства $\left(e_{1}, \ldots, e_{n}\right)$ состоит из всех линейных комбинаций $m$ линейно-независимых векторов $v_{1}, \ldots, v_{m}$. Даже когда $v_{\lambda}$ не являются линейно-независимыми, их линейные комбинации образуют подпространство $\left(v_{1}, \ldots, v_{m}\right)$, но тогда число его измерений меньше, чем $m$.

Для каждого $m$-мерного подпространства $\mathfrak{r}=\left(v_{1}, \ldots, v_{m}\right)$ унитарного векторного пространства $\mathfrak{R}_{n}$ существует полностью перпендикулярное к нему подпространство $\mathfrak{r}^{\prime}$, состоящее из всех векторов $w$, ортогональных к $v_{1}-v_{m}$. Если дополнить $v_{1}-v_{m}$ ортогональными к ним базисными векторами $v_{m+1}-v_{n}$ до базиса всего пространства, то легко видеть, что перпендикулярное подпространство $\mathfrak{r}^{\prime}$ слагается из всех линейных комбинаций $v_{m+1}-v_{n}$. Следовательно, $\mathfrak{r}^{\prime}(n-m)$-мерно; $\mathfrak{r}$ и $\mathfrak{r}^{\prime}$ образуют все пространство $\mathfrak{R}_{n}$, т. е. каждый вектор в $\mathfrak{R}_{n}$ является суммой одного вектора из $\mathfrak{r}$ и одного вектора из $\mathfrak{r}^{\prime}$.

Линейное преобразование $A$ называется унитарным, если оно оставляет неизменными все скалярные произведения, т. е. если
\[
\sum g_{\lambda \mu} \bar{c}_{\lambda}^{\prime} d_{\mu}^{\prime}=\sum g_{\lambda \mu} \bar{c}_{\lambda} d_{\mu} \quad \text { при } c_{\lambda}^{\prime}=\sum a_{\lambda \mu} c_{\mu}, d_{\lambda}^{\prime}=\sum a_{\lambda \mu} d_{\mu} .
\]

Это имеет место при условии
\[
\widetilde{A} G A=G,
\]

где $\widetilde{A}$ – транспонированная комплексно сопряженная с $A$ матрица, а $G=\left(g_{\lambda \mu}\right)$. В частности, когда $G$ единичная матрица, предыдущее условие сводится к
\[
\widetilde{A} A=E \quad \text { или } \sum \bar{a}_{\lambda \mu} a_{\lambda
u}=\delta_{\mu \lambda} .
\]

Поэтому $\tilde{A}$ является матрицей, обратной $A$
\[
A^{-1}=\widetilde{A} .
\]

Линейное преобразование $A$ называется эрмитовски симметричным или самосопряженным (см. §1), если всегда $(A v, w)=(v, A w)$.

При отнесении матрицы $A$ к нормированной ортогональной системе базисных векторов самосопряженность выражается соотношением
\[
a_{\lambda \mu}=\bar{a}_{\mu \lambda} .
\]
Теорема. Если самосопряженное или унитарное ${ }^{1}$ преобразование $A$ переводит линейное подпространство в само себя, то оно, кроме того, преобразует и перпендикулярное ему подпространство в само себя. Доказательство.

Для унитарных преобразований эта теорема очевидна. Для самосопряженных преобразований она вытекает из следующих соображений. Если $v_{1}, \ldots, v_{m}$ базисные векторы первого подпространства и если $w$ любой перпендикулярный к ним вектор, то мы имеем
\[
\left(A w, v_{\lambda}\right)=\left(w, A v_{\lambda}\right)=0,
\]

поэтому $A w$ ортогонально ко всем $v_{\lambda}$.
Из этой теоремы вытекает, что как каждое самосопряженное, так и каждое унитарное преобразование обладает замкнутой (т. е. состоящей из $n$ векторов) ортогональной системой собственных векторов $v$
\[
A v=\lambda v .
\]

Действительно, с помощью векового уравнения (см. §5)
\[
\left|\begin{array}{cccc}
a_{11}-\lambda & a_{12} & \cdots & a_{1 n} \\
a_{21} & a_{22}-\lambda & \cdots & a_{2 n} \\
\cdots & \cdots & \cdots & \cdots
\end{array}\right|=0
\]

находим некоторый собственный вектор $v_{1}$, компоненты которого $c_{1}, \ldots, c_{n}$ дают решение системы уравнений
\[
\begin{array}{l}
\left(a_{11}-\lambda\right) c_{1}+a_{12} c_{2}+\cdots=0 \\
a_{21} c_{1}+\left(a_{22}-\lambda\right) c_{2}+\cdots=0 \\
\cdots \cdots \cdots \\
a_{n 1}+a_{n 2} c_{2}+\cdots=0 .
\end{array}
\]

Перпендикулярное к нему пространство $\mathfrak{R}_{n-1}$, согласно вышеприведенной теореме, преобразуется матрицей $A$ в само себя. Следовательно, мы можем определить тем же способом в $\mathfrak{R}_{n-1}$ единичный вектор $v_{2}$ и т. д.

Если воспользоваться найденными $v_{1}, \ldots, v_{n}$ как базисными векторами для $\mathfrak{R}_{n}$, то преобразование $A$ будет представляться диагональной матрицей.
\[
\left|\begin{array}{ccc}
\lambda_{1} & 0 & \cdots \\
0 & \lambda_{2} & \cdots \\
\vdots & & \ddots
\end{array}\right| .
\]
${ }^{1}$ Следует подчеркнуть, что понятия унитарного и самосопряженного преобразования существенно различны, совпадая лишь в случае $A=E$. (Прим. ред.).
В этом случае говорят, что преобразование $A$ отнесено к главным осям. Отсюда вытекает далее, что каждое собственное значение $\lambda$ преобразования $A$ встречается среди $\lambda_{
u}$, и все принадлежащие ему собственные векторы могут быть представлены линейными комбинациями векторов $v_{
u}$, для которых $\lambda_{
u}=\lambda$.
Теорема. Каждая система коммутирующих друг с другом унитарных или самосопряженных матриц может быть одновременно преобразована $\kappa$ главным осям.
Доказательство.
Если все матрицы системы являются кратными единичной матрице $^{1}$, то доказательство тривиально. Пусть $A$ – матрица системы, не кратная единичной матрице. Обозначим замкнутую ортогональную систему собственных векторов матрицы $A$ через
\[
v_{1}, v_{2}, \ldots, v_{k} ; \quad w_{1}, \ldots, w_{h} ; \ldots ;
\]

а соответствующие им собственные значения через
\[
\lambda_{1}, \lambda_{1}, \ldots, \lambda_{1} ; \quad \lambda_{2}, \ldots, \lambda_{2} ; \ldots \quad\left(\lambda_{1}
eq \lambda_{2} \text { и т. д. }\right) .
\]

Тогда собственному значению $\lambda_{1}$ соответствует линейное подпространство $\mathfrak{R}_{k}=\left(v_{1}, \ldots, v_{k}\right)$, состоящее из всех собственных векторов, принадлежащих к этому значению. Точно так же $\lambda_{2}$ соответствует пространство $\mathfrak{R}_{h}$ и т. д. Пусть теперь матрица $B$ коммутирует с $A$. Тогда $B$ должна преобразовывать пространства $\mathfrak{R}_{k}, \mathfrak{R}_{h}$ в самих себя (а именно, если $v$ вектор в $\mathfrak{R}_{k}$, , тогда $A v=\lambda_{1} v$ ). Отсюда следует $A B v=B A v=B \lambda_{1} v=\lambda_{1} B v$, а это обозначает, что $B v$ опять принадлежит к $\mathfrak{R}_{k}$.

Предположим теперь, что наша теорема доказана для пространства с меньшим числом измерений (для измерения 1 она тривиальна). Тогда в пространствах $\mathfrak{R}_{k}, \mathfrak{R}_{h}, \ldots, \mathfrak{R}_{m}$ все преобразования $A, B, \ldots$ одновременно относятся к главным осям. Этим и доказывается теорема.

Левую часть векового уравнения (7.7) можно рассматривать как детерминант $|A-\lambda E|$ матрицы $A-\lambda E$. Среди его коэффициентов особенно важен коэффициент при $(-\lambda)^{n-1}$, так называемый «шпур» или след $A$
\[
S(A)=a_{11}+a_{22}+\cdots+a_{n n},
\]
${ }^{1}$ T. е. имеют вид $\lambda E$, где $E-$ единичная матрица, а $\lambda$ – обыкновенное число. (Прим. ред.).
а также независящий от $\lambda$ член детерминант $|A|$. Так как левая часть $|A-\lambda E|$ векового уравнения остается инвариантной при преобразовании матрицы $A$ к другому базису
\[
\left|P^{-1} A P-\lambda E\right|=\left|P^{-1}(A-\lambda E) P\right|=|P|^{-1}|A-\lambda E| \cdot|P|=|A-\lambda E|,
\]

то и все ее коэффициенты тоже инварианты. В частности
\[
S\left(P^{-1} A P\right)=S(A) .
\]

Categories

1
Оглавление
email@scask.ru