Главная > КЛАССИЧЕСКАЯ МЕХАНИКА (Г.Голдстейн)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотрим преобразования, соответствующие двум последовательным поворотам твердого тела. Первое из этих преобразований, соответствующее переходу от $\boldsymbol{r}$ к $\boldsymbol{r}^{\prime}$, мы обозначим через В. Тогда будем иметь:
\[
x_{k}^{\prime}=\sum_{j} b_{k j} x_{j} .
\]

Последующее преобразование, соответствуюшее переходу к третьей координатной системе, т. е. от $\boldsymbol{r}^{\prime} \mathrm{k} \boldsymbol{r}^{\prime \prime}$, мы обозначим через А. Тогда аналогично получим:
\[
x_{i}^{\prime \prime}=\sum_{k} a_{i k} x_{k}^{\prime} .
\]

Объединяя теперь уравнения (4.20) и (4.21), мы можем получить соотношение между $x_{i}^{\prime \prime}$ и $x_{j}$ :
\[
x_{i}^{\prime \prime}=\sum_{k} a_{i k} \sum_{j} b_{k j} x_{j}=\sum_{j}\left(\sum_{k} a_{i k} b_{k j}\right) x_{j},
\]

что можно записать в виде:
\[
x_{i}^{\prime \prime}=\sum_{i} c_{i j} x_{j},
\]

где
\[
c_{i j}=\sum_{k} a_{i k} b_{k j} .
\]

Таким образом, последовательное применение двух ортогональных преобразований А и В эквивалентно третьему линейному преобразованию – преобразованию С. Можно показать, что оно также является ортогональным. (Доказательство мы предоставляем провести читателям самостоятельно в качестве упражнения.) Символически результирующий оператор С можно рассматривать как произведение операторов $\mathrm{A}$ и $\mathrm{B}$ :
\[
C=A B,
\]

и элементы $c_{i j}$ будут по определению элементами матрицы, получаемой от перемножения матриц А и В.

Заметим, что это «матричное» или операторное умножение не обладает свойством коммутативности, и поэтому в общем случае
\[
B A
eq A B .
\]

Действительно, по определению, элементами преобразования $\mathrm{D}=\mathrm{BA}$ будут
\[
d_{i j}=\sum_{k} b_{i k} a_{k j}
\]

которые в общем случае не совпадают с элементами матрицы С, определяемыми уравнениями (4.23). Следовательно, конечная координатная система будет зависеть от того, какой из операторов А и В действует раньше: сначала A, а потом B или наоборот. Однако умножение матриц обладает свойством ассоциативности, т. е. при перемножении трех или более матриц последовательность этих умножений может быть выбрана произвольно, что можно записать в виде равенства
\[
(\mathrm{AB}) \mathrm{C}=\mathrm{A}(\mathrm{BC}) .
\]

Мы уже говорили, что, записывая уравнение (4.19) в виде $\boldsymbol{r}^{\prime}=\mathrm{A} \boldsymbol{r}$, мы просто пользуемся символическим обозначением для указания определенной операции $\mathrm{A}$, совершаемой над координатной системой (или над вектором). Но, расширяя наше понятие о матрицах, можно сделать так, что эта запись будет указывать на действительное умножение: на умножение матриц. Матрицы, рассматривавшиеся нами до сих пор, были квадратными, т. е. число их строк равнялось числу столбцов. Однако можно рассматривать также матрицы, состоящие всего лишь из одного столбца, такие, как
\[
\mathbf{x}=\left\|\begin{array}{c}
x_{1} \\
x_{2} \\
x_{3}
\end{array}\right\|, \quad \mathbf{x}^{\prime}=\left\|\begin{array}{c}
x_{1}^{\prime} \\
x_{2}^{\prime} \\
x_{3}^{\prime}
\end{array}\right\| .
\]

Под произведением $\mathbf{A x}$ мы, по определению умножения матриц, будем понимать матрицу, состоящую из столбца с элементами
\[
(\mathrm{Ax})_{i}=\sum_{j} a_{i j} x_{j}=x_{i}^{\prime} .
\]

Поэтому уравнение (4.19) мы сможем записать в виде равенства
\[
\mathbf{x}^{\prime}=\mathbf{A x},
\]

рассматривая его как матричное уравнение.
Сложение двух матриц не является такой важной операцией, как их умножение, однако оно встречается достаточно часто. Под суммой $\mathrm{A}+\mathrm{B}$ понимается такая матрица $\mathrm{C}$, элементы которой получаются посредством сложения соответствующих элементов А и В. Таким образом, можно написать:
\[
c_{i j}=a_{i j}+b_{i j} .
\]

Большое значение имеет преобразование, обратное $\mathbf{A}$, т. е. операция, посредством которой вектор $\boldsymbol{r}^{\prime}$ преобразуется обратно в $r$. Это преобразование мы будем обозначать символом $A^{-}$, a элементы соответствующей матрицы обозначим через $a_{i j}^{\prime}$. Тогда мы будем иметь систему уравнений
\[
x_{i}=\sum_{j} a_{i j}^{\prime} x_{j}^{\prime},
\]

которая должна согласовываться с системой
\[
x_{k}^{\prime}=\sum_{i} a_{k i} x_{i}
\]

Подставляя в последнюю систему $x_{i}$ из (4.28), получаем:
\[
x_{k}^{\prime}=\sum_{i} a_{k i} \sum_{j} a_{i j}^{\prime} x_{j}^{\prime}=\sum_{i}\left(\sum_{i} a_{k i} a_{i j}^{\prime}\right) x_{j}^{\prime},
\]

и так как составляющие вектора $r^{\prime}$ являются независимыми, то уравнение (4.29′) будет справедливым только тогда, когда правая часть его будет тождественно равна $\boldsymbol{x}_{k}^{\prime}$. Поэтому при $j=k$ коэффициент при $x_{j}^{\prime}$ должен быть равен единице, а при $j
eq k-$ нулю. Следовательно, можно написать:
\[
\sum_{i} a_{k i} a_{i j}^{\prime}=\delta_{k j}
\]

Легко видеть, что левая часть этого равенства представляет элемент матрицы $\mathrm{AA}^{-1}$, а правая – элемент так называемой единичной матрицы, равной
\[
1=\left\|\begin{array}{lll}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{array}\right\|
\]

Поэтому (4.30) можно записать в виде:
\[
\mathrm{AA}^{-1}=1 \text {, }
\]

из которого становится ясным обозначение $A^{-1}$, принятое нами для обратной матрицы. Преобразование, соответствующее матрице 1, известно под названием тождественного преобразования. Оно не изменяет первоначальной координатной системы, т. е. для него справедливо равенство
\[
\mathbf{x}=1 \mathbf{x} \text {. }
\]

Аналогичное равенство имеет место и для умножения матрицы 1 на произвольную матрицу $\mathbf{A}$, притом независимо от порядка этого умножения. Таким образом,
\[
1 \mathrm{~A}=\mathrm{A} 1=\mathrm{A} .
\]

Слегка изменяя порядок доказательства равенства (4.32), покажем, что $\mathbf{A}$ и $\mathbf{A}^{-1}$ коммутативны. Вместо того, чтобы подставлять $x_{i}$ из (4.28) в (4.29), можно с тем же основанием исключить из этих уравнений не $x$, а $x^{\prime}$, что приведет к равенству
\[
\sum_{j} a_{i j}^{\prime} a_{i k}=\delta_{i k}
\]

аналогичному (4.30). Записав полученное равенство в матричных обозначениях, получим:
\[
A^{-1} A=1,
\]

что и доказывает коммутативность умножения матриц $\mathbf{A}$ и $\mathbf{A}^{-1}$ Рассмотрим теперь двойную сумму
\[
\sum_{k, i} a_{k l} a_{k i} a_{i j}^{\prime}
\]

Если вычислять ее, суммируя сначала по $k$, а потом по $i$, то она примет вид
\[
\sum_{i}\left(\sum_{k} a_{k l} a_{k i}\right) a_{i j}^{\prime}
\]

Если же производить суммирование в обратном порядке, то ее можно будет записать в виде
\[
\sum_{k}\left(\sum_{i} a_{k i} a_{i j}^{\prime}\right) a_{k l}
\]

Пользуясь условиями ортогональности [равенствами (4.15)], мы при первом способе суммирования получим:
\[
\sum_{i} \delta_{i l} a_{i j}^{\prime}=a_{l j}^{\prime}
\]

С другой стороны, при втором способе суммирования мы на основании (4.30) получим:
\[
\sum_{k} \delta_{k j} a_{k l}=a_{j l}
\]

Следовательно, элементы прямой матрицы $\mathrm{A}$ и обратной $\mathrm{A}^{-1}$ связаны соотношениями
\[
a_{i j}^{\prime}=a_{i i} \text {. }
\]

Матрица, получаемая из А посредством замены строк столбцами, называется транспонированной и обозначается через $\tilde{\mathbf{A}}$. Таким образом, равенства (4.34) показывают, что если матрица A является ортогональной, то обратная ей матрица $\mathbf{A}^{-1}$ совпадает с транспонированной матрицей $\hat{\mathbf{A}}$. Если равенство
\[
\mathrm{A}^{-1}=\tilde{\mathrm{A}}
\]

подставить в равенство (4.33), то будем иметь:
\[
\tilde{A} A=1 .
\]

Полученное соотношение совпадает с условием ортогональности, записанным в форме (4.15), в чем можно убедиться с помощью непосредственного вычисления произведения (4.36) *).

Другая форма условий ортогональности может быть получена подстановкой соотношения (4.34) в равенство (4.30):
\[
\sum_{i} a_{k i} a_{i i}=\delta_{k j}
\]

что в символической форме можно записать в виде
\[
\mathrm{A} \tilde{\mathrm{A}}=1 .
\]

Полученное равенство может быть также выведено непосредственно из (4.36) путем умножения его слева на А и справа на $A^{-1}$.

В связи с понятием о транспонированной матрице вводится также понятие матрицы, комплексно с ней сопряженной. Эта матрица известна под названием сопряженной или эрмитовски сопряженной с данной матрицей; мы будем ее обозначать символом $\mathbf{A}^{+}$. Таким образом,
\[
\mathrm{A}^{+}=(\tilde{\mathrm{A}})^{*} .
\]

Подобно тому как ортогональной матрицей называется такая, которая удовлетворяет условию (4.36), унитарной матрицей называется матрица $A$, удовлетворяющая условию
\[
\mathrm{A}^{+} \mathrm{A}=1 .
\]

Матрица, определяющая ориентацию твердого тела, должна быть вещественной, так как и $\mathbf{x}$ и $\mathbf{x}^{\prime}$ являются вещественными. В этом случае нет разницы между свойством ортогональности и свойством унитарности, т.е. между транспонированной матрицей и эрмитовски сопряженной. Короче говоря, вещественная ортогональная матрица является в то же время унитарной. Но вскоре в этой главе, а также позже в теории относительности, мы всгретимся с комплексными матрицами, и тогда обнаружится существенное различие между ортогональностью и унитарностью.
*) Нужно заметить, что равенство (4.35) можно получить непосредственно из условий ортогональности в форме (4.36), причем краткость этого способа указывает на преимущество символических методов. Умножая (4.36) справа на $\mathrm{A}^{-1}$, получаем:
\[
\tilde{A} A A^{-1}=A^{-1} \text {. }
\]

Отсюда с помощью (4.32) будем иметь:
\[
\tilde{A}=A^{-1} \text {. }
\]

Мы знаем, что матрицу можно интерпретировать, во-первых, как оператор, преобразующий вектор, и, во-вторых, как оператор, преобразующий координатную систему. Мы сейчас рассмотрим задачу, в которой имеют место обе эти интерпретации. Это-задача о преобразовании оператора при изменении системы координат. Пусть А означает оператор, действующий на вектор $\boldsymbol{F}$ (или матрицу $\boldsymbol{F}$, состоящую из одного столбца) и преобразующий его в вектор $\boldsymbol{G}$. Тогда можно написать:
\[
\mathrm{G}=\mathrm{AF} \text {. }
\]

Пусть теперь рассматриваемая координатная система преобразуется матрицей В. Тогда в новой системе координат составляющие вектора $\boldsymbol{G}$ будут определяться равенством
\[
B G=B A F,
\]

что можно записать также в виде
\[
B G=B A B^{-1} B F .
\]

Уравнение (4.40) показывает, что если на вектор $\boldsymbol{F}$, выраженный в новой системе координат, подействовать оператором $\mathrm{BAB}^{-}$ то получится вектор $\boldsymbol{G}$, также выраженный в новой системе. Поэтому произведение $\mathrm{BAB}^{-1}$ можно рассматривать как оператор $\mathbf{A}$, преобразованный к новым осям. В связи с этим можно написать:
\[
A^{\prime}=B A B^{-1} \text {. }
\]

Любое преобразование, имеющее вид (4.41), называется подобным преобразованием.

Рассмотрим в связи с этим преобразованием некоторые свойства детерминанта, образованного из элементов квадратной матрицы. Как обычно, мы будем детерминант матрицы А обозначать через $|\mathbf{A}|$. Процедура умножения матриц совпадает, как известно, с процедурой умножения детерминантов [см. В ô cher, Jntroduction to Higher Algebra*), стр. 26]. Поэтому справедливо равенство
\[
|A B|=|A| \cdot|B| \text {. }
\]

Приняв теперь во внимание, что детерминант единичной матрицы равен единице, мы из условия ортогональности (4.36) получим:
\[
|\tilde{\mathrm{A}}| \cdot|\mathrm{A}|=1 \text {. }
\]
*) Имеется русский перевод: Бохер М., Введение в высшую алгебру, М.-Л., Гостехиздат, 1933.

Далее, так как величина детерминанта не изменяется при замене его строк столбцами, то можно написать:
\[
\left|A^{2}\right|=1 .
\]

Отсюда следует, что детерминант ортогональной матрицы может быть равен только +1 или – 1. В дальнейшем мы будем иметь возможность подробно остановиться на геометрическом смысле каждого из этих значений.

В случае, когда матрица не является ортогональной, ее детерминант, конечно, не обязательно имеет одно из этих простых значений. Можно показать, однако, что значение любого детерминанта инвариантно по отношению к подобным преобразованиям. Рассмотрим для этого формулу (4.41) для преобразованной матрицы $A^{\prime}$ и умножим ее справа на В. Тогда будем иметь
\[
A^{\prime} B=B A,
\]

или, переходя к детерминантам:
\[
\left|A^{\prime}\right|:|B|=|B| \cdot|A| .
\]

Но так как детерминант B есть число, отличное от нуля*), то мы можем разделить обе части этого равенства на $|\mathrm{B}|$ и тогда получим
\[
\left|A^{\prime}\right|=|A| \text {, }
\]

что и требовалось доказать.
Позже, при рассмотрении движения твердого тела, все эти преобразования матриц, в особенности ортогональные, найдут свое приложение. Кроме того, нам потребуются некоторые другие соотнощения, которые мы будем выводить по мере необходимости.

Categories

1
Оглавление
email@scask.ru