Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
В гл. 1 мы установили одно очень важное свойство преобразований подобия. Эти преобразования не меняют след матрицы ${ }^{1}$ ): матрица $\boldsymbol{\alpha}$ имеет тот же след, что и $\sigma^{-1} \boldsymbol{\sigma} \sigma$. Но является ли след матрицы единственным инвариантом преобразования подобия? Очевидно, нет, так как, например, определитель $\left|\sigma^{-1} \alpha \sigma\right|$ также равен определителю $|\boldsymbol{\alpha}|$. Для получения других инвариантов рассмотрим уравнение $n$-го порядка относительно $\lambda$, записанное в виде определителя или, короче, Мы назовем это уравнение секулярным уравнением матрицы $\boldsymbol{\alpha}$. Секулярное уравнение матрицы $\beta=\sigma^{-1} \alpha \sigma$ имеет вид Очевидно, что определитель $\left|\sigma^{-1}(\boldsymbol{\alpha}-\lambda \boldsymbol{1}) \sigma\right|$ также равен нулю; это можно записать следующим образом: Уравнение (3.4) показывает, что $n$ корней секулярного уравнения $|\beta-\lambda 1|=0$ совпадают ${ }^{2}$ ) с $n$ корнями секулярного уравнения $|\boldsymbol{\alpha}-\lambda \mathbf{1}|=0$. Корни секулярного уравнения, так называемые собственные значения матрицы, являются инвариантами преобразований подобия. Позже мы увидим, что в общем случае матрица не имеет других инвариантов. К тому же след является суммой, а определитель — произведением этих собственных значений, так что их инвариантность включается в сформулированную выше теорему. Рассмотрим теперь одно собственное значение $\lambda_{1}$. Определитель матрицы $\left(\boldsymbol{\alpha}-\lambda_{1} 1\right)$ равен нулю, так что линейные однородные уравнения имеют решение. Линейная однородная система уравнений вида (3.5) может быть написана для каждого из $n$ собственных значений $\lambda_{k}$. Мы обозначим решения этой системы, определенные с точнсстью до общего постоянного множителя, через $r_{1 k}, r_{2 k}, \ldots, r_{n k}$; тогда получим Эта совокупность $n$ чисел $r_{1 k}, r_{2 k}, \ldots, r_{n k}$ называется собственным вектором $\boldsymbol{r}_{\cdot k}$ матрицы $\boldsymbol{\alpha}$; собственный вектор $\boldsymbol{r}_{k}$ принадлежит собственному значению $\lambda_{k}$. Уравнение (3.5а) может быть записано в виде Матрица преобразует собственный вектор в вектор, отличающийся от этого собственного вектора постоянным множителем; этот множитель и есть собственное значение. Соб́ственные векторы $\boldsymbol{r}_{.1}, \boldsymbol{r}_{.2}, \ldots, \boldsymbol{r}_{. n}$ можно объединить в матрицу $\rho$ таким образом, что $\boldsymbol{r}_{\cdot k}$ будет являться $k$-м столбцом этой матрицы: Следовательно, левая часть (3.5а) состоит из элементов с индексами ( $i k$ ) матрицы ар. Правая часть может быть также истолкована как элемент с индексами ( $i k$ ) некоторой матрицы, а именно матрицы $\boldsymbol{\Lambda} \boldsymbol{\Lambda}$, где $\boldsymbol{\Lambda}$ — диагональная матрица с диагональными элементами $\lambda_{1}, \lambda_{2}, \ldots, \lambda_{n}$ : Тогда (3.5a) запишется в виде или если матрица р имеет обратную матрицу. Это, разумеется, верно лишь в том случае, если $\rho$ имеет обратную, т. е. если $n$ векторов $\boldsymbol{r}_{.1}, \boldsymbol{r}_{.2}, \ldots, \boldsymbol{r}_{\cdot n}$ линейно независимы. Это, вообще говоря, имеет место, и всегда справедливо, если все собственные значения различны. Тем не менее имеются исключения, как видно, например, при рассмотрении матриц Эти матрицы нельзя привести к диагональному виду каким-либо преобразованием типа преобразования подобия. С такими матрицами имеют дело в теории элементарных делителей; однако нет необходимости их рассматривать, поскольку мы всегда будем иметь дело с матрицами, которые могут быть приведены к диагональному виду (3.6a), например с унитарными и (или) эрмитовыми матрицами. Условия коммутативности двух матриц весьма удобно рассмотреть снова с точки зрения изложенной здесь теории. Если две матрицы могут быть приведены к диагональному виду с помощью одного и того же преобразования, т. е. если они имеют одинаковые собственные векторы, они коммутируют ${ }^{1}$ ). Поскольку рассматриваемые матрицы являются диагональными, они, несомненно, коммутируют после того, как они подвергнуты преобразованию подобия; поэтому они должны коммутировать также и в своей первоначальной форме. Чтобы привести $f(\boldsymbol{\alpha})$ к диагональному виду, достаточно преобразовать $\boldsymbol{\alpha}$ к диагональному виду $\boldsymbol{\Lambda}=\sigma^{-1} \alpha \sigma$. Тогда, согласно теореме 10 (гл. 1), причем последняя матрица диагональна. Если $\lambda_{k}-k$-й диагональный элемент матрицы $\boldsymbol{\Lambda}=\left(\boldsymbol{\Lambda}_{l k}\right)=\left(\delta_{i k} \lambda_{k}\right)$, то $\left(\lambda_{k}\right)^{\rho}$ есть $k$ — диагональный элемент матрицы (А) $)^{p}$ и есть $k$-и диагональный эләмент $f(\boldsymbol{\Lambda})$.
|
1 |
Оглавление
|