Главная > ЛЕКЦИИ ПО МАТЕМАТИЧЕСКОЙ ТЕОРИИ УСТОЙЧИВОСТИ (Б. П. ДЕМИДОВИЧ)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Определение 1. Упорядоченная совокупность чисел (вообще говоря, комплексных)
\[
\boldsymbol{x}=\left\{x_{1}, \ldots, x_{n}\right\}
\]

называется $n$-мерным вектором, а числа $x_{1}, \ldots, x_{n}$ называются координатами (компонентами) вектора $\boldsymbol{x}$.

В дальнейшем мы будем интерпретировать $n$-мерный вектор $x$ как ( $n \times 1$ )-матрицу (матрица-столбец)
\[
x=\left[\begin{array}{c}
x_{1} \\
\vdots \\
x_{n}
\end{array}\right] .
\]

Транспонированный вектор
\[
\boldsymbol{x}^{T}=\left[x_{1}, \ldots, x_{n}\right]
\]

представляет собой ( $1 \times n$ )-матрицу (матрица-строка).
Если
\[
x=\left[\begin{array}{c}
x_{1} \\
\vdots \\
x_{n}
\end{array}\right] \quad \text { и } \quad y=\left[\begin{array}{c}
y_{1} \\
\vdots \\
y_{n}
\end{array}\right]
\]

– векторы и $\alpha$ – произвольное комплексное число, то естественно определяются операции сложения векторов
\[
x+y=\left[\begin{array}{c}
x_{1}+y_{1} \\
\vdots \\
x_{n}+y_{n}
\end{array}\right]
\]

и умножения вектора на число (скаляр)
\[
\alpha x \equiv x \alpha=\left[\begin{array}{c}
\alpha x_{1} \\
\vdots \\
\alpha x_{n}
\end{array}\right] .
\]

Эти операции обладают обычными свойствами.
Определение 2. Совокупность всех $n$-мерных векторов $\boldsymbol{x}$ с определенными операциями сложения и умножения на число называется $n$-мерным векторным пространством (комплексным) $\Re^{n}$, а сами векторы $\boldsymbol{x}$ – точками этого пространства.
Для векторов $\boldsymbol{x}, \boldsymbol{y} \in \mathfrak{R}^{n}$ определим скалярное произведение:
\[
(x, y)=\sum_{j=1}^{n} x_{j} \bar{y}_{j}
\]

где $\bar{y}_{j}$ – число, комплексно-сопряженное с $y_{j}$. Если ввести эрмитово-сопряженный вектор

где
\[
\begin{array}{c}
y^{*}=\bar{y}^{T}, \\
\bar{y}=\left[\begin{array}{c}
\bar{y}_{1} \\
\vdots \\
\bar{y}_{n}
\end{array}\right],
\end{array}
\]

то формулу (1.5.1) можно записать в виде
\[
(x, y)=y^{*} x .
\]

Легко проверить, что скалярное произведение обладает следующими свойствами:
1) $(x, x)>0$, если $x
eq 0$, и $(x, x)=0$, если $x=0$;
2) $(x, y)=\overline{(y, x)}$
3) $(\alpha x, y)=\alpha(x, y),(x, \alpha y)=\bar{\alpha}(x, y)$, где . $\alpha$ – произвольное комплексное число;
4) $(x+y, z)=(x, z)+(y, z),(z, x+y)=(z, x)+(z, y)$. Число
\[
|x|=\sqrt{(x, x)} \equiv \sqrt{\sum_{j}\left|x_{i}\right|^{2}}
\]

называется длиной или модулем вектора $x$ (cр. § 4).

Заметим, что если вектор $\boldsymbol{x}$ рассматривать как матрицу-столбец, то длина вектора $|\boldsymbol{x}|$ совпадает с его нормой $\mid \boldsymbol{x} \|_{\text {пI }}$, т. е. евклидова норма вектора согласована с его длиной.
Из формулы (1.5.2) имеем неравенство Коши
\[
|(x, y)| \leqslant\left\|y^{*}\right\|\|\boldsymbol{x}\|=\|x\|\|\boldsymbol{y}\| .
\]

Векторное пространство $\Re^{n}$, в котором определено скалярное произведение со свойствами 1) – 4), будем называть комплексным евклидовым или унитарным пространством (см. [4]).

Иногда будем рассматривать вещественное $n$-мерное векторное пространство $\mathscr{R}^{n}$, точки которого представляют собой векторы \” $x$ с действительными координатами $x_{j}(j=1, \ldots, n)$. Для таких пространств операция умножения на скаляр определена лишь для действительных чисел.

Для вещественного пространства $\mathscr{R}^{n}$ свойства 1) – 4) принимают вид:
1′) $(x, x)>0$ при $\boldsymbol{x}
eq 0$ и $(x, x)=0$ при $x=0$;
$\left.2^{\prime}\right)(x, y)=(y, x)$
$\left.3^{\prime}\right)(a x, y)=a(x, y)$ ( $a$ – вещественное число),
$\left.4^{\prime}\right)(x+y, z)=(x, z)+(y, z)$.
В этом случае норму вектора
\[
\|x\|=\sqrt{(x, x)}=\sqrt{\sum_{j} x_{j}^{q}}
\]

будем называть евклидовой, а само пространство $\mathscr{R}^{n}$– евклидовым $n$-мерным пространством.

Векторное пространство $\Re^{n}$ является частным случаем линейного пространства \&, под которым понимается совокупность элементов $x, y, z, \ldots$, произвольной природы, с двумя определенными операциями: а) сложением $x+y$ и б) умножением $\alpha x$ на комплексное число $\alpha$, не выводящими за пределы \&. Предполагается, что эти операции удовлетворяют обычным аксиомам алгебры.
Вектор
\[
\boldsymbol{y}=\sum_{j=1}^{m} c_{j} \boldsymbol{x}^{(j)} .
\]

где $c_{j}$ – постоянные, называется линейной комбинацией векторов $\boldsymbol{x}^{(1)}, \ldots, \boldsymbol{x}^{(m)}$.

Определение 3. Векторы $\boldsymbol{x}^{(1)}, \ldots, \boldsymbol{x}^{(m)}$ называются линейно зависимыми, если некоторая нетривиальная линейная комбинация их представляет нуль-вектор, т. е.
\[
\sum_{i} c_{j} \boldsymbol{x}^{(j)}=0 \text { и } \sum_{i}\left|c_{i}\right|
eq 0 .
\]

В противном случае векторы называются линейно независимыми.

Определение 4. Совокупность $n$ линейно независимых векторов $\boldsymbol{\varepsilon}_{1}, \ldots, \boldsymbol{\varepsilon}_{n}$ образует базис векторного пространства $\mathfrak{\Re}^{n}$ (см. [4]), если каждый вектор $x \in \mathfrak{\Re}^{n}$ можно представить единственным способом в виде линейной комбинации
\[
\boldsymbol{x}=\sum_{j=1}^{n} \xi_{j} \boldsymbol{\varepsilon}_{j}
\]

где $\xi_{j}$ – некоторые числа, называемые координатами вектора $x$ в данном базисе.
Вектор
\[
\boldsymbol{x}=\left[\begin{array}{l}
\xi_{1} \\
\vdots \\
\xi_{n}
\end{array}\right],
\]

отнесенный к данному базису $\varepsilon=\left\{\varepsilon_{1}, \ldots, \varepsilon_{n}\right\}$, будем называть представлением вектора $x$ в этом базисе. Очевидно, для вектора $x=\left\{x_{1}, \ldots, x_{n}\right\}$ числа $x_{1}, \ldots, x_{n}$ являются его координатами в каноническом базисе ортов:
\[
\begin{array}{c}
\boldsymbol{e}_{1}=\{1,0, \ldots, 0\}, \\
\boldsymbol{e}_{2}=\{0,1, \ldots, 0\}, \\
\cdot . \cdot . \ldots . \cdot \\
\boldsymbol{e}_{n}=\{0,0, \ldots, 1\} .
\end{array}
\]

Базис $\boldsymbol{\varepsilon}_{1}, \ldots, \boldsymbol{\varepsilon}_{n}$ называется ортогональным, если векторы его попарно ортогональны, т. е.
\[
\left(\boldsymbol{\varepsilon}_{j}, \boldsymbol{\varepsilon}_{k}\right)=0 \text { при } j
eq k .
\]

Если, кроме того,
\[
\left(\boldsymbol{\varepsilon}_{j}, \boldsymbol{\varepsilon}_{j}\right)=1,
\]

то базис называется и́ормированным. В этом случае имеем
\[
\left(\boldsymbol{\varepsilon}_{j}, \boldsymbol{\varepsilon}_{k}\right)=\delta_{j k},
\]

где $\delta_{j k}$ – символ Кронекера.
Пусть $\boldsymbol{x}^{(1)}, \ldots, \boldsymbol{x}^{(k)}$ – линейно независимые векторы в $\mathfrak{R}^{n}$ и $c_{1}, \ldots, c_{k}$ – произвольные числа. Совокупность всех векторов
\[
\boldsymbol{y}=\sum_{j=1}^{k} c_{j} \boldsymbol{x}^{(j)}
\]

представляет собой линейное пространство $\mathfrak{R}_{k} \subset \Re^{n}$ (так называемое линейное подпространствс в $\mathfrak{\Re}^{n}$, порожденное $k$ векторами $\left.\boldsymbol{x}^{(1)}, \ldots, \boldsymbol{x}^{(k)}\right)$.

Обратно, пусть некоторое множество является линейным пространством в $\Re^{n}$ относительно введенных там операций сложения векторов и умножения векторов на числа, т. е. \& есть линейное подпространство в $\Re^{n}$. Тогда любая максимальная система $x^{(1)}, \ldots$ $\ldots, x^{(k)}$ линейно независимых векторов из $\&$ образует его базис, т. е. для каждого элемента $y \in \mathfrak{\ell}$ справедливо представление (1.5.3), а число $k(0 \leqslant k \leqslant n)$ называется размерностью подпространства в:
\[
\operatorname{dim} \Omega=k,
\]

Введем понятие ранга матрицы.
Определение 5. Под рангом $r=r(A)$ матрицы $A=\left[a_{j k}\right]$ понимается максимальный порядок ее минора, отличного от нуля.
Если матрица $A$ имеет тип $n \times m$, то, очевидно,
\[
r(A) \leqslant \min (n, m) .
\]

Если столбцы матрицы $A$ рассматривать как векторы пространства $\mathfrak{R}^{n}$, то ее ранг $r(A)$ представляет собой максимальное число линейно независимых столбцов и, следовательно, совпадает с размерностью подпространства $\mathfrak{\ell}_{r}$, порожденного этими векторами:
\[
r(A)=\operatorname{dim} \varepsilon_{r} .
\]

Заметим, что матрица $A$ и ее эрмитово-сопряженная матрица $A^{*}$ имеют одинаковые ранги:
\[
r\left(A^{*}\right)=r(A) .
\]

Рассмотрим систему линейных уравнений
\[
\sum_{k=1}^{n} a_{j k} x_{k}=b_{j} \quad(j=1, \ldots, n) .
\]

Введя матрицу системы $A=\left[a_{j k}\right]$ и векторы-столбцы $\boldsymbol{x}=$ $=\operatorname{colon}\left(x_{1}, \ldots, x_{n}\right), \boldsymbol{b}=\operatorname{colon}\left(b_{1}, \ldots, b_{n}\right)$, систему (1.5.4) можно записать в виде векторно-матричного уравнения
\[
A \boldsymbol{x}=\boldsymbol{b} .
\]

Теорема Кронекера-Капелли (см. [2]). Система (1.5.5) имеет решения тогда и только тогда, когда ранг $r=r(A)$ матрицы А системы совпадает с рангом $r^{\prime}=r(B)$ расииренной матрицы
\[
B=[\square]
\]

В частности, если $\operatorname{det} A
eq 0$, то, очевидно, $r(A)=r(B)=n$ и для системы (1.5.5) существует единственное решение
\[
x=A^{-1} b \text {. }
\]

Если $\operatorname{det} A=0$ и $k=n-r-$ дефект матрицы $A$, то каждая из однородных линейных систем
\[
A \xi=0 \text { и } A^{*} \boldsymbol{\eta}=\mathbf{0}
\]

имеет $k$ линейно независимых нетривиальных решений соответственно: $\xi^{(1)}, \ldots, \xi^{(k)}$ и $\eta^{(1)}, \ldots, \eta^{(k)}$. В этом случае линейная неоднородная система (1.5.5) совместна тогда и только тогда, когда выполнены условия ортогональности:
\[
\left(\eta^{(p)}, \boldsymbol{b}\right)=0 \quad(p=1, \ldots, k) .
\]

При соблюдении этих условий система (1.5.5) допускает $\infty^{k}$ решений:
\[
x=x_{0}+\sum_{j=1}^{k} c_{j} \xi^{(j)},
\]

где $x_{0}$ – некоторое частное решение системы (1.5.5) и $c_{1}, \ldots$, $c_{k}$ – произвольные постоянные.

Определение 6. Пусть каждому вектору $x \in \Re^{n}$ ставится в соответствие вектор $\boldsymbol{y} \in \mathfrak{R}^{m}$. Тогда говорят, что в $\mathfrak{R}^{n}$ определено преобразованиє
\[
y=\hat{A} x
\]

действующее из $\Re^{n}$ в $\Re^{m}$.
Естественно определяются операции над преобразованиями $\hat{A}$ म $\hat{B}$ :
\[
\begin{aligned}
(\alpha \hat{A}) x & =x(\hat{A} x)(x-ч и с л о) ; \\
(\hat{A}+\hat{B}) x & =\hat{A} x+\hat{B} x ; \\
(\hat{A} \hat{B}) x & =\hat{A}(\hat{B} \boldsymbol{x}) .
\end{aligned}
\]

Отметим еще нулевое пречбразование
\[
\hat{O} x=0
\]

и единичко преобразование
\[
\hat{E} x=x .
\]

Если для преобразования $\hat{A}$ существует преобразование $\hat{A}^{-1}$, удовлетворяющее условию:
\[
\hat{A}^{-1} \hat{A}=\hat{A} \hat{A}^{-1}=\hat{E},
\]

то оно называется обратным преобразованием для $\hat{A}$.

Преобразование $\hat{A}$ называется линейным, если выполнены следующие условия:
1) $\hat{A}(\alpha x)=\alpha \hat{A} \boldsymbol{x}(\alpha-$ число);
2) $\hat{A}\left(x+x^{\prime}\right)=\hat{A} x+\hat{A} x^{\prime}$.
Пусть $\hat{A}$– линейное преобразование, действующее из $\Re^{n}$ в $\Re^{n}$ и $\boldsymbol{\varepsilon}=\left\{\varepsilon_{1}, \ldots, \varepsilon_{n}\right\}$ – некоторый базис пространства $\Re^{n}$. Тогда векторы $\hat{A} \varepsilon_{k}(k=1, \ldots, n)$ допускают разложения
\[
\hat{A} \varepsilon_{k}=\sum_{j} a_{j k} \varepsilon_{j} .
\]

Матрица $A=\left(a_{j k}\right)$ называется матрицей преобразования $\hat{A}$ (в данном базисе). Заметим, что первый индекс $j$ элемента $a_{j k}$ обозначает номер координаты и таким образом $a_{j k}$ есть $j$-я координата $k$-го преобразованного базисного вектора $\boldsymbol{\varepsilon}_{k}$, т. е. $a_{j k}=\left(\hat{A} \boldsymbol{\varepsilon}_{k}\right)_{j}$.
Пусть
\[
\boldsymbol{x}=\sum_{k} \xi_{k} \varepsilon_{k}
\]
– произвольный вектор из $\Re^{n}$ и $\xi_{k}(k=1, \ldots, n)$ – его координаты. В силу линейности преобразования $\hat{A}$ имеемі
\[
y=\hat{A} x=\hat{A} \sum_{k} \xi_{k} \boldsymbol{\varepsilon}_{k}=\sum_{k} \xi_{k} \hat{A} \boldsymbol{\varepsilon}_{k} .
\]

Отсюда на основании формул (1.5.8) получим
\[
\boldsymbol{y}=\sum_{k} \xi_{k} \sum_{j} a_{j k} \boldsymbol{\varepsilon}_{j}=\sum_{j}\left(\sum_{k} a_{j k} \hat{s}_{k}\right) \boldsymbol{\varepsilon}_{j} .
\]

Следовательно, координаты вектора $y$ в данном базисе $\boldsymbol{\varepsilon}_{1}, \ldots, \varepsilon_{n}$ суть
\[
\eta_{i j}=\sum_{k} a_{j k} \xi_{k} \quad(j=1, \ldots, n) .
\]

Если для векторов $\boldsymbol{x}$ и $\boldsymbol{y}$ ввести представления
\[
\boldsymbol{x}=\left[\begin{array}{c}
\xi_{1} \\
\vdots \\
\xi_{n}
\end{array}\right]_{\varepsilon}, \quad \boldsymbol{y}=\left[\begin{array}{c}
\eta_{1} \\
\vdots \\
\eta_{n}
\end{array}\right]_{\boldsymbol{e}}
\]

то соотношения (1.5.10) эквивалентны матричной формуле
\[
\boldsymbol{y}=A \boldsymbol{x} \text {. }
\]

Таким образом, линейно преобразованный вектор равен произведению матрищы преобразования на исходный вектор.

Нетрудно убедиться, что арифметическим операциям над линейными преобразованиями отвечают такне же операции над их матрицами.

Пусть $\boldsymbol{e}=\left\{e_{1}, \ldots, e_{n}\right\}$ и $\boldsymbol{\varepsilon}=\left\{\boldsymbol{\varepsilon}_{1}, \ldots, \boldsymbol{\varepsilon}_{n}\right\}$ – два базиса пространства $\mathfrak{R}^{n}$. Установим связь между ними, причем, следуя традиции аналитической геометрии, будем выражать элементы первого базиса (старого) через элементы второго (нового). Имеем
\[
e_{k}=\sum_{j} s_{j k} \varepsilon_{j} \quad(k=1, \ldots, n),
\]

где $s_{j k}$ – некоторые постоянные, причем, как обычно, первый индекс $j$ представляет собой номер координаты вектора $\boldsymbol{e}_{k}$ в базисе $\boldsymbol{\varepsilon}$. Неособенную матрицу $S=\left[s_{j k}\right]$ будем называть матрицей перехода (от второго базиса к первому).

Заметим, что если базисы $\boldsymbol{e}$ и $\boldsymbol{\varepsilon}$ ортонормированы (ортогональны и нормированы), т. е.
\[
\left(e_{j}, e_{k}\right)=\delta_{j k} \text { И }\left(\boldsymbol{\varepsilon}_{j}, \boldsymbol{\varepsilon}_{k}\right)=\delta_{j k},
\]

то матрица перехода $S$ – унитарная (в частности, в действительном пространстве $\mathscr{R}^{n}$ – ортогональная). Действительно, в этом случае в силу формулы (1.5.9) имеем
$\hat{o}_{j k}=\hat{o}_{k j}=\left(e_{k}, e_{j}\right)=$
\[
=\left(\sum_{p} s_{p k} \boldsymbol{\varepsilon}_{p}, \sum_{q} s_{q j} \boldsymbol{\varepsilon}_{q}\right)=\sum_{p . l} s_{p k} s_{q j}\left(\boldsymbol{\varepsilon}_{p}, \boldsymbol{\varepsilon}_{q}\right)=\sum_{p} s_{p j} s_{p k},
\]
T. e.
\[
S^{*} S=E \text {. }
\]

Таким образом, матрица $S$ – унитарная.
Пусть
\[
x=\sum_{k} x_{k} e_{k},
\]

где $x_{1}, \ldots, x_{n}$ – координаты вектора $\boldsymbol{x}$ в базисе $\boldsymbol{e}$. На основании формулы (1.5.12) имеем
\[
\begin{aligned}
\boldsymbol{x} & =\sum_{k} x_{\dot{k}} \sum_{j} s_{j k} \boldsymbol{\varepsilon}_{j}= \\
& =\sum_{j} \boldsymbol{\varepsilon}_{j} \sum_{k} s_{j k} x_{k} .
\end{aligned}
\]

Отсюда координаты вектора $\boldsymbol{x}$ во втором базисе суть
\[
\xi_{j}=\sum_{k} s_{j k} x_{k} \quad(j=1, \ldots, n) .
\]

Полагая $\xi=\operatorname{colon}\left(\xi_{1}, \ldots, \xi_{n}\right)$, будем иметь
\[
\boldsymbol{\xi}=\mathrm{S} \boldsymbol{x},
\]
т. е. новый координатный столбец вектора равен матрице перехода (от нового базиса к старому), умноженной справа на его старый координатный столбец.

Пусть $e_{1}, \ldots, e_{n}$ и $\varepsilon_{1}, \ldots, \boldsymbol{\varepsilon}_{n}$ – два базиса в $\mathfrak{R}^{n}$ и $S(\operatorname{det} S
eq 0)$ – неособенная матрица, устанавливающая связь между координатами вектора в первом и во втором базисах. Предположим, что $\hat{A}$ – линейное преобразованге в $\mathfrak{\Re}^{n}$, имеющее матрицу преобразования $A$ в первом базисе и матрицу $B$ – во втором. Пусть $\boldsymbol{x}=\left\{x_{1}, \ldots, x_{n}\right\}$ и $\boldsymbol{y}=\left\{y_{1}, \ldots, y_{n}\right\}$ – два вектора, отнесенных к первому базису, такие, что
\[
y=A \boldsymbol{x} .
\]

Во втором базисе эти векторы будут иметь, соответственно, новые координаты $\left\{\xi_{1}, \ldots, \xi_{n}\right\}$ и $\left\{\eta_{1}, \ldots, \eta_{n}\right\}$, и наборы этих координат можно интерпретировать как некоторые векторь
\[
\xi=\left[\begin{array}{c}
\xi_{1} \\
\vdots \\
\xi_{n}
\end{array}\right] \text { І } \quad \eta=\left[\begin{array}{c}
\eta_{1} \\
\vdots \\
\eta_{n}
\end{array}\right] \text { I }
\]

в первом базисе, причем
\[
\boldsymbol{\eta}=B \boldsymbol{\xi} .
\]

Кроме того, в силу (1.5.14), имеем
\[
\xi=S \boldsymbol{x}, \boldsymbol{\eta}=S \boldsymbol{y} .
\]

Из соотношений (1.5.15), (1.5.17) получаем
\[
S^{-1} \boldsymbol{\eta}=A S^{-1} \xi
\]

и
\[
\eta=S A S^{-1} \xi \text {. }
\]

Сравнивая с (1.5.16), находим
\[
B=S A S^{-1} \text {. }
\]

Матрицы, связанные соотношением (1.5.18), называются подобными . Таким образом, линейное преобразование в различных базисах описывается подобными матрицами. Для краткости говорят, что $B$ получается из $A$ с помощьюматрицы $S$.

Отношение подобия (1.5.18) между $(n \times n)$-матрицами $A$ и $B$ обычно коротко обозначается так: $B \propto A$. Легко проверить следующие свойства: 1) $A \propto A$ (рефлексивность); 2) если $A \propto B$, то $B \backsim A$ (симметрия); 3) если $A \propto B$ и $B \propto C$, то $A \propto C$ (транзитиеносто); 4) если $A \propto B$, то, очевидно, имеем $\operatorname{det} A=\operatorname{det} B$.

Определение 7. Вектор $\boldsymbol{x}
eq \mathbf{0}$ называется собственным для линейного преобразования $\hat{A}$, если
\[
\hat{A} \boldsymbol{x}=\lambda \boldsymbol{x},
\]

где число $\lambda$ называется собственным значением или характеристическим числом (характеристическим корнем) преобразования $\hat{A}$ (см. [4]).

Пусть $A$-матрица преобразования $\hat{A}$ в некотором базисе. Из формулы (1.5.19) имеем $A \boldsymbol{x}=\lambda \boldsymbol{x}$ и, следовательно,
\[
(A-\lambda E) \boldsymbol{x}=\mathbf{0} .
\]

Линейная однородная система (1.5.20) может иметь ненулевые решения только в том случае, когда
\[
\operatorname{det}(A-\lambda E)=0 \text {. }
\]

Корни $\lambda_{1}, \ldots, \lambda_{n}$ векового уравнения (1.5.21) называются характеристическими числами (характеристическими корнями) или собственными значениями матрицы $A$, а соответствующие нетривиальные решения однородной системы (1.5.20), получающиеся при $\lambda=\lambda_{j}$, – отвечающими ему собственными векторами матрицы $A$.

Корни векового уравнения (1.5.21) не зависят от выбора базиса и представляют собственные значения преобразования $\hat{A}$.

Действительно, если преобразование $\hat{A}$ в другом базисе описывается матрицей $B$, то имеем
\[
\begin{array}{l}
B=S A S^{-1}(\operatorname{det} S
eq 0) ; \\
\text { отсюда } \\
\operatorname{det}(B-\lambda E)=\operatorname{det}\left(S A S^{-1}-\lambda S E S^{-1}\right)= \\
=\operatorname{det} S \operatorname{det}(A-\lambda E) \operatorname{det} S^{-1}=\operatorname{det}(A-\lambda E) \text {. } \\
\end{array}
\]

Аналогично, если $\boldsymbol{x}$ есть собственный вектор матрицы $A$, отвечающий ее характеристическому числу $\lambda$, т. е. $\boldsymbol{x}$ есть нетривиальный вектор, удовлетворяющий уравнению (1.5.20), то $\xi=$ $=\boldsymbol{S} \boldsymbol{x}
eq \mathbf{0}$ и является собственным вектором подобной матрицы $B$, отвечающим тому же характеристическому числу $\lambda$, так как
\[
(B-\lambda E) \boldsymbol{\xi}=\mathcal{S}(A-\lambda E) \mathcal{S}^{-1} \boldsymbol{S} \boldsymbol{x}=\mathbf{0} .
\]

Таким образом, свойство собствєнности вектора преобразования $\hat{A}$ также не зависит от выбора базиса.

Определение 8. Преобразование $A$ называется эрмитовым или самосопряженным, если в любом ортонормированном базисе ему соответствует эрмитова матрица
\[
A=A^{*}, \text { где } A^{*}=\bar{A}^{T} .
\]

Как было показано выше, переход от одноге ортонормированного базиса к другому осуществляется с помощью унитарной матрицы $U$ :
\[
U^{*}=U^{-1} \text {. }
\]

Поэтому, полагая
\[
B=U A U^{-1} \equiv U A U^{*},
\]

будем иметь
\[
B^{*}=U A^{*} U^{*}=B,
\]
т. е. если преобразование $\hat{A}$ эрмитово в одном ортонормированном базисе, то оно будет эрмитово и в любом другом ортонормированном базисе.

В случае, когда эрмитова матрица действительная, она является симметрической.

Для эрмитова преобразования справедливы следующие предложения (см. [4]).

Теорема 1. Bсе собственные значения эрмитова преобразования действительны.

Теорема 2. Собственные векторы эрмитова преобразования, соответствующие различным собственным значениям его, ортогональны между собой.

Теорема 3. Для всякого эрмитова преобразования существует естественный ортонормирсванный базис, состоящий из собственных векторов, в котором матрица преобразования диагональна и вещественна.

Пусть $\boldsymbol{x}, \boldsymbol{y} \in \mathfrak{R}^{n}$ и $A=\left[a_{j k}\right]$ – матрица типа $n \times n$. Скалярное произведение
\[
(A x, y)=\sum_{j}(A x)_{j} \bar{y}_{j}=\sum_{j, k} a_{j k} x_{k} y_{j}
\]

называется билинейной формой с матрицей $A$. Выражение (1.5.22), учитывая независимость суммы от обозначения индексов, можно записать в виде
\[
(A x, y)=\sum_{j, k} a_{k j}^{\prime} x_{j} \overline{y_{k}}=\overline{\sum_{j, k} \overline{a_{k j}} y_{k} \overline{x_{j}}}=\overline{\left(A^{*} y, x\right)},
\]

где $A^{*}=\left[a_{k j}\right]$ – эрмитово-сопряженная с $A$ матрица. Следовательно,
\[
(A x, y)=\left(x, A^{*} y\right),
\]
т. е. в скалярном произведении (1.5.23) матрицу $A$ можно перебрасывать с первого места на второе, заменяя ее эрмитово-сопряженной $A *$. Отсюда, если матрица $A$ эрмитова (в действительном случае – симметрическая), то имеем
\[
(A x, y)=(x, A y) .
\]

В этом случае
\[
V(\boldsymbol{x})=(A \boldsymbol{x}, \boldsymbol{x})=\boldsymbol{x}^{*} A \boldsymbol{x}=\sum_{j, k} a_{j k} x_{k} \overline{x_{j}}
\]

называется эрмитовой квадратичной формой. Так как
\[
\overline{V(\boldsymbol{x})}=\sum_{j, k} \overline{a_{j k}} \overline{x_{k}} x_{j}=\sum_{k, j} a_{k j} x_{j} \overline{x_{k}}=V(\boldsymbol{x}),
\]

то эрмитова квадратичная форма имеет вещественные значения. Если $x \in \mathscr{R}^{n}$ и $A$ – вещественная симметрическая матрица $\left(A^{T}=A\right)$, то эрмитова форма $V(\boldsymbol{x})$ представляет собой действительную квадратичную форму (т. е. однородный полином второй степени):
\[
V(\boldsymbol{x})=\boldsymbol{x}^{T} A \boldsymbol{x}=\sum_{j, k} a_{j k} x_{j} x_{k} \quad\left(a_{j k}=a_{k j}\right)
\]

с матрицей $A=\left[a_{j k}\right]$.
Найдем оценку для функции $V(\boldsymbol{x})$. Пусть $\lambda_{j}=\lambda_{j}(A)(j=1, \cdots$ $\ldots, n)$ собственные значения матрицы $A$ и
\[
i(A)=\min _{j} \lambda_{j}(A), \quad \Lambda(A)=\max _{j} \lambda_{j}(A) .
\]

Для эрмитовой матрицы $A$ существует унитарная матрица $U$, переводящая ее в диагональную $D=\left(\lambda_{1}, \ldots, \lambda_{n}\right)$, т. е.
\[
U A U^{-1} \equiv U A U^{*}=D .
\]

Полагая
\[
y=U x
\]

и
\[
x=U^{-1} y=U^{*} y, \quad x^{*}=y^{*} U,
\]

имеем
\[
V(x)=y^{*} U A U^{*} y=y^{* D} y=\sum_{j} \lambda_{j} y_{j} \overline{y_{j}}=\sum_{j} \lambda_{j}\left|y_{j}\right|^{2} .
\]

Отсюда
\[
\lambda(A)|y|^{2} \leqslant V(x) \leqslant \Lambda(A)|y|^{2},
\]

где
\[
y_{i}^{2}=\sum_{i}\left|y_{j}\right|^{2}
\]

Нспользуя формулу (1.5.23), будем иметь
т. е.
\[
\begin{array}{c}
(y, y)=(U x, U x)=\left(x, U^{*} U x\right)=(x, x), \\
|y|=|x| .
\end{array}
\]

Таким образом, окончательно получаем
\[
\lambda(A)|\boldsymbol{x}|^{2} \leqslant V(x) \leqslant \Lambda(A)|\boldsymbol{x}|^{2},
\]

причем равенства слева и справа достигаются при собственном векторе $\boldsymbol{x}$, отвечающем, соответственно, наименышему характеристическому числу $\lambda(A)$ и наибольшему характеристическому числу $\Lambda(A)$ матрицы $A$.

Неравенство (1.5.25) имеет место также для действительной квадратичной формы $V(\boldsymbol{x})$.
Определение 9. Действительная квадратичная форма
\[
V(\boldsymbol{x})=(A \boldsymbol{x}, \boldsymbol{x}) \quad\left(A^{T}=A\right)
\]

называется положительно или отрицательно определенной, если, соответственно,
\[
V(\boldsymbol{x})>0 \text { при } \boldsymbol{x}
eq 0
\]

или
\[
V(x)<0 \text { при } \quad x
eq 0,
\]

причем, очевидно, $V(\boldsymbol{0})=0$.
В этом случае поверхности уровня
\[
V(\boldsymbol{x})=\mathrm{const}
\]

представляют собой ( $n-1$ )-мерные эллипсоиды пространства $\mathscr{R}^{n}$. является положительно определенной тогда и только тогда, когда все собственные значения ее матрицы $A$ положительны, т. е.
\[
\lambda(A)=\min _{j} \lambda_{j}(A)>0 .
\]

Аналогично $V(x)$ представляет собой отрицательно определенную квадратичную форму тогда и только тогда, когда все собственные значения ее матрицы $A$ отрицательны, т. е.
\[
\Lambda(A)=\min _{j} \lambda_{j}(A)<0 .
\]

Если $A$ – произвольная матрица, то матрица $A^{*} A$, очевидно, эрмитова, и так как
\[
\left(A^{*} A \boldsymbol{x}, \boldsymbol{x}\right)=\left(A \boldsymbol{x}, A \boldsymbol{x}_{j}=|A \boldsymbol{x}|^{2},\right.
\]

то при $A
eq 0$ все ее собственные значения $\lambda_{\text {; }}\left(A^{*} A\right.$ ) положительны; если же $A=0$, то они равны нулю. В функциональном анализе показывается, что за норму матрицы $A$ можно принять число
\[
\|A\|=\sqrt{\Lambda\left(A^{*} A\right)}
\]

где $\Lambda\left(A^{*} A\right)=\max \lambda_{j}\left(A^{*} A\right)$.
В частности, если вектор $\boldsymbol{x}$ рассматривать как вектор-столбец: $\boldsymbol{x}=\operatorname{colon}\left(x_{1}, \ldots, x_{n}\right)$, то имеем
\[
x^{*} x=|x|^{2}
\]

и, следовательно,
\[
\|\boldsymbol{x}\|=|\boldsymbol{x}| \text {. }
\]

Таким образом, введенная выше норма вектора согласована с его длиной.
Отметим, что из соотношения (1.5.25) имеем
\[
\|A\|=\max _{\boldsymbol{x}
eq 0} \frac{|A x|}{|x|}=\max _{|x|=1}(A \boldsymbol{x}) .
\]

Categories

1
Оглавление
email@scask.ru