Главная > ЛЕКЦИИ ПО МАТЕМАТИЧЕСКОЙ ТЕОРИИ УСТОЙЧИВОСТИ (Б. П. ДЕМИДОВИЧ)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Определение 1. Под матрицей $A=\left(a_{j k}\right)$ типа $m \times n$ (или, короче, ( $m \times n$ )-матрицей) понимается система действительных или комплексных чисел (или функций), записанная в виде прямоугольной таблицы:

Числа (функции) $a_{j k}$ называются элементами матрицы $A$, причем первый индекс $j$ есть номер строки, а второй $k$ – номер столбца (см. [1]).
Матрицы
\[
\boldsymbol{x}=\left[\begin{array}{c}
x_{1} \\
\vdots \\
x_{m}
\end{array}\right] \equiv \operatorname{colon}\left(x_{1}, \ldots, x_{m}\right)
\]

и
\[
\boldsymbol{y}=\left[y_{1}, \ldots, y_{n}\right]
\]

типа $m \times 1$ и $1 \times n$ называются, соответственно, вектором-столбцом и вектором-строкой.

Матрицу $A=\left(a_{11}\right)$ типа $1 \times 1$ принято отождествлять с числом (скаляром) $a_{11}$.

Если $A$ – квадратная матрица, то под $\operatorname{det} A$ будем понимать ее определитель.
Определение
2. Матрица (1.1.1) называется нулевой и обозначается
\[
A=0 \text {, }
\]

если $a_{j k}=0$ для всех допустимых $j$ и $k(j=1, \ldots, m ; k=1, \ldots, n)$.
Две матрицы $A=\left(a_{j k}\right)$ типа $m \times n$ и $B=\left(b_{j k}\right)$ типа $m^{\prime} \times n^{\prime}$ считаются равными:
\[
A=B,
\]

если 1) они имеют одинаковые типы, т. е. $m^{\prime}=m$ и $n^{\prime}=n$, и 2) $\left.\forall^{1}\right) a_{j k}=b_{j k}$, т. е. каждый элемент матрицы $A$ равен соответствующему элементу матрицы $B$.

Определение 3. Сумма п, соответственно, разность двух матриц $A=\left(a_{j k}\right)$ и $B=\left(b_{j k}\right)$ одинаковых типов определяется формулой
\[
A \pm B=\left(a_{j k} \pm b_{j k}\right) .
\]

Очевидно, имеет место переместительное свойство
\[
A+B=B+A \text {. }
\]

Если $A, B$ и $C$-матрицы одинаковых типов, то по определению полагаем
\[
A+B+C=(A+B)+C,
\]

причем
\[
(A+B)+C=A+(B+C) .
\]

По индукции можно определить сумму любого конечного числа матриц одинаковых типов.

Определение 4. Под произедением матрицы $A=\left(a_{j k}\right)$ на число а понимается матрица
\[
A \alpha=\alpha A=\left(\alpha a_{j k}\right) .
\]

Если $A$ и $B$-матрицы, а $\alpha$ и $\beta$-числа, вообще говоря, комплексные, то очевидны свойства:
1). $(\alpha+\beta) A=\alpha A+\beta A$
2) $\alpha(A+B)=\alpha A+\alpha B$
3) $\alpha(\beta A)=(\alpha \beta) A$;
4) $1 A=A$
5) $0 A=0$.
Матрица
\[
-B \equiv(-1) B=\left(-b_{j k}\right)
\]

называется противоположной для матрицы $B=\left(b_{j k}\right)$. Очевидно, имеем $B+(-B)=0$ и
\[
A-B=A+(-B) .
\]

Заметим, что если $A$ – квадратная матрица порядка $n$, то $\operatorname{det}(\alpha A)=\alpha^{n} \operatorname{det} A$.
^) Символ $\forall$ обозначает «все».

Определение 5. Под произедением матриц $A=\left(a_{j k}\right)$ типа $m \times n$ и $B=\left(b_{j k}\right)$ типа $m^{\prime} \times n^{\prime}$, где $n=m^{\prime}$, понимается матрица
\[
A B=\left(\sum_{s=1}^{n} a_{j s} b_{s k}\right)
\]

типа $m \times n^{\prime}$.
Аналогично, если $m=n^{\prime}$, то
\[
B A=\left(\sum_{j=1}^{m} a_{s k} b_{i s}\right)
\]

есть матрица типа $n \times m^{\prime}$.
Пример.
\[
\left[\begin{array}{ccc}
a_{1} & b_{1} & c_{1} \\
a_{2} & b_{2} & c_{2} \\
a_{3} & b_{3} & c_{3}
\end{array}\right]\left[\begin{array}{l}
x \\
y \\
z
\end{array}\right]=\left[\begin{array}{l}
a_{1} x+b_{1} y+c_{1} z \\
a_{2} x+b_{2} y+c_{2} z \\
a_{3} x+b_{3} y+c_{3} z
\end{array}\right] .
\]

В общем случае даже для квадратных матриц
\[
A B
eq B A \text {. }
\]

Пример.
\[
\begin{array}{l}
{\left[\begin{array}{ll}
0 & 1 \\
0 & 0
\end{array}\right]\left[\begin{array}{ll}
0 & 0 \\
1 & 0
\end{array}\right]=\left[\begin{array}{ll}
1 & 0 \\
0 & 0
\end{array}\right],} \\
{\left[\begin{array}{ll}
0 & 0 \\
1 & 0
\end{array}\right]\left[\begin{array}{ll}
0 & 1 \\
0 & 0
\end{array}\right]=\left[\begin{array}{ll}
0 & 0 \\
0 & 1
\end{array}\right] .}
\end{array}
\]

Если $A, B, C$ – матрицы и $\alpha$ – число, то справедливы следующие свойства:
1) $(A+B) C=A C+B C$
2) $A(B C)=(A B) C$
3) $\alpha(A B)=(\alpha A) B=A(\alpha B)$.
Из определения 5 следует, чго квадратные матрицы $A=\left(a_{j k}\right)$ и $B=\left(b_{j k}\right)$ допускают перемножение друг на друга в любом порядке тогда и только тогда, когда они одинакового порядка. В этом случае
\[
\operatorname{det}(A B)=\operatorname{det}(B A)=\operatorname{det} A \cdot \operatorname{det} B .
\]

Единичная ( $n \times n$ )-матрица
\[
E_{n}=E \equiv\left(\delta_{j k}\right),
\]

где $\delta_{j k}$-символ Кронекера, т. е.
\[
\delta_{j k}=\left\{\begin{array}{l}
1, \text { если } j=k, \\
0, \text { если } j
eq k,
\end{array}\right.
\]

играет роль единицы при умножении:
\[
E A=A E=A,
\]

где $A$-любая квадратная матрица, одинакового с $E$ порядка.
Определение 6. Матрицу

где
\[
\gamma_{j, j+p}=1 \quad(j=1, \ldots, n-p)
\]

и
\[
\gamma_{j k}=0 \text { при } k-j
eq p(0 \leqslant p \leqslant n-1),
\]

будем называть $p$-м единичным косым рядом (верхним) порядка $n$ (см. [1]).
Очевидно,
\[
I_{0}=E \text {. }
\]

Лемма. Если $I_{p}$ и $I_{q}$ – единичные косые ряды одного и того же порядка $n$, то
\[
I_{p} I_{q}=I_{p+q} \quad \text { npu } \quad 0 \leqslant p+q \leqslant n-1
\]
$u$
\[
I_{p} I_{q}=0 \quad \text { npu } \quad p+q \geqslant n .
\]

Доказательство. Пусть
\[
I_{p}=\left(a_{j k}\right), \quad I_{q}=\left(b_{j k}\right), \quad I_{p} I_{q}=\left(c_{j k}\right) .
\]

Имеем
\[
c_{j k}=\sum_{s} a_{j s} b_{s k} .
\]

Из определения 6 следует, что $c_{i k}$ равно 0 или 1 , причем $c_{j k}=1$ тогда и только тогда, когда для некоторого $s$ имеем
\[
s-j=p, \quad k-s=q .
\]

Отсюда при $p+q<n$ получаем
\[
k-j=p+q \text {. }
\]

Следовательно,
\[
I_{p} I_{q}=I_{p+q} \text { при } 0 \leqslant p+q<n .
\]

Если же $p+q \geqslant n$, то равенства (1.1.2) не могут быть выполнены одновременно. Поэтому
\[
I_{p} I_{q}=0 \text { при } p+q \geqslant n \text {. }
\]
3амечание. Если условно полагать $I_{p}=0$ при $p \geqslant n$, то всегда
\[
I_{p} I_{q}=I_{p+q} \quad(p, q \geqslant 0) .
\]

Следствие. Если $p$ – натуральное число, то
\[
\underbrace{I_{1} \ldots I_{1}}_{p \text { pa3 }}=I_{1}^{p}=I_{p} .
\]

Определение 7. Если $A=\left(a_{j k}\right)$ есть матрица типа $m \times n$, то матрица
\[
A^{T}=\left(a_{k j}\right)
\]

типа $n \times m$ называется mранспонированной по отношению к матрице $A$.
Матрица $A$ называется симметрической, если
\[
A^{T}=A
\]

и кососимметрической, если
\[
A^{T}=-A .
\]

Для матриц $A$ и $B$, допускающих указанные действия, справедливы соотношения:
1) $\left(A^{T}\right)^{T}=A$
2) $(\alpha A+\beta B)^{T}=\alpha A^{T}+\beta B^{T}$ ( $\alpha$ и $\beta-$ числа);
3) $(A B)^{T}=B^{T} A^{T}$.
Если $A$ – квадратная матрица, то
\[
\operatorname{det} A^{T}=\operatorname{det} A \text {. }
\]

Определение 8. Если $A=\left(a_{j k}\right)$, то матрица
\[
\bar{A}=\overline{\left(a_{j k}\right)}
\]
(где $\overline{a_{j k}}$ – сопряженные величины для $a_{j k}$ ) называется комплексно-сопряюенной для матрицы $A$.
Если $A$ – квадратная матрица, то, очевидно,
\[
\operatorname{det} \bar{A}=\overline{\operatorname{det} \bar{A}} \text {. }
\]

Матрица
\[
A^{*}=\bar{A}^{T} \equiv\left(a_{k j}\right)
\]

называется эрмитово-сопряженной или просто сопряженной для матрицы $A$.
Очевидно, выполнены соотношения:
1) $\left(A^{*}\right)^{*}=A$
2) $(A+B)^{*}=A^{*}+B^{*}$;
3) $(A B)^{*}=B^{*} A^{*}$.
Если
\[
A^{*}=A,
\]

то матрица $A$ называется эрмитовой или самосопряженіной.
Действительная матрица $A$ является самосопряженной тогда и только тогда, когда она симметрическая:
\[
A^{T}=A \text {. }
\]

Определение 9. Матрица $A^{-1}$ называется обратной данной матрице $A$, если
\[
A^{-1} A=A A^{-1}=E,
\]

где $E$ – единичная матрица соответствующего порядка.
Из условия (1.1.4) следует, что если матрица $A$ имеет обратную $A^{-1}$, то матрицы $A$ и $A^{-1}$ – квадратные и одного и того же порядка.

Обратная матрица для данной матрицы $A$ единственна. Действительно, если, кроме $A^{-1}$, существует обратная матрица $B$, т. е. $B A=A B=E$, то
\[
B A=A^{-1} A \text {. }
\]

Отсюда, умножая последнее равенство справа на $A^{-1}$, получим
\[
B A A^{-1}=A^{-1} A A^{-1},
\]
T. e.
\[
B=A^{-1} .
\]

Определение 10. Матрица $A$ называется неособенной (несингулярной), если она квадратная и
\[
\operatorname{det} A
eq 0 \text {. }
\]

В противном случае матрица $A$ называется особенной (сингулярной).
Теорема. Всякая неособенная матрица имеет обратную.

Доказательство. Пусть $A=\left[a_{j k}\right]$ – неособенная матрица и
\[
A^{S}=\left[A_{j k}\right]^{T} \equiv\left[A_{k j}\right]
\]
– союзная матрица, представляющая собой транспонированную матрицу $\left[A_{j k}\right]$, элементами которой служат алгебраические дополнения $A_{j k}$ элементов $a_{j k}$.
Рассмотрим матрицу
\[
B=\frac{A^{S}}{\operatorname{det} A} .
\]

Согласно известному свойству (см. [2]) имеем
\[
A B=\frac{1}{\operatorname{det} A}\left(\sum_{s} a_{i s} A_{k s}\right)=\frac{1}{\operatorname{det} A}\left(\delta_{j k} \cdot \operatorname{det} A\right)=E
\]

и
\[
B A=\frac{1}{\operatorname{det} A}\left(\sum_{s} a_{s i} A_{s k}\right)=\frac{1}{\operatorname{det} A}\left(\delta_{i k} \cdot \operatorname{det} A\right)=E .
\]

Следовательно, на основании формулы (1.1.4) получаем
\[
B=A^{-1} \text {. }
\]

Таким образом,
\[
A^{-1}=\left(\frac{A_{j k}}{\operatorname{det} A}\right)^{T} .
\]

Замечание. Из формулы (1.1.4) вытекает
1) $\operatorname{det} A^{-1}=(\operatorname{det} A)^{-1}$;
2) $\left(A^{-1}\right)^{T}=\left(A^{T}\right)^{-1}$;
3) если $A$ и $B$ – неособенные матрицы одинакового порядка, то
\[
(A B)^{-1}=B^{-1} A^{-1} \text {. }
\]

Определение 11. Действительная квадратная матрица $S$, удовлетворяющая условию:
\[
S^{-1}=S^{T},
\]

называется ортогональной.
Из соотношения (1.1.5) получаем
\[
\operatorname{det} S= \pm 1 .
\]

Пример. Если а действительно, то матрица
\[
A=\left[\begin{array}{cc}
\cos \alpha-\sin \alpha \\
\sin \alpha & \cos \alpha
\end{array}\right],
\]

как нетрудно проверить, является ортогональной.

Заметим, что матрица, обратная ортогональной матрице $\mathcal{S}$, есть матрица ортогональная. Действительно,
\[
S^{-1}\left(S^{-1}\right)^{T}=S^{T}\left(S^{T}\right)^{-1}=E .
\]

Таким образом,
\[
S=\left(S^{-1}\right)^{T} .
\]

Определение свойством

называется унитарной.
Очевидно, имеем
\[
U U^{*}=U^{*} U=E .
\]

На основании (1.1.6) выводим
\[
|\operatorname{det} U|=1 \text {. }
\]

Заметим, что если $U$ унитарна, то $U^{-1}$ также унитарна и, следовательно,
\[
\left|\operatorname{det} U^{-1}\right|=1 \text {. }
\]

Определение 13. Под следом $\mathrm{Sp} A$ квадратной матрицы $A=\left[a_{i k}\right]$ понимается сумма всех ее диагональных элементов:
\[
\operatorname{Sp} A=\sum_{j} a_{j j} \text {. }
\]

Очевидно, имеем
\[
\mathrm{Sp} A^{T}=\mathrm{Sp} A
\]

и
\[
\mathrm{Sp}(\alpha A)=\alpha \mathrm{Sp} A \text { ( } \alpha \text { – скаляр) } .
\]

Если $A$ и $B$ – квадратные матрицы одного и того же порядка, то справедливы следующие соотношения:
1) $\mathrm{Sp}(\alpha A+\beta B)=\alpha \mathrm{Sp} A+\beta \mathrm{Sp} B$ ( $\alpha$ и $\beta-$ числа);
2) $\mathrm{Sp}(A B)=\mathrm{Sp}(B A)$.

Categories

1
Оглавление
email@scask.ru