Главная > Исследование устойчивости прямым методом Лaпyнова (Ж. ЛА-САЛЛЬ, С. ЛЕФШЕЦ)
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Пусть некоторые (но не все!) характеристические корни матрицы $A$ в системе (15.4) равны нулю.

Сравнительно просто вопрос решается в том случае, когда в подходящим образом выбранноћ системе координат исходную систему уравнений (15.4) можно записать в виде
\[
\left\{\begin{array}{l}
\dot{x}=A x+f(\sigma) b, \\
\dot{y}=f(\sigma) d, \\
\dot{\sigma}=c^{\prime} x+2 e^{\prime} y-r f(\sigma),
\end{array}\right.
\]

где $y, d, e-p$-мерные векторы, а остальные буквы имеют тот же смысл, что и раньше ${ }^{2}$ ). Поскольку вектор у остается постоянным в нерегулируемой системе, то его компоненты $y_{k}$ называются нейтральными параметрами.

Мы будем искать функцию Ляпунова в следующем виде:
\[
V(x, y, \sigma)=y^{\prime} M y+\left\{x^{\prime} B x+\int_{0}^{\sigma} f(\sigma) d \sigma\right\} .
\]

Заметим, что в фигурных скобках стоит выражение (16.1), которое используется в качестве функции Ляпунова в на-
1) Имеются в виду системы, удовлетворяющие условию (18.2). Поскольку это условие является только достаточным, но не необходимым, то, вообще говоря, могут существовать абсолютно устойчивые системы, не удовлетворяющие условию (18.2), для которых $r$ имеет меньшее значение. — Прим. ред.
2) Таким образом, рассматривается система, состояние которой характеризуется $n+p$ параметрами $x_{1}, \ldots, x_{n}, y_{1}, \ldots, y_{p}$; матрица этой системы имеет $p$ нулевых корней. Отметим, чтобы не было недоразумений, что здесь матрица $A$ устойчива и означает не всю матрицу регулируеиой системы, как в $\S 15$, а лишь ее часть, имеющую ненулевые собственные значения. — Прим. перев.

ших предыдуших рассмотрениях: $M=\left(m_{i j}\right)$ означает положительно определенную ${ }^{1}$ ) матрицу порядка $p$. Таким образом, функция $V$ — положительно определенная во всем пространстве $x, y, \sigma$. Непосредственный подсчет показывает, что
\[
\begin{array}{l}
-\dot{V}=\left\{-x^{\prime} C x-r f^{2}(\sigma)+2 f(\sigma)\left(B b+\frac{1}{2} c\right)^{\prime} x\right\}+ \\
+2(M d+e)^{\prime} y f(\sigma) ; \quad A^{\prime} B+B A=-C .
\end{array}
\]

К выражению, заключенному в фигурные скобки, применимы рассмотрения § 16. Если мы теперь дополнительно выберем положительно определенную матрицу $M$ так, чтобы выполнялось равенство
\[
M d+e=0
\]
(если, конечно, такой выбор вообще возможен), то сразу получим функцию Ляпунова $V$, удовлетворяющую условию $-\dot{V}>0$ при $x
eq 0, f
eq 0$ и $\dot{V}=0$ при $x=f=0$, $y
eq 0$. Следовательно, с помощью построенной функции $V(x, y, \sigma)$ можно в лучшем случае получить условия устойчивости, используя первую теорему Ляпунова, а асимптотическое поведение решений может быт охарактеризовано на основании теоремы VIII, $\S 13$. Множеством $R$, о котором упоминалось в этой теореме, является гиперплоскость $x=0, \sigma=0$. Предположим, что решение системы (19.1) все время остается в множестве $R$. Тогда
\[
\left\{\begin{array}{l}
\dot{x}=0, \\
\dot{y}=0, \\
\dot{\sigma}=2 e^{\prime} y,
\end{array}\right.
\]

и мы видим, что это может случиться только в том случае, когда $e^{\prime} y=0$. Гиперплоскость $x=0, \sigma=0, e^{\prime} y=0$ и является множеством $M$, фигурирующим в теореме VII, $\S 13$, а все решения неограниченно приближаются к этой гиперплоскости при $t \rightarrow \infty$. Каждая точка этой гиперплоскости служит положением равновесия системы (19.1). Этот результат является наиболее сильным из всех, которые мы могли бы ожидать.
1) Следовательно, симметрическую.- Прим. ред.

Для того чтобы продвинуться дальше, предположим, что $d^{\prime}=(1,1, \ldots, 1)$. Вводя обозначения
\[
m_{i}=\sum_{j=1}^{p} m_{i j}, \quad m^{\prime}=\left\{m_{1}, \ldots, m_{p}\right\},
\]

мы получаем на основании (19.2), что
\[
m=-e .
\]

Теперь следует выяснить, возможно ли найти матрицу $M>0$ такую, чтобы выполнялось равенство (19.3).

Прежде всего рассмотрим случай $p=2$. Тогда (19.3) означает, что ( $m_{21}=m_{12}$ )
\[
m_{11}+m_{12}=-e_{1}, \quad m_{12}+m_{22}=-e_{2},
\]

и, поскольку $M>0$,
\[
m_{11} m_{22}-m_{12}^{2}>0 \text {. }
\]

Положим для краткости $m_{12}=h$, г. е. $m_{11}=-e_{1}-h$, $m_{22}=-e_{2}-h$. Величина $h$ должна удовлетворять неравенству
\[
\left(-e_{1}-h\right)\left(-e_{2}-h\right)-h^{2}=e_{1} e_{2}+\left(e_{1}+e_{2}\right) h>0 .
\]

Если $e_{1}+e_{2}=0$, то это неравенство превращается в $e_{1} e_{2}>0$, которое невозможно ${ }^{1}$ ); поэтому при $e_{1}+e_{2}=0$ равенство (19.3) не может быть удовлетворено. Если же $e_{1}+e_{2}
eq 0$, то всегда можно выбрать подходящую величину $h$.

Общий случай, конечно, гораздо сложнее. Пусть нам нужно выбрать матрицу
\[
M=\left(\begin{array}{ll}
H & g \\
g & s
\end{array}\right),
\]

где $H=\operatorname{diag}\left(h_{1}, \ldots, h_{p-1}\right), g^{\prime}=\left(g_{1}, \ldots, g_{p-1}\right), s$ — скаляр, $h_{i}$ — положительные постоянные (т. е. $H>0$ ). Условие $M>0$ означает, что
\[
s>\sum_{i=1}^{p-1} \frac{g_{i}^{2}}{h_{i}} .
\]
1) Ибо равенство $e_{1}+e_{2}=0$ означает, что числа $e_{1}$ и $e_{2}$ разных знаков или одновременно нули. — Прим. перев.

Но, с другой стороны, равенство (19.3) дает
\[
g_{i}+h_{i}=-e_{i}, \quad s+\sum_{i=1}^{p-1} g_{i}=-e_{p} .
\]

Следовательно, неравенство (19.4) можно переписать так:
\[
s>\sum_{i=1}^{p-1} \frac{\left(e_{i}+h_{i}\right)^{2}}{h_{l}} .
\]

Полагая $h_{i}=k_{i}^{2}$, мы приходим к выводу, что наименьшее значение каждого слагаемого этой суммы достигается при $e_{l}=k_{i}^{2}=h_{i}$ и равно $4 k_{i}^{2}=4 h_{i}$. Следовательно,
\[
s>4 \sum_{i=1}^{p-1} h_{i}=s_{1} \text {. }
\]

В то же время
\[
s=\sum_{i=1}^{p-1}\left(h_{i}+e_{i}\right)-e_{p}=s_{0} .
\]

Если $s_{0} \leqslant s_{1}$, то за минимальное значение для $s$ можно взять $s_{1}$; если $s_{0}>s_{1}$, то $s_{0}$ может быть взято за минимум. Тем не менее, даже если и нельзя выбрать $s$ в указанных границах, мы можем надеяться выбрать матрицу $M>0$, так, чтобы она удовлетворяла условию (19.3) ${ }^{1}$ ).
1) Здесь речь идет об определении нижней границы для значений величины $s=\sum_{i<p}\left(h_{i}+e_{i}\right)-e_{p}$ при условиях
\[
s>\sum_{l=1}^{p-1} \frac{\left(e_{i}+h_{l}\right)^{2}}{h_{l}}, \quad h_{l}>0 \quad(i=1, \ldots, p-1) .
\]

Подставляя в неравенство выражение для $s$, получаем
\[
\sum_{i=1}^{p-1} \frac{e_{i}^{2}}{h_{i}}<-\sum_{i=1}^{p} e_{i} .
\]

Если $\sum_{i=1}^{p} e_{l} \geqslant 0$, то нельзя удовлетворить этому неравенству при $h_{i}>0$ и потому нельзя определить матрицу $M$. Если же

Во многих приложениях система (19.1) возникает из следующей задачи:
\[
\left\{\begin{array}{l}
\dot{x}=A x+f(\sigma) b, \\
\dot{y}=f(\sigma) d, \\
\sigma=c_{1}^{\prime} x+e_{1}^{\prime} y .
\end{array}\right.
\]

Характеризующая обратную связь переменная $\odot$ является линейной комбинацией фазовых переменных $x_{1}, \ldots, x_{n}$, $y_{1}, \ldots, y_{p}$. Эта задача, если вычислить производную $\dot{\sigma}$, приводится к системе вида (19.1) при $e=0$. Поскольку $M$-положительно определенная матрица, равенство (19.2) не может быть удовлетворено, и поэтому изложенный выше метод уже не проходит.

Если $p>1^{1}$ ), то у системы (19.5) будет целая гиперплоскость положений равновесия, и лучшее, на что можно надеяться, это то, что каждое решение приближается к этой плоскости при $t \rightarrow \infty$.

1
Оглавление
email@scask.ru