Главная > БИФУРКАЦИЯ РОЖДЕНИЯ ЦИКЛА И ЕЕ ПРИЛОЖЕНИЯ (ДЖ. МАРСДЕН, М. МАК-КРАКЕН)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотрим $n$-мерную автономную систему дифференциальных уравнений
\[
\dot{x}=F(x, \mu),
\]

зависящую от действительного параметра $\mu$. Мы предполагаем, что (3С.1) допускает аналитическое семейство $x=$ $=x(\mu)$ состояний равновесия, т. е. $F(x(\mu), \mu)=0$. Без огра* ничения общности можно считать, что этим семейством является $x \equiv 0$, т. е. $F(0, \mu)=0$. Допустим, что при некотором $\mu$, например при $\mu=0$, матрица $F_{x}(0, \mu)$ имеет два чисто мнимых собственных значения $\pm i \beta$ и не существует других собственных значений $F_{x}(0,0)$, целочисленно кратных $i \beta$.

Пусть $\alpha(\mu)+i \beta(\mu)$ является продолжением по параметру собственного значения $i \beta$.
Будем предполагать, что $\alpha^{\prime}(0)
eq 0$.
(3С.1) Теорема Хопфа. При сформулированных условиях существуют непрерывные функции $\mu=\mu(\varepsilon)$ и $T=T(\varepsilon)$, зависящие от параметра $\varepsilon, \mu(0)=0, T(0)=2 \pi \beta^{-1}$ и такие, что у уравнения (3С.1) существуют периодические решения $x(t, \varepsilon)$ периода $T(\varepsilon)$, которые влипают начало координат при $\varepsilon \rightarrow 0$.
(3С.2) Замечание. Сформулированные нами в теореме Хопфа условия немного слабее, чем обычно: мы не требуем отсутствия других мнимых собственных значений. Кроме того, в нашем доказательстве не используется аналитичность $F(x, \mu)$, однако определенная гладкость ее необходима.

Доказательство. С помощью линейной замены координат вида $y=S(\mu) x$ и замены независимой переменной $\tau=$ $=\beta(\mu) t$ мы можем привести уравнение (3С.1) к следующему виду:
\[
\begin{aligned}
\dot{y}_{1} & =(u(\mu)+i) y_{1}+\varphi_{1}\left(y_{1}, y_{2}, \tilde{y}, \mu\right), \\
\dot{y}_{2} & =(u(\mu)-i) y_{2}+\varphi_{2}\left(y_{1}, y_{2}, \tilde{y}, \mu\right), \\
\tilde{y} & =B(\mu) \tilde{y}+\tilde{\varphi}\left(y_{1}, y_{2}, \tilde{y}, \mu\right) .
\end{aligned}
\]

Здесь $y_{1}$ и $y_{2}$ являются двумя первыми комплексными компонентами вектора $y$. Действительные решения получаются, только если $y_{1}=\bar{y}_{2}$. Остальные $(n-2)$ компоненты вектора $y$ действительны и обозначаются через $\tilde{y}$. $B(\mu)$ – действительная квадратная $(n-2)$-матрица, не обязательно имеющая нормальную форму, а функции $\varphi_{1}, \varphi_{2}, \tilde{\varphi}$ по крайней мере квадратичны по компонентам вектора $y$.
Введем теперь такие полярные координаты:
\[
y_{1}=r e^{i \theta}, \quad y_{2}=r e^{-i \theta}, \quad \tilde{y}=r \eta .
\]

Система (3C.2) принимает следующий вид:
\[
\begin{array}{l}
\dot{r}=u(\mu) r+\operatorname{Re}\left\{e^{-i \theta} \varphi_{1}\right\}, \\
\dot{\theta}=1+\frac{1}{r} \operatorname{Im}\left\{e^{-i \theta} \varphi_{1}\right\}, \\
\dot{\eta}=B(\mu) \eta-u(\mu) \eta+\frac{1}{r}\left(\varphi-\operatorname{Re}\left\{e^{-i \theta} \varphi_{1}\right\} \eta\right) .
\end{array}
\]

В эту систему мы введем скалярный множитель $\varepsilon$, полагая $t=\varepsilon \rho$ и $\mu=\varepsilon \mu_{1}$. Так как $\dot{\theta}=1+O(\varepsilon)$, мы можем использовать $\theta$ как новую независимую переменную, чтобы преодолеть автономность системы. В результате дифференциальные уравнения приобретают следующий вид:
\[
\begin{array}{l}
\frac{d \rho}{d \theta}=\varepsilon R(\theta, \rho, \eta, \varepsilon), \\
\frac{d \eta}{d \theta}=B(0) \eta+V(\theta, \rho, \eta, \varepsilon),
\end{array}
\]

и мы ищем $2 \pi$-периодические решения этой системы. В силу наших предположений о собственных значениях матрицы $B(0)$ мы получаем, что при $\varepsilon=02 \pi$-периодическим решением является только $\rho=\rho_{0}=$ const, $\eta=0$. Это решение сохраняется при $\varepsilon
eq 0$, если уравнение разветвления имеет решение (см. Бергер [1])
\[
\int_{0}^{2 \pi} R(\theta, \rho, \eta, \varepsilon) d \theta=0 .
\]

В подинтегральном выражении $\rho$ и $\eta$ являются $2 \pi$-периодическими решениями данной системы (3C.4). Члены порядка $\varepsilon^{0}$ уже известны, и мы можем вычислить члены того же порядка в уравнении разветвления. Отсюда получаем
\[
\mu_{1} u^{\prime}(0) \rho_{0}+O(\varepsilon)=0 .
\]

Это уравнение можно решить с помощью теоремы о неявной функции, так как $u^{\prime}(0)
eq 0$ по предположению, а $\rho_{0}
eq 0$ в силу того, что мы ищем нетривиальные решения. Поэтому мы однозначно находим $\mu_{1}=\mu_{1}^{\prime}(\varepsilon)=O(\varepsilon)$. Следовательно, функция $\mu=\mu(\varepsilon)=\varepsilon \mu_{1}(\varepsilon)=O\left(\varepsilon^{2}\right)$ найдена. Период решения в исходных $x$-координатах определяется из выражения для $\frac{d \theta}{d t}$ и равен
\[
T=T(\varepsilon)=\frac{2 \pi}{\beta(0)}\left(1+O\left(\varepsilon^{2}\right)\right) .
\]

Теорема Ляпунова
(3С.3) Теорема Ляпунова. Рассмотрим систему
\[
\dot{x}=A x+f(x),
\]

где $f(x)$-гладкая функция, которая равна нулю вместе с первыми производными при $x=0$. Предположим, что система допускает первый интеграл вида $I(x)=\frac{1}{2} x^{T} S x+\ldots$, где $S=S^{T} u \operatorname{det} S
eq 0$. Пусть $A$ имеет собственными значениями числа $\pm i \beta, \lambda_{3}, \ldots, \lambda_{n}, \beta
eq 0$. Тогда если $\frac{\lambda_{l}}{\beta i}
eq$ целому числу для $j=3, \ldots, n$, то система имеет однопараметрическое семейство периодических решений, стягивающихся $\kappa$ началу координат, при этом их периоды стремятся $\kappa \frac{2 \pi}{\beta}$.
Обычное доказательство см. у Келли [1].
Доказательство. Қак уже говорилось во введении, мы покажем, что эта теорема является следствием теоремы Хопфа. Для этого мы рассмотрим модифицированную систему
\[
\dot{x}=A x+f(x)+\mu \operatorname{grad} I(x)
\]

и покажем, что все условия теоремы о рождении цикла удовлетворяются, а нестационарные периодические орбиты могут быть только при $\mu=0$.

Вторую часть этого утверждения ґегко получить, вычисляя $\frac{d I}{d t}$ вдоль решений (3С.6), что дает
\[
\frac{d I}{d t}=\langle\operatorname{grad} I(x), A x+f(x)+\mu \operatorname{grad} I(x)\rangle=\mu|\operatorname{grad} I(x)|^{2} .
\]

Второе равенство следует из того, что $I(x)$ – интеграл (3С.5). Поэтому $\frac{1}{\mu} I$ монотонно возрастает всюду кроме точек, где $\operatorname{grad} I(x(t))=0$, откуда получаем $x^{\prime}(t)=x(0)$, т. е. стационарную точку ${ }^{1}$ ).

Для того чтобы применить теорему предыдущего раздела, мы должны проверить только условия на действительную часть собственного значения, близкого к $i \beta$. Снова с помощью линейной замены мы приведем линейную часть системы (3С.5) к нормальной форме. Будем предполагать, что это уже сделано, и, таким образом, матрица $A$ имеет следующую действительную форму:
\[
A=\left(\begin{array}{rrr}
0 & \beta & 0 \\
-\beta & 0 & 0 \\
0 & 0 & \tilde{A}
\end{array}\right),
\]

где $\tilde{A}$ – действительная квадратная матрица порядка $n-2$. Как следует из равенства $A^{T} S+S A \rightleftharpoons 0$, матрица $S$ в интеграле имеет вид
\[
S=\left(\begin{array}{ccc}
a & 0 & 0 \\
0 & a & 0 \\
0 & 0 & \tilde{S}
\end{array}\right)
\]
1) Не нужно забывать, что рассмотрение ведется в окрестности $x=0$, где $\operatorname{grad} I(x)=0$ только в точке $x=0$. – Прим. перев.

с $a
eq 0$, так как $\operatorname{det} S
eq 0$. Наконец, из вида матрицы
\[
A+\mu S=\left(\begin{array}{ccc}
\mu a & \boldsymbol{\beta} & 0 \\
-\beta & \mu a & 0 \\
0 & 0 & \tilde{A}+\mu \tilde{S}
\end{array}\right)
\]

следует, что собственное значение, близкое к $i \beta$, имеет действительную часть $\alpha(\mu)=a \mu$, и поэтому $\alpha^{\prime}(0)=a
eq 0\left[{ }^{3}\right]$.

Categories

1
Оглавление
email@scask.ru