Главная > БОЛЬШИЕ СИСТЕМЫ. СВЯЗНОСТЬ, СЛОЖНОСТЬ И КАТАСТРОФЫ (Дж. Касти)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Рассмотренные примеры свидетельствуют о том, что абстрактная характеристика данной ситуации может быть получена с помощью разных типов математического описания. Однако при этом естественно возникает вопрос: а для чего вообще нужно какое-либо математическое описание? Ответ на этот вопрос в значительной степени связан с нетривиальностью современных научных результатов и необходимостью уметь выделять существенные свойства описательных моделей. Кроме того, использование именно математического описания обусловлено следующими важными соображениями.

Компактность. Словесное (или вербальное) описание системы (или процесса), как правило, представляет собой нагромождение нечетких высказываний, которые лишь затуманивают существо дела. Избавиться от таких нечетких и не до конца продуманных соображений помогает компақтная патематическая символика. Математическое описание дает нам аналог знакомой картины и оказывается информативнее любого словесного описания.
ия Ясность. Использование математического описания позволяет каждому аспекту изучаемого процесса поставить в соолветствие определенный математический символ, в результате чего становится более наглядной взаимосвязь, существующая между различными параметрами процесса. Более того, подобное сопоставление позволяет гораздо проще, чем словесное описание, установить, не были ли упущены какиелибо существенные переменные, или, напротив, не были ли внесены какие-либо дополнительные несуществующие сложности при построении описания.

Возможность численного анализа. Қак только сделан выбор некоторого математического описания, последнее «начинает жить» собственной жизнью, более или менее независимой от самого исследуемого процесса. Другими словами, математическим описанием можно манипулировать в соответствии с обычными законами логики в надежде получить нетривиальное представление о самой системе. Кроме того, математическая модель дает основу для численного анализа, с помощью которого могут быть получены данные не только описательного, но и прогностического характера.

Рассмотрим кратко некоторые типы математического описания, которые мы будем использовать в этой книге.

Внутреннее описание
Со времен Ньютона динамические процессы описывали на языке дифференциальных (или разностных) уравнений, т. е. в терминах некоторых естественно выбранных переменных, таких как положение, температура, скорость и т. д. В общем виде такое описание может быть представлено как
\[
\dot{x}=f[x(t), u(t), t], \quad x(0)=x_{0}, \quad y(t)=h[x(t), u(t), t],
\]

где $x(t)-n$-мерный вектор, компоненты которого описывают состояние системы в момент времени $t, y(t)$ – $p$-мерный вектор наблюдаемых выходов системы, $u(t)-m$-мерный вектор входов системы и $x_{0}$ – начальное состояние системы. В дискретном времени динамика системы может быть описана с помощью разностных соотношений
\[
\begin{array}{l}
x(k+1)=F[x(k), u(k), k], \quad x(0)=x_{0}, \\
y(k)=H[x(k), u(k), k] .
\end{array}
\]

Наиболее важным свойством такого описания является то, что оно дает нам представление о поведении системы в некоторой локальной окрестности текущего состояния. При этом неявно предполагается, что локальная информация мо: жет быть каким-то образом «собрана воедино», что позволит понять глобальное (во времени или пространстве) поведение системы. Такой подход оказался достаточно обоснованным для анализа многих физических и технических задач. Однако возможность его использования в случае менее изученных объектов, в особенности систем социально-экономической природы, вовсе не очевидна.

Интересно отметить, что математическое описание указанного типа начали использовать только со времен Ньютона. До этого при описании физических процессов придерживались точки зрения, высказанной Аристотелем, согласно которой важность целого превыше важноєти его составляющих. Другими словами, значимость элементов, составляющих некоторое множество, трактовалась через значимость самого множества (как целого). Взгляды Аристотеля господствовали в физике на протяжении многих столетий, пока Галилей не высказал иную точку зрения, которая впоследствии была обоснована Ньютоном: целое обтясняется свойствами его элементарных (локальных) составляющих ${ }^{1}$ ).

Простые примеры локального описания можно найти в элементарной физике. Известно, например, что колебательное движение груза (маятника) единичной массы, подвешенного на нерастяжимой и невесомой нити единичной длины, описывается уравнением
\[
\ddot{x}+a \dot{x}+\sin x=u(t),
\]

где $a$-коэффициент трения, $u(t)$ – внешняя сила, действующая на груз, а $x(t)$ – отклонение груза от положения равновесия. Таким образом, уравнение (1.1) описывает мгновенное изменение положения и скорости маятника как функцию его текущего состояния (положения) и скорости, т. е. мы имеем локальное описание в координатах положение-скорость, что характерно для всех описаний динамических процессов на языке дифференциальных или разностных уравнений.

Внешнее описание
Тип математического описания, с которым чаще всего приходится иметь дело ученому-экспериментатору, – это связь вход-выход. Во многих отношениях такое описание диаметрально противоположно частному, локальному описа-
1) Сложность современной жизни, проявляющаяся в политике, экономике и социологии, стимулирует возрождение интереса к холистским теориям.

औию, поскольку оно не содержит деталей и единственным ұоступным источником информации является закономерность (өтображение), связывающая выходы системы с ее входами. При этом ничего не известно о внутреннем механизме преобразования входов в выходы. Го этой причине связь входвыход часто называют внешним описанием системы в отличие от внутреннего, или локального, описания (рис. 1.3).

Внутренние и внешние описания позволяют рассматривать систему как устройство, преобразующее входы в выходы в соответствии с правилами, определенными внутренним описанием. Иными словами, система $\Sigma$ является информационным процессором в некотором обобщенном смысле.
Рис. 1.3. Внутреннее и внешнее описание системы $\Sigma$.

Очевидно, что внутреннее описание говорит нам гораздо больше о способе действия системы, поскольку каждое такое описание порождает внешнее описание. Тем не менее построение модели связано с решением диаметрально противоположного вопроса: может ли внутренняя модель «объяснить» каждое внешнее описание? Ответом на этот вопрос по существу является решение так называемой задачи реализации, которая представляет собой один из важных аспектов математической теории систем.

Наиболее «сырая» возможная ситуация, при которой возникает необходимость в описании типа вход-выход, имеет место, когда мы располагаем всего лишь таблицей элементов (часто чисел), характеризующих реакцию (выход) системы на различные внешние воздействия (входы). В этом случае внешнее описание системы эквивалентно отображению
\[
f: \Omega \rightarrow \Gamma,
\]

где через $\Omega$ обозначено множество возможных входов, а через $\Gamma$ – множество возможных выходов системы. Как отмечалось, во многих задачах (в частности, психологии, экономики и общественных наук) множества $\Gamma$ и $\Omega$ представляют собой конечный набор элементов, связь между которыми описывается с помощью функции $f$.

Пример
Представим себе, что из летающего объекта вывалился загадочный ящик. Предположим, что эксперт, изучающий этот ящик, не имеет ни малейшего представления ни о его природе, ни о его содержимом. Вместе с тем эксперт может производить над ним некоторые действия (входыи) и наблюдать их результаты (выходы). Предположим для определенности, что элементами множества $\Omega$ и множества $\Gamma$ являются показания различных измерительных приборов. Тогда описание эксперимента типа вход – выход могло бы быть, например, таким:

Этот довольно тривиальный пример показывает, что входы и выходы системы являются функциями времени, т. е. нельзя один и тот же эксперимент провести дважды! Единственное, что можно сделать, – это провести следующий эксперимент, который хотя и незначительно, но будет отличаться от предыдущего.

Менее тривиальный пример внешнего описания системы дает «бихевиористская» школа психологов, для которой характерным является проведение эксперимента и запись его результатов в формате воздействие – реакция. По мнению представителей этой школы, такое внешнее описание системы дает максимум информации, которую вообще можно получить о ее структуре и функционировании. В то же время юзнавательная» школа придерживается другой точки зреиия, утверждая, что единственным удовлетворительным опи๗пием системы может быть только внутренняя модель.

Основываясь на довольно общих результатах теории систем, можно показать, что это спор ни о чем. Обе школы, в сущности, утверждают одно и то же, и с точки зрения теории систем эти дебаты столь же содержательны, как и дискуссии относительно того, какая сторона монеты наиболее полно отражает ее стоимость.

Системы с конечным числом состояний
В тех случаях, когда предположение о конечномерности пространства состояний заменяется предположением о конечности числа его элементов, мы имеем дело с классом систем, анализ которых возможен с помощью чисто алгебраических методов. Важность такой замены трудно переоценить, поскольку совокупность систем с конечным числом состояний включает все последовательные цифровые вычислительные машины.

Математическое описание системы $\Sigma$ с конечным числом состояний включает
– множество допустимых входов $U$,
– множество допустимых выходов $Y$,
– множество состояний $Q$,
– функцию перехода $\lambda: Q \times U \rightarrow Q$,
– функцию выхода $\gamma: Q \times U \rightarrow Y$.

При этом предполагается, что множества $U, Y$ и $Q$ конечны. Это позволяет представить описание системы $\Sigma$ в виде $\Sigma=$ $\left.=(U, Y, Q, \lambda, \gamma)^{1}\right)$.

Қак отмечалось, ограничения вычислительного характера с неизбежностью вынуждают нас явно или неявно сводить каждую системную задачу к виду, указанному выше. Поэтому необходимы тщательное изучение и понимание алгебраической структуры подобных «конечных» описаний, которая основывается на теории конечных полугрупп. Хотя рассмотрение этой теории выходит за рамки нашей книги «для первого чтения», тем не менее некоторые ее простейшие понятия и методы представлены в главе, посвященной сложности.
1) В литературе такое представление часто называют схематическим. При этом машина характеризуется внешней функцией вход-выход $f: \Pi U \rightarrow Y$, где $\Pi U=\left\{\left(u_{1}, u_{2}, \ldots, u_{n}\right): n \geqslant 1\right.$ и $\left.u_{i} \in U\right\}$. Здесь $f\left(u_{1}, u_{2}, \ldots, u_{n}\right)=Y_{n}$ понимается как выход в момент времени $n$, если $u_{j}$ – вход в момент времени $j, 1 \leqslant j \leqslant n$.

Прнмер
Пусть система $\Sigma$ состоит из симметрий вращения пра: вильного треугольника. Тогда некоторые возможные конечные пространства состояний могут иметь вид
2.

Для описания системы $\Sigma$ достаточно любого из этих пространств состояний, однако некоторые из них, по-видимому, удобнее использовать для вычислений результата воздействия $\lambda$ на состояние системы. Следовательно, пространство состояний вовсе не обязательно должно быть непосредственно привязано к реальному физическому процессу. Это чисто математическая условность, введенная для упрощения проблемы определения реакции системы на заданные внешние воздействия.

Пусть имеются два возможных отображения $\lambda_{1}$ и $\lambda_{2}$, переводящие одно состояние системы в другое и соответствующие повороту треугольника вокруг центра тяжести на 120 и $240^{\circ}$ соответственно. Результаты применения этих отображений к различным пространствам состояний можно представить в виде таблицы

ини
\[
\begin{array}{rlrl}
Q_{1} & \rightarrow Q_{1} ; & \lambda_{1}(\alpha, \beta, \gamma) & =(\gamma, \alpha, \beta) \\
\lambda_{1}: Q_{2} & \rightarrow Q_{2} ; & \lambda_{1}(q)=q+2 \pi / 3(\bmod 2 \pi) \\
Q_{3} & \rightarrow Q_{3} ; & \lambda_{1}(q)=q+1(\bmod 3) . \\
Q_{1} & \rightarrow Q_{1} ; & \lambda_{2}(\alpha, \beta, \gamma) & =(\beta, \gamma, \alpha) \\
\lambda_{2}: Q_{2} & \rightarrow Q_{2} ; & \lambda_{2}(q) & =q+4 \pi / 3(\bmod 2 \pi) \\
Q_{3} & \rightarrow Q_{3} ; & \lambda_{2}(q) & =q+2(\bmod 3) .
\end{array}
\]

Пространство $Q_{1}$, на первый взгляд излишне сложное, оказывается вполне оправданным для более сложных систем $\Sigma$, например в случае симметрий более общего вида, где могут присутствовать отображения типа отображений $\lambda_{3}$. В то же время пространства $Q_{2}$ и $Q_{3}$ не допускают очевидных обобщений на более сложные случаи с сохранением простоты вычислений.

Способ выбора конкретного пространства состояний системы называют ее координатизацией. При этом важно установить, всегда ли существует координатизация, которую можно считать «хорошей» с точки зрения описания поведения системы’). Ключевым моментом проблемы координатизации является алгебраическая структура модели системы в пространстве состояний. Действительно, согласно известной теореме декомпозиции Крона – Роудза, для конечных полугрупп существует связь между произвольными преобразованиями на конечном пространстве состояний и определенными удобными способами координатизации.

Энтропия и потенциальная функция
При изучении системы с более «целеустремленной», или информационио-теоретической, точки зрения описание системы дается на языке энтропии и потенциальных функций. Піо аналогии с классической механикой и теорией поля можно рассматривать реакцию системы на внешнее воздействие как динамическое изменение состояния системы, в-процессе которого она стремится минимизировать некоторую потенциальную функцию. В зависимости от конкретного вида системы и принятых допущений такая динамика может быть докальной в смысле движения системы к относительному минимуму, ближайшему к текущему состоянию, или глобальной
1) В дальнейшем мы уточним, что́ следует понимать под хорошей координатизацией, и покажем, что такая координатизация возможна для всех систем, имеющих конечное число конфигураций по отношению к переходам в пространстве состояний.

в смысле движения к абсолютному (глобальному) минимуму соответствующей потенциальной функции (рис. 1.4).

Приближенно описание динамического процесса на языке потенциальных функций включает следующие составляющие:
– пространство состояний (фазовое пространство) $X$,
– набор входных функций $\Omega$,
– гладкое отображение $f: X \times \Omega \rightarrow R$,

где $R$ есть пространство действительных чисел. При этом предполагается, что система ведет себя так, что при фикси-
Рис. 1.4. Описание системы с помощью потенциальной функции.
$a$ – основная идея; 6 -движение к локальному миннмуму; 8 – движение к глобальному минимуму; $x(a)-$ начальное положение системы, где $a$ – внещний параметр; $f(x, a)$ – потенциальная функия, Замена параметра $a$ на $a^{*}$ приводит к изменению положения потенциальная функция. Замена параметра $a$ на $a^{*}$ п

рованном входе $\omega \in \Omega$ ее наблюдаемое состояние соответствует локальному минимуму функции $f$.

Использование потенциальных функций для описания хорошо изученных физических систем оказалось весьма удачной альтернативой внутренних описаний. Успешное применение такого подхода в классической физике обусловлено существованием незыблемых вариационных принципов, таких как принципы Гамильтона, Ферма и Даламбера. В большинстве случаев внутреннее описание физического процесса на языке потенциальных функций естественным образом вытекает из описания с помощью потенциальных функций в силу уравнений Гамильтона – Якоби и Эйлера – Лагранжа,

В системах, которые являются предметом изучения обдественных наук, возможность использования подобного бинсания не столь обоснована из-за сложности применения варнационных принципов. Однако в ряде случаев при анатизе устойчивости или в теории катастроф знание точного вида потенциальной функции не является необходимым для определения важных качественных свойств системы – важен тинь сам факт ее существования (гл. 5).

С описанием системы на языке потенциальных функций тесно связана идея описания поведения систем с помощью энтропии. Как известно из классической термодинамики, энтропия является мерой беспорядка, существующего в данной физической системе. Мерой упорядоченности системы является отрицательная энтропия, или негэнтропия. В основе описания динамического процесса с помощью энтропии лежит предположение о преобразовании системой негэнтропии входа в информацию. Это означает, что все замкнутые системы изменяются таким образом, что минимизируют изменение знтропии. Таким образом, становится очевидной связь между описаниями на языке потенциальных функций и энтропии.

Чтобы показать общность описаний в терминах энтропии, перечислим основные аксиомы релятивистской теории информации, развитой Джюмэри для динамических процессов.

Аксиома 1. Система $\Sigma$ является частью некоторой вселенной $\mathcal{U}$ и развивается только постольку, поскольку она преследует некоторую цель $v$.

Аксиома 2. Для достижения цели $v$ система $\Sigma$ воспринимает информацию $I$ из окружающей среды и использует эту информацию для перестройки собственной организации (внутренней структуры) $a$, в результате которой увеличилась бы негэнтропия $n$, и для оказания воздействия $A$ на окружающую среду.

Аксиома 3. (Принцип эволюции.) Структурная энтропия $E$ системы $\Sigma$ определяется соотношением
\[
d E=d I / n
\]

и является неубывающей функцией эволюции $\Sigma$.
Аксиома 4. Вселенная $\mathcal{U}$ не может наблюдать собєгвенную эволюцию.

В силу этих аксиом уравнение состояния системы имеет вид
\[
f\left(H_{e}, H_{i}, v\right)=0,
\]

где $H_{e}$ – внешняя энтропия системы $\Sigma$ по отношению к фиксированному наблюдателю $R, H_{i}$ – внутренняя энтропия системы $\Sigma$ по отношению к наблюдателю $R, v$-цедь системы $\Sigma$ с точки зрения наблюдателя $R$. При таком подходе к описанию системы наблюдатель (или лицо, принимающее решения) играет особую роль, причем особый упор делается на кинематический подход, основанный на аналогах преобразования Лоренца для двух наблюдателей $R$ и $R^{\prime}$.

Анализируя уравнение состояния, можно заметить, что знание функции $f$ позволяет вычислить структурную энтропию $E$ системы с помощью соотношения
\[
d I=\alpha d H_{e}+\beta d H_{i},
\]

описывающего обмен информацией, где $\alpha$ и $\beta$ – некоторые постоянные.

Пример А. Одномерная динамика
Рассмотрим простую динамическую систему
\[
\dot{x}=u(t),
\]

где $x$ и $u$-скалярные функции. Поскольку внешняя энтропия $H_{e}$ обладает теми же свойствами, что и время $t$, произведем замену: $t \rightarrow H_{e}$. Более того, имеет смысл отождествить внутреннее состояние $x$ с внутренней энтропией $H_{i}$. Тогда динамика системы эквивалентным образом описывается уравнением
\[
d H_{i}-u\left(H_{e}\right) d H_{e}=0 .
\]

Попытаемся теперь построить функцию состояния $f$ в соответствии с приведенным выше ее определением. Из уравнения состояния следует, чँто
\[
\frac{\partial f}{\partial H_{e}} d H_{e}+\frac{\partial f}{\partial H_{i}} d H_{i}+\frac{\partial f}{\partial v} d v=0 .
\]

Не имея дополнительной информации о системе, можно предположить, что ее цель не меняется, и, следоватс.ино, $d v=0$. Интегрируя уравнение динамики, получаем
\[
f\left(H_{i}, H_{e}, v\right)=H_{i}-\int_{H_{e}^{0}}^{H_{e}} u(s) d s=0,
\]

где $H_{e}^{0}$ – внешняя энтропия в начальный момент времени $t_{0}$.
Проведенный анализ показывает, что система $\dot{x}=u$ не определена с точки зрения обмена информацией с окружающей средой, более того, такой обмен вообще не имеет места.

Пример Б. Стационарная динамика
Рассмотрим систему, описываемую уравнением
\[
\dot{x}=\phi(x(t)),
\]

которое способом, аналогичным рассмотренному в примере А. можно привести к виду
\[
d H_{i}-\phi\left(H_{i}\right) d H_{e}=0 .
\]
to
ڤхобы получить уравнение состояния, следует записать
\[
\begin{array}{l}
\frac{\partial f}{\partial H_{i}}=1 \Rightarrow f=H_{i}+\chi\left(H_{e}\right), \\
\frac{\partial f}{\partial H_{e}}=\phi\left(H_{i}\right) \Rightarrow \phi\left(H_{i}\right)=\chi\left(H_{e}\right) .
\end{array}
\]

Фднако эти соотношения противоречивы и уравнение динаұики следует рассматривать не как уравнение состояния, а жак уравнение обмена информацией
\[
d I=d H_{i}-\phi\left(H_{i}\right) d H_{e}=0 .
\]

६С Седовательно, система не обменивается информацией с окружающей средой и развивается с постоянной структурной янтропией, что находится в соответствии с автономным харақтером системы.
Остановимся теперь на релятивистском характере таких пписаний. Қак уже отмечалось, значения переменных $H_{e}, H_{i}$ и $v$ зависят от наблюдателя $R$. При такой интерпретации немедленно возникает вопрос о том, каковы значения этих величин относительно другого наблюдателя $R^{\prime}$ ? При заданных значениях указанных переменных для наблюдателя $R$ из теории относительности следует кинематический подход к решению этого вопроса в римановом пространстве с геодезической
\[
d \dot{\sigma}^{2}(\Sigma \mid R)=c^{2} d H_{e}^{2}(\Sigma \mid R)-d H_{i}^{2}(\Sigma \mid R)-d v^{2}(\Sigma \mid R),
\]

где универсальная постоянная $c$ определяется равенством
\[
H_{i}(\mathcal{U} \mid \mathcal{U})=c H_{e}(\mathcal{U} \mid \mathcal{U}) .
\]

Преобразования Лоренца для $R$ и $R^{\prime}$ имеют вид
\[
\begin{aligned}
H_{i}\left(\Sigma \mid R^{\prime}\right) & =\rho\left[H_{i}(\Sigma \mid R)+u\left(R \mid R^{\prime}\right) H_{e}(\Sigma \mid R)\right], \\
v\left(\Sigma \mid R^{\prime}\right) & =v(\Sigma \mid R), \\
H_{e}\left(\Sigma \mid R^{\prime}\right) & =\rho\left[H_{e}(\Sigma \mid R)+\frac{u\left(R \mid R^{\prime}\right)}{c^{2}} H_{i}(\Sigma \mid R)\right], \\
\rho & =\left[1-u^{2}\left(R \mid R^{\prime}\right) / c^{2}\right]^{-1 / 2},
\end{aligned}
\]

где
\[
u\left(R \mid R^{\prime}\right)=d H_{i}\left(R \mid R^{\prime}\right) / d H_{e}\left(R \mid R^{\prime}\right),
\]
т. е. $u\left(R \mid R^{\prime}\right)$ представляет собой организованность наблюдателя $R$ с точки зрения наблюдателя $R^{\prime}$.

В целом можно сказать, что «энтропийный» подход к анализу систем основан на трактовке системы, как некоторого единого целого. Отсюда следует, что понять сущность системы можно, лишь изучая ее взаимодействие с окружающей средой, т. е. с некой «вселенной». Взгляд на систему как на единое целое можно развнть, введя понятие связь. Весь комплекс связей и их характеристик приводит к понятиям структура и сложность системы. Рассмотрим тип описания систем, который оказывается особенно эффективным при таких структурных исследованиях.

Множества и отношения
Принято считать, что математическими абстракциями в основном оперирует теория множеств и отношений между их элементами. Поэтому целесообразно попытаться определить понятие системы в терминах этой теории. От конструктивного определения, естественно, можно потребовать, чтобы элементы соответствующих множеств и связывающие их отношения определялись спецификой конкретной системы. Тем не менее, если мы построим даже такое «специализированное» описание системы, оно даст весьма широкие возможности для анализа не только структуры системы, но и ее поведения в динамике.

В общем случае можно предположить, что существуют два конечных множества $X$ и $Y$, элементы которых как-то связаны с системой $\Sigma$. Это могут быть множества хищников и их жертв, множества типов автомобилей и дорог или множества предприятий службы быта и предлагаемых услуг. Для описания связи, существующей между двумя элементами $(x, y), x \in X, y \in Y$, введем на прямом произведении $X$ и $Y$ бинарное отношение $\lambda \in X X Y$.

Рассмотрим тривиальный пример, в котором $X$ есть множество товаров, а $Y$ – множество предприятий службы быта. Пусть для определенности
\[
\begin{array}{l}
X=\begin{array}{l}
\{\text { хлеб, молоко, марки, обувь }\} \\
\left\{x_{1}, x_{2}, x_{3}, x_{4}\right\},
\end{array} \\
Y=\begin{array}{l}
\{\text { гастроном, универмаг, банк, почта }\} \\
\left\{y_{1}, y_{2}, y_{3}, y_{4}\right\} .
\end{array} \\
\end{array}
\]

Определим отношение $\lambda$ на $X X Y$ следующим образом:
Отношение $\lambda$ существует между $x_{i} u y_{j}$ тогда и только тогда, когда $x_{i}$ можно купить в $y_{j}$.
В этом случае
\[
\lambda=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{1}\right),\left(x_{3}, y_{4}\right),\left(x_{4}, y_{2}\right)\right\} .
\]

Отношение $\lambda$ удобно представить матрицей инциденций
\[
\Lambda \quad \begin{array}{c|cccc}
\lambda & y_{1} & y_{2} & y_{3} & y_{4} \\
\hline x_{1} & 1 & 0 & 0 & 0 \\
x_{2} & 1 & 0 & 0 & 0 \\
x_{3} & 0 & 0 & 0 & 1 \\
x_{4} & 0 & 1 & 0 & 0
\end{array},
\]

причем
\[
[\Lambda]_{i j}=\left\{\begin{array}{l}
1,\left(x_{i}, y_{j}\right) \in \lambda, \\
0 \text { в протибном случав } .
\end{array}\right.
\]

С геометрической точки зрения отношение $\lambda$ определяет симплициальный комплекс $K_{x}(Y ; \lambda)$, в котором элементы множества $Y$ рассматриваются как вершины, а элементы множества $X$ являются симплексами. Так, элемент $x_{1}$ (хлеб) является 0 -симплексом, состоящим из вершины $y_{1}$ (гастроном). Если $K$ не содержит $r$-симплексов ( $r \geqslant 3$ ), его можно изобразить на плоскости. Для предыдущего примера множество $K$ имеет вид
\[
\underline{y}_{1} \underline{y}_{2} \quad \underline{y}_{4} .
\]

Хотя такая геометрическая структура не представляет особого интереса, тем не менее она все же показывает, что комп лекс не содержит связных компонент и что вершина $y_{3}$ (банк) не играет никакой роли в анализе $K_{X}(Y ; \lambda)$.

Определив подходящие множества $X$ и $Y$ и отношение ‘ $\lambda$, можно перейти еще к одному отношению, порождаемому $\lambda$, Это так называемое сопряженное отношение $\lambda^{*}$, которое получается, если поменять ролями множества $X$ и $Y$, т. е. $\lambda^{*} \in$ $\in Y X$, и строится в соответствии с правилом:

Отношение $\lambda^{*}$ существует между у $_{i}$ и $x_{i}$ тогда а только тогда, когда между $x_{j}$ и $y_{i}$ существует отношение $\lambda$. Матрица инциденций для $\lambda^{*}$ получается транспонированием матрицы инциденций для $\lambda$, т. е.
\[
\Lambda^{*}=\Lambda^{\prime} \text {. }
\]

В результате получим геометрический комплекс $K_{Y}\left(X ; \lambda^{*}\right)$, в котором $X$ – множество вершин, а $Y$ – множество симплексов. Можно показать, что для рассмотренного примера комплекс $K_{Y}\left(X ; \lambda^{*}\right)$ имеет вид

который, конечно же, гораздо более содержателен, чем полностью несвязная структура $K_{X}(Y ; \lambda)$ : вершины $x_{1}$ (хлеб) и $x_{2}$ (молоко) связаны 1-симплексом (гастроном).

Продемонстрируем общность описания систем на языке множеств и бинарных отношений еще на одном примере.

Пример. Шахматы
Чемпиоп мира по шахматам Эммануил Ласкер как-то заметил: «Если из 64 клеток шахматной доски вы контролируете 33 , то преимущество на вашей стороне». Для нас данное высказывание представляет особый интерес, так как оно свидетельствует о том, что главное для шахматиста – это «стратегическое» содержание игры, которое мы можем выразить непосредственно в виде отношения между множеством фигур и множеством клеток шахматной доски.

Рассмотрим два отношения $\lambda_{w}$ и $\lambda_{B}$, где $\lambda_{w}$ определяет связь между белыми фигурами и клетками доски, а $\lambda_{B}-$ то же для черных. Определим множества $X$ и $Y$ как
\[
\begin{aligned}
X= & \{\text { фигуры }\}^{1)} \\
& \text { QR, QN, QB, Q, K, KB, KN, KR, QRP, QNP, QBP, } \\
& \mathrm{QP}, \mathrm{KP}, \mathrm{KBP}, \mathrm{KNP}, \mathrm{KRP}\}^{2)}, \\
Y= & \{\text { клетки }\} .
\end{aligned}
\]
1) Используются стандартные международные обозначения для фигур: король- $\mathrm{K}$; ферзь $-\mathrm{Q}$, слон – $\mathrm{B}$, конь- $\mathrm{N}$, ладья $-\mathrm{R}$, пешка – $\mathrm{P}$; при этом прелполагается, что клетки доски также упорядочены соответствующим образом.
2) Имеются в виду следующие обозначения: буква $Q$ в двухбуквенных символах означает ферзевый фланг, а $\mathrm{K}$-королевский. Средняя буква в трехбуквенных символах (для пешек) обозначает фигуру, перел которой стоит данная пешка в начальной позиции. – Прим. перев,

Пусть заданы $x_{i}$ и $y_{i}$; определим отношение $\lambda_{w}$ следуюtиим образом:
$\left(x_{i}, y_{j}\right) \in \lambda_{w}$ тогда и только тогда, когда фигура $x_{i}$ «атакует» клетку $y_{j}$.
Иод термином «атакует» понимается одна из следующих dnтуаций.
– Если ход белых и если фигура $x_{i}$ не пешка и не король, то ход $x_{i} \rightarrow y_{j}$ – правильный (разрешенный) ход.
й – Если фигура $x_{i}$ – пешка, то клетка $y_{i}$ находится под боем со стороны фигуры $x_{i}$.
– Если клетка $y_{j}$ занята белой фигурой, то фигура $x_{i}$ зацищает эту фигуру.
– Если фигура $x_{i}$ – белый король, то клетка $y_{i}$ является соседней клеткой по отношению к клетке, занимаемой фигурой $x_{i}$.
– Если клетка $y_{j}$ занята черной фигурой (но не королем) н если ход белых, то взятие данной черной фигуры фигурой $x_{i}$ – правильный ход.
– Черный король занимает клетку $y_{j}$ и находится под махом фигуры $x_{i}$.
Аналогично определяется отношение $\lambda_{B}$.
Отметим, что $\lambda_{w}$ зависит от состояния игры (от расположения фигур на доске и от того, чей ход).

Внимательный читатель, несомненно, заметил некоторое сходство между теоретико-множественным описанием системы и более привычным описанием в терминах теории графов на языке узлов и дуг (или вершин и ребер). По существу, данное выше определение совпадает с описанием на языке теории графов, если определить $X, Y$ как множества вершин, соединенных ребрами в соответствии с отношением $\lambda$. Хотя при таком переходе в значительной степени утрачивается его гибкость, так как при этом исчезает (в лучшем случае затушевывается) универсальность отношения $\lambda$, тем не менее оно оказывается полезным во многих ситуациях.

Для теории систем наиболее существенным является описание динамики системы. Поэтому, чтобы понять, каким образом динамические переходы учитываются при теоретикомножественном описании процесса, введем понятие образ. Вообще говоря, образ П есть отображение, которое каждому симплексу из комплекса ставит в соответствие определенное число, т. е.
\[
\Pi: \sigma^{i} \rightarrow k,
\]

где $\sigma^{i}$-симплекс из $K$, а $k$-определенная система чисел (действительных, целых и т. д.). Поскольку каждый симплекс из $K$ обладает некоторой геометрической размерностью, которая определяется числом его вершин, то образ П является ранжированным образом ${ }^{1}$ )
\[
\Pi=\Pi_{0} \oplus \Pi_{1} \oplus \ldots \oplus \Pi_{N},
\]

где $N=\operatorname{dim} K$ – размерность наибольшего симплекса из $K$. Здесь каждое $\Pi_{i}$ является отображением, определенным только на множестве $i$-мерных симплексов из $K$.

Поясним понятие образа на примере системы хищникжертва. Напомним, что мы ввели два множества
\[
\begin{array}{l}
X=\text { Множество жертв, } \\
Y=\text { Множество хищников }
\end{array}
\]

с матрицей инциденций
\[
\begin{array}{r|cccccccc}
\lambda & x_{1} & x_{2} & x_{3} & x_{4} & x_{5} & x_{6} & x_{7} & x_{8} \\
\hline y_{1} & 1 & 1 & 1 & 1 & 0 & 0 & 0 & 0 \\
y_{2} & 1 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\
y_{3} & 0 & 0 & 0 & 0 & 1 & 1 & 0 & 0 \\
y_{4} & 0 & 1 & 0 & 0 & 1 & 0 & 1 & 1 \\
y_{5} & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\
y_{6} & 0 & 1 & 0 & 0 & 1 & 0 & 0 & 0
\end{array} .
\]

Таким образом, $y_{1}$ (люди) – это 3-симплекс, $y_{4}$ (птицы)3 -симплекс и т. д. Образ П при этом ставит в соответствие каждому симплексу некоторое число, скажем численность популяции в данный момент. Поскольку симплексы ранжированы по их размерности, то и $\Pi_{i}$ также ранжированы, поэтому в каждый момент
\[
\begin{array}{l}
\left.\Pi_{0}:\left\{y_{5} \text { (рыбы }\right)\right\} \rightarrow \text { численность рыб } \\
\left\{y_{2} \text { (львы) } \rightarrow\right. \text { численность львов } \\
\left.\Pi_{1}:\left\{y_{3} \text { (слоны }\right)\right\} \rightarrow \text { численность слонов } \\
\quad\left\{y_{6}(\text { лошади })\right\} \rightarrow \text { численность лошадей } \\
\Pi_{2}: \quad \text { пусто } \\
\Pi_{3}:\left\{y_{1} \text { (люди) }\right\} \rightarrow \text { численность народонаселения } \\
\quad\left\{y_{4} \text { (птицы) } \rightarrow\right. \text { численность птиц }
\end{array}
\]

Полный образ для данной экосистемы имеет вид
\[
\Pi=\Pi_{0} \oplus \Pi_{1} \oplus \Pi_{2} \oplus \Pi_{3} .
\]

Динамику системы можно теперь описать изменениями образа П в каждый момент времени. Подробная интерпрета-
1) В оригинале «graded pattern». Прим. перев.

ция этих изменений как сил, воздействующих на фиксированную геометрию комплекса, или как «свободных» изменений, допускаемых геометрией комплекса, дается в гл. 3. Отметим, что первая трактовка соответствует классическим ньютоновым силам, в то время как вторая отражает основные положения теории относительности.

Categories

1
Оглавление
email@scask.ru