ГЛАВА 20. ИНФОРМАЦИЯ, ОРГАНИЗАЦИЯ И ДРУГИЕ ПРОБЛЕМЫ
1. Информация и организация
Мы смогли исследовать информационное содержание записанного предложения, совокупности чисел и многих других случаев, к которым наше статистическое определение информации может непосредственно применяться. Мы можем сходным образом подсчитать информацию, содержащуюся в чертеже, при условии, что чертеж может быть представлен конечным числом символов. Рассмотрим, например, схему некоторого электрического устройства. Мы можем занумеровать все имеющиеся на схеме зажимы от 0 до
и описать схему, указав номера соединенных между собой зажимов: скобка
будет означать, что мы должны соединить зажим
с зажимом
. Для конечного числа зажимов число Р возможных соединений конечно; данная схема выбирает из этого числа одну частную систему. Схема содержит, следовательно, информацию
в соответствии с определениями главы 1. Еще раз подчеркнем точный смысл такого определения: оно не делает различия между схемой действующего устройства и другой схемой, которая дала бы никчемную структуру с короткими замыканиями и другими недостатками. Информация, которую мы подсчитываем, это как раз та информация, которая дается человеку, выполняющему монтаж схемы, и она ничего не говорит о том, что устройство должно делать.
Вопросы о том, почему выбрана данная схема и как она работает, не рассматриваются. Это составляло задачу ученого или инженера, который проектировал устройство. Это потребовало
мышления и научного обсуждения и, может быть, других человеческих процессов, которые все находятся вне рамок наших теперешних методов исследования.
Рассмотрим пример: электрическое устройство содержит
элементов, каждый из которых имеет
зажимов, и q зажимов для внешних соединений. Всего имеется
зажимов, каждый из которых может быть соединен с любым другим, что дает:
различных возможностей. Информация, содержащаяся в одной схеме, равна
Беря
, получим информацию в двоичных единицах
Возьмем разумные по порядку величины
что дает:
Это — большая цифра в двоичных единицах, но если перевести в единицы энтропии, то мы должны умножить ее на
(этот множитель представляет приближенно отношение единиц) и получим негэнтропию
т. е. пренебрежимо малую величину.
Машина, построенная по нашим спецификациям, содержит такую структурную негэнтропию, которая представляет информацию или организацию машины. Отрицательным членом можно, однако, полностью пренебречь в сравнении с полной энтропией машины. Этот пример выявляет некоторые характерные особенности всей теории.
Негэнтропийный принцип информации требует, чтобы всякая информация была связана с соответствующим отрицательным членом в выражении для физической энтропии системы. Эта связь существенна для логической полноты, что было показано рассуждениями глав 8—18.
На практике этими отрицательными членами можно в большинстве случаев пренебречь вследствие малости множителя
, вводимого при переходе от двоичных единиц к термодинамическим единицам!). Частные организации могут содержать очень большое количество информации в двоичных единицах. Рассмотрим, например, телефонную сеть масштаба, сравнимого с американской системой. Число абонентов имеет порядок десятков миллионов, но будем щедры и положим, что число абонентов составляет сто миллионов:
Прямое применение соотношения типа (20.3) показывает, что в некоторый данный момент количество информации, содержащееся во всей системе, по порядку величины равно
что остается все же очень малой величиной
, будучи выражено в единицах энтропии.
Трудно представить себе какое-либо техническое устройство, содержащее много большее количество информации, чем в предыдущем примере, но, обращаясь к живым организмам, мы встречаемся с величинами совершенно другого порядка. Число клеток может быть порядка
, и трудно оценить число взаимосвязанных химических молекул в живом организме. Информация, содержащаяся в живом организме, может достигать значительных величин по шкале энтропий. Но это — пока неисследованная область.