Главная > Наука и теория информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

ГЛАВА 20. ИНФОРМАЦИЯ, ОРГАНИЗАЦИЯ И ДРУГИЕ ПРОБЛЕМЫ

1. Информация и организация

Мы смогли исследовать информационное содержание записанного предложения, совокупности чисел и многих других случаев, к которым наше статистическое определение информации может непосредственно применяться. Мы можем сходным образом подсчитать информацию, содержащуюся в чертеже, при условии, что чертеж может быть представлен конечным числом символов. Рассмотрим, например, схему некоторого электрического устройства. Мы можем занумеровать все имеющиеся на схеме зажимы от 0 до и описать схему, указав номера соединенных между собой зажимов: скобка будет означать, что мы должны соединить зажим с зажимом . Для конечного числа зажимов число Р возможных соединений конечно; данная схема выбирает из этого числа одну частную систему. Схема содержит, следовательно, информацию

в соответствии с определениями главы 1. Еще раз подчеркнем точный смысл такого определения: оно не делает различия между схемой действующего устройства и другой схемой, которая дала бы никчемную структуру с короткими замыканиями и другими недостатками. Информация, которую мы подсчитываем, это как раз та информация, которая дается человеку, выполняющему монтаж схемы, и она ничего не говорит о том, что устройство должно делать.

Вопросы о том, почему выбрана данная схема и как она работает, не рассматриваются. Это составляло задачу ученого или инженера, который проектировал устройство. Это потребовало

мышления и научного обсуждения и, может быть, других человеческих процессов, которые все находятся вне рамок наших теперешних методов исследования.

Рассмотрим пример: электрическое устройство содержит элементов, каждый из которых имеет зажимов, и q зажимов для внешних соединений. Всего имеется

зажимов, каждый из которых может быть соединен с любым другим, что дает:

различных возможностей. Информация, содержащаяся в одной схеме, равна

Беря , получим информацию в двоичных единицах

Возьмем разумные по порядку величины

что дает:

Это — большая цифра в двоичных единицах, но если перевести в единицы энтропии, то мы должны умножить ее на (этот множитель представляет приближенно отношение единиц) и получим негэнтропию

т. е. пренебрежимо малую величину.

Машина, построенная по нашим спецификациям, содержит такую структурную негэнтропию, которая представляет информацию или организацию машины. Отрицательным членом можно, однако, полностью пренебречь в сравнении с полной энтропией машины. Этот пример выявляет некоторые характерные особенности всей теории.

Негэнтропийный принцип информации требует, чтобы всякая информация была связана с соответствующим отрицательным членом в выражении для физической энтропии системы. Эта связь существенна для логической полноты, что было показано рассуждениями глав 8—18.

На практике этими отрицательными членами можно в большинстве случаев пренебречь вследствие малости множителя , вводимого при переходе от двоичных единиц к термодинамическим единицам!). Частные организации могут содержать очень большое количество информации в двоичных единицах. Рассмотрим, например, телефонную сеть масштаба, сравнимого с американской системой. Число абонентов имеет порядок десятков миллионов, но будем щедры и положим, что число абонентов составляет сто миллионов:

Прямое применение соотношения типа (20.3) показывает, что в некоторый данный момент количество информации, содержащееся во всей системе, по порядку величины равно

что остается все же очень малой величиной , будучи выражено в единицах энтропии.

Трудно представить себе какое-либо техническое устройство, содержащее много большее количество информации, чем в предыдущем примере, но, обращаясь к живым организмам, мы встречаемся с величинами совершенно другого порядка. Число клеток может быть порядка , и трудно оценить число взаимосвязанных химических молекул в живом организме. Информация, содержащаяся в живом организме, может достигать значительных величин по шкале энтропий. Но это — пока неисследованная область.

1
Оглавление
email@scask.ru