ИНФОРМАЦИЯ (лат. informatio — разъяснение, изложение, осведомленность)
— одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т. п. Понятие И. обычно предполагает наличие двух объектов — источника И. и потребителя И. (адресата). И. можно рассматривать как философскую категорию, и в современном учении об И. можно видеть конкретизацию ленинского тезиса о свойстве отражения, присущего всей материи. Отражение не сводится к простому физ. взаимодействию двух объектов. Информация, переносимая сигналом, как правило, всегда имеет некоторый смысл (для потребителя), отличный от смысла самого факта поступления сигнала. Это достигается за счет спец. соглашений. по которым, скажем, один удар барабана свидетельствует о приближении противника. Для человека, не знающего о таком соглашении, этот звук такой И. не несет. Другими словами, И. бывает о чем-то, и сигнал об этом, принимаемый потребителем, может и не иметь прямой физ. связи с событием или явлением, о котором он сигнализирует. В этом смысле И. выступает как свойство объектов и явлений (процессов) порождать многообразие состояний, которые посредством отражения передаются от одного объекта к другому и запечатлеваются в его структуре (возможно, в измененном виде).
При изучении И. возникают проблемы в техническом, семантическом и прагматическом аспектах. Технические — посвящены вопросам точности, надежности, скорости передачи сигналов связи и т. п. Семантические проблемы направлены на исследование того, как точно можно передавать смысл текста с помощью кодов. Прагматические проблемы заключаются в том, насколько эффективно И. влияет на поведение адресата. Понятие И. является одним из осн. понятий кибернетики (подобно понятию энергии в физике). При любом процессе управления или регулирования, осуществляемом живым организмом или автоматически действующей машиной либо устройством, происходит переработка входной И. в выходную.
Для того, чтобы И. могла быть передана от источника к адресату, состояния источника должны быть каким-то образом отражены во внешней (по отношению к источнику и адресату) среде, воздействующей на приемные органы адресата. Следовательно, И. во внеш. среде выражается с помощью некоторых материальных объектов (носителей И.), ассортимент и способ расположения которых задают И. Отображение мн-ва состояний источника во мн-во состояний носителя наз. способом кодирования, а образ состояния при выбранном способе кодирования — кодом этого состояния (или кодом И., задаваемой этим состоянием).
Абстрагируясь от физ. сущности носителей информации и рассматривая их как элементы некоторого абстрактного мн-ва, а способ их расположения как отношение в этом мн-ве, приходят к абстрактйому понятию кода И. как способа ее представления. При таком подходе код И. можно рассматривать как модель математическую, т. е. абстрактное мн-во с заданными на нем предикатами. Эти предикаты определяют тип элементов кода и расположение их друг относительно друга.
Чаще всего каждое отдельное состояние источника представляется одной буквой некоторого конечного алфавита А, а последовательность сменяющихся во времени состояний — последовательностью букв, т. е. словом в алфавите А. В зависимости от того, каким кодом задана одна и та же И., ее передача и переработка представляет различные тех. трудности. Так, напр., в ЦВМ удобнее представлять числа в двоичной системе счисления, а не в десятичной, числовую И. удобнее передавать спец. телеграфным кодом, а не с помощью телефона. Различные способы представления И., специально приспособленные для конкретных случаев, связанных с ее передачей, хранением и переработкой, рассматривает кодирования теория (см. также Кодирование автоматное).
В настоящее время наиболее исследованы тех. проблемы И. Раздел науки, посвященный этим проблемам, наз. информации теорией (см. также Информации передача). Основы этой науки заложил амер. ученый Р. Хартли в 1928, определив меру к-ва И. для некоторых задач каналов связи. Позже другую, более общую меру к-ва И. для этих же задач предложил амер. ученый К. Э. Шеннон (р. 1916), введя в качестве меры неопределенности системы энтропию
, где
вероятность того, что система находится в
состоянии. Величина устраненной неопределенности системы в результате получения И. принята количественной мерой И. Введенное таким образом информации количество не совпадает с общепринятым понятием количества И. как числа и важности полученных сведений, т. к. при исследовании тех. проблем не учитываются ни семантические, ни прагматические аспекты. Введенное в теории И. понятие количества И. служит только для решения тех. вопросов, напр., оптим. кодирования И. (при этом отвлекаются от ее смысла).
Введенное К. Э. Шенноном понятие к-ва И. не адекватно интуитивному представлению об И. и является уточнением последнего для некоторого класса ситуаций, возникающих при изучении каналов связи. Понятие к-ва И. возникло из задач теории связи и, по существу, применимо только к этим задачам. Недостаточность такого представления об И. начинает проявляться при попытке увязать к-во получаемой И. с поведением получателя, решающего некоторую задачу. В этом случае требуется иметь меру И., отражающую полезность сообщения для получателя. Здесь энтропия не всегда приемлема в качестве меры неопределенности. Для задач, в которых система характеризуется более сложной мерой неопределенности, измеряемая И. имеет новые качественные стороны.
Для некоторых задач в качестве меры неопределенности можно использовать выражение:
Величина N (Р, Q) рассматривается как неопределенность системы с распределением вероятности состояния Р для получателя, который исходит из гипотезы, что это распределение равно Q. Энтропия является частным случаем выражения N (Р, Q) при
В этих задачах предполагается, что сообщения уточняют представление получателя о системе. И. о системе, как и прежде, измеряется изменением неопределенности о системе. При этом изменения могут быть как увеличивающие, так и уменьшающие эту неопределенность.
Различают несколько видов И. Полная И. — это к-во И., приобретаемое при полном выяснении состояния некоторой системы и равное энтропии этой системы. Частная И. - к-во И., содержащееся в отдельном сообщении, утверждающем, что система находится в определенном мн-ве состояний. Полная взаимная И. - уменьшение неопределенности системы X в результате того, что становятся известными положения системы У. Частная взаимная И. о системе — это к-во И. о системе X, содержащееся в отдельном сообщении, указывающее, что система Y находится в определенном мн-ве состояний. Полезная И. - к-во И., содержащееся в отдельном сообщении, уменьшающее неопределенность сведений о системе. Изменение неопределенности сведений о системе под влиянием сведений в поступающих сообщениях интерпретируется как процесс запасания полезной И. о системе. Отрицательные значения полезной И. расцениваются как дезинформация. Сообщения, не изменяющие неопределенности сведений о системе, не несут в себе полезной И. В данной постановке задачи может оказаться, что одно и то же сообщение содержит разное к-во полезной И. для различных получателей. Если получатели исходят из разных гипотез, то одно и то же сообщение может уточнить представление о системе для одного из получателей и не добавить ничего нового к сведениям другого получателя. Такие качественные стороны измеряемой И. более соответствуют нашему интуитивному представлению о ней. Но для рассмотренных определений И. существенна статистическая модель ситуации, которая не всегда может быть создана.
Очень важной характеристикой И. является ее доступность для получателя. К-во И., которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 сек. Эта порция И. задерживается в сознании примерно 10 сек, т. е. человек воспринимает 16 бит в 1 сек, и одновременно в его сознании удерживается 160 бит. Что же касается др. видов И., то пропускная способность нервной системы может быть гораздо большей. Для задач анализа текстов (напр., машинного перевода) эта характеристика способности получателя к восприятию И. является одной из важнейших.
Машинный перевод невозможен без наличия в машине определенных сведений. В результате анализа большого числа текстов этот объем сведений увеличивается, и способность машины воспринимать И. растет. Такой процесс интерпретируется как пополнение и перестройка машинного справочника (тезауруса) в результате анализа текстов. Тезаурус — описание мн-ва состояний некоторой модели внеш. среды. Текст рассматривается как некоторый оператор над тезаурусом. Количеством семантической
., содержащейся в тексте относительно тезауруса, наз. мера изменения тезауруса в результате анализа текста. Подобная концепция семантической И. способна обслужить ситуации, где возникает потребность в оценке прагматической ценности И. Понятие семантической И. может приобрести общественный характер, если создать тезаурусы, являющиеся моделью общественного мышления.
Лит.: Колмогоров А. Н. Предисловие к русскому изданию. В кн.: Эшби У. Р. Введение в кибернетику. Пер. с англ. М., 1959; Яглом А. М., Яглом И. М. Вероятность и информация. М., 1973 [библиогр. с. 487—500]; Шрейдер Ю. А. О количественных характеристиках семантической информации. «Научно-техническая информация», 1963, М 10; Вонгард М. М. Проблема узнавания. М., 1967; Урсул А. Д. Природа информации. М., 1968; Хартли Р. В. Л. Передача информации. В кн.: Теория информации и ее приложения. М., 1959; Бриллюэн Л. Наука и теория информации. Пер. с англ. М., 1960; Шеннон К. Работы по теории информации и кибернетике. Пер. с англ. М., 1963 [библиогр. с. 783—820]; Фано Р. М. Передача информации. Статистическая теория связи. Пер. с англ. М., 1965.
Д. К. Лисенбарт, Ю. П. Спокан.