Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике 2. Негэнтропийный принцип информации; обобщение принципа КарноВ ситуации, описанной (12.2), мы уменьшили энтропию системы при посредстве некоторого внешнего агента. Если мы изолируем систему, то согласно принципу Карно при любой естественной дальнейшей эволюции системы
Возрастание энтропии может произойти за счет либо слагаемого Интересен случай, когда
и
или выраженный символически равенством (12.6). Равенство получается для обратимых преобразований, тогда как необратимые преобразования дают неравенства. Тот факт, что
Это соотношение получено при доказательстве того, что информация (свободная, так как символы предполагались абстрактными и не рассматривались как микросостояния физической системы) имеет максимум при равновероятных случаях. Раздел 3 этой главы будет посвящен обсуждению различных примеров, показывающих, что оба вида информации могут быть превращены в негэнтропию и что информация, как связанная, так и свободная, может быть получена только за счет негэнтропии некоторой физической системы. Мы можем переписать (12.4) в форме обратимой реакции:
Это утверждение приводит к обобщению принципа Карно
то
или
для случая, где в рассмотрение входит как связанная, так и свободная информация. Принцип деградации выражается через негэнтропию неравенством
Величина есть негэнтропия некоторой физической системы. Информационное слагаемое включает как связанную информацию, могущую увеличить оставаться неизменной при обратимом преобразовании, в противном случае она будет убывать. Эти неравенства относятся только к средним значениям. Во всех приложениях принципа Карно не исключена возможность возникновения случайных флуктуаций. Рассмотрим пример с участием как связанной, так и свободной информации. Пусть индивидуум располагает информацией, которая свободна, пока остается в его уме, и не связана поэтому непосредственно с какой-либо физической системой. Проследим потери информации при передаче ее другому индивидууму и на каждом шагу будем устанавливать, теряется ли свободная или связанная информация. A. Индивидуум располагает информацией, которая является свободной. B. Он говорит об этом собеседнику, и информация теперь связана: она преобразована в звуковые волны, или электрические импульсы, или другие физические возмущения, которые могут применяться для связи. При кодировании для передачи возможны ошибки. Это будет потерей свободной информации, так как ошибки происходят до преобразования в физическое возмущение. C. Вследствие искажений и теплового шума в системе связи некоторая доля информации может быть утрачена. Это есть потеря связанной информации. D. Собеседник тугоух и не воспринимает часть слов. При этом теряется связанная информация, но информация, полученная собеседником, теперь свободна, так как она находится в его уме. E. Спустя некоторое время собеседник забывает часть информации, и эта потеря есть потеря свободной информации. На каждом этапе имеется потеря информации; в наиболее благоприятном случае потери отсутствовали бы. Ситуация сходна с той, которая может получиться, когда маклер передает по телефону информацию о биржевых курсах. Нужно отметить, что потери на этапах В, D и Е представляют собой пограничные случаи. Иногда затруднительно различить свободную и связанную информации, в частности, в случаях, в которых участвует человек-наблюдатель. Мы должны, конечно, игнорировать все человеческие оценки. Так, например, мы исключаем случай, когда ученый собирает данные, а затем на основе их изучения открывает научный закон. Наши определения здесь не применимы. Мы смогли построить удовлетворительную теорию информации только путем исключения процесса мышления. Можно, конечно, надеяться, что в дальнейшем окажется возможным расширить теорию и включить в нее исследование такого рода проблем. Возвращаясь к формулам (12.6) и (12.10), мы можем резюмировать взаимосвязь между термодинамикой и теорией информации следующим образом:
При высокой температуре Г шум сильнее и работа, необходимая для передачи определенной информации, больше, так как необходимо перекрыть помехи.
|
1 |
Оглавление
|