Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
§ 81. ЭКСКУРС В ТЕОРИЮ ИНФОРМАЦИИ. КОЛИЧЕСТВО ИНФОРМАЦИИСпектральный анализ позволяет сравнительно просто ввести основные представления современной теории информации. Последняя иногда считается чисто математической теорией. Однако она тесно связана с физикой электромагнитных волн, хотя бы потому, что основным приложением последней является радиосвязь в широком смысле этого слова, т. е. передача информации посредством электромагнитных сигналов. Для осуществления оптимальной радиосвязи необходима количественная теория информации. Примером радиосвязи, использующей предельные технические возможности, является дальняя космическая связь, скажем, с автоматическими станциями на Марсе или Венере, космическими кораблями вблизи Юпитера и т. д. Выбор оптимальных условий всех звеньев такой связи имеет решающее значение. Другим поучительным примером умелого использования технических возможностей (хотя еще далеко не полного) является современная система цветного телевидения. По-видимому, первые попытки количественной оценки информации применительно к телеграфной связи по кабелю предприняты еще на рубеже нашего столетия английским физиком Томсоном (лордом Кельвином). Трудности в создании теории информации были отчасти психологического характера. Мы слишком привыкли связывать понятие информации с деятельностью живых или даже только разумных существ, которая, казалось бы, не поддается «грубому» анализу физики и математики, а является процессом более высокого порядка. Первая брешь в этой глухой стене мистического представления о жизни была пробита кибернетикой — новой наукой, связанной с именами, главным образом, Винера и фон Неймана. Кибернетика позволила не только понять на базе точных наук сущность жизни вообще и разумной жизни в частности, но и указала пути создания искусственной жизни и разума. Вопрос о том, является ли кибернетическая модель жизни исчерпывающей, остается, конечно, открытым, однако можно утверждать, что в настоящий момент нет никаких данных, противоречащих такой модели. Вполне естественно, что одновременно бурно развивалась и теория информации, являющаяся составной частью кибернетики. Возникновение теории информации связано главным образом, с именем американского математика Шеннона (1949 г.)« Как же можно измерять информацию? В частности, как измерить информацию, содержащуюся в сигнале? Частично эта задача была решена еще в 1933 г. советским физиком Котельниковым. Мерой информации сигнала
чисел (амплитуды и фазы Котельников получил также явное выражение, позволяющее точно восстановить сигнал Задача. Восстановить сигнал Пусть спектр сигнала ограничен интервалом
откуда
Коэффициенты этого ряда
Это и есть формула Котельникова. Если длительность сигнала ограничена интервалом Т, для его точного восстановления требуется Такое определение является неполным. Остается нерешенным вопрос, сколько информации содержится в каждом из параметров сигнала (81.1)? Ответ, вообще говоря, различен и зависит, в частности, от точности измерений, уровня помех и пр. Собственно количественное определение и составляет основу современной теории информации. Начнем с дискретных сигналов. Как мы увидим ниже, теорема Котельникова позволяет обобщить результаты, полученные для этого случая, на широкий класс непрерывных сигналов. Под информацией понимается выбор из некоторого числа априорных возможностей. Элементарным информационным актом считается выбор из двух равновероятных возможностей. Такая единица информации называется бит Теперь посмотрим, к чему приведет усложнение передаваемого сообщения. Пусть сообщение содержит одно
Эта формула (Хартли, Если в каждом разряде слова возможно не два, а
Нетрудно заметить связь определенной таким образом информации со статистической энтропией, которая также пропорциональна логарифму числа возможных состояний системы. Это позволяет дать общее определение количества информации как уменьшения энтропии системы в результате полученной информации (см. § 83). Используя выражение Больцмана для энтропии, можем написать
где
|
1 |
Оглавление
|