Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
1.4. Элементы теории информацииВ природе многие процессы связаны с передачей, преобразованием и хранением, информации. Обычно под информацией понимаются те новые сведения об окружающем мире, которые мы получаем в результате взаимодействия с ним, приспосабливаясь к нему и изменяя его в этом процессе приспособления. Комитетом научно-технической терминологии Академии Наук СССР рекомендуется следующее определение: «Информация — это сведения, являющиеся объектом хранения, передачи и преобразования». Во многих случаях нужно уметь определять количество информации. В 1927 г. Р. Хартли (Англия) предложил и обосновал количественную меру информации, которая явилась отправной точкой теории информации. Эта мера информации записывается так [43, 124]:
где I — количество информации; Формулу (1.9) можно представить в виде
Наиболее удобен выбор основания логарифма, равного двум. При этом за единицу количества информации принято считать информацию сообщения, содержащего один элемент В случае одинаковой вероятности всех сообщений
Тогда количество информации можно выразить через вероятности поступления сообщений:
Если сообщения неравновероятны и независимы друг от друга, то пользуются понятием средней информации [46]: Средняя информация на один элемент сообщения называется энтропией:
Величина
Если сообщения неравновероятны, среднее количество информации, содержащееся в одном сообщении, будет меньшим. Пример. Пусть передается текст, в котором использованы 32 буквы алфавита
Рис. 1. Энтропия Пример. Имеем источник сообщений» с двумя состояниями
Задаваясь величиной Энтропия, а следовательно, и количество информации равны нулю источника, то сообщение об этом не несет никакой информации. Количество информации, определяемое по формуле (1.15), представляет собой среднее количество информации, приходящееся на один элемент сообщения. В общем случае, когда вероятности отдельных состояний разные и взаимозависимые, количество информации определяется формулой, выражающей условную энтропию [46, 114]:
где
|
1 |
Оглавление
|