1.3. Количество информации в сообщении
Для того чтобы
иметь возможность сравнивать различные источники сообщений и различные линии и
каналы связи, необходимо ввести некоторую количественную меру, позволяющую
оценивать содержащуюся в сообщении и переносимую сигналом информацию. Такая
мера в виде количества информации была введена К. Шенноном [1] на основе концепции
выбора, что позволило ему построить достаточно общую математическую теорию
связи.
Рассмотрим основные
идеи этой теории применительно к дискретному источнику, выдающему
последовательность элементарных сообщений. Попытаемся найти удобную меру количества
информации, заключенной в некотором сообщении. Основная идея теории информации
заключается в том, что эта мера определяется не конкретным содержанием данного
сообщения, а тем фактом, что источник выбирает данное элементарной т общение
из конечного множества
. Эта идея оправдана тем, что на ее
основании удалось получить ряд далеко идущих и в то же время нетривиальных
результатов, хорошо согласующихся с интуитивными представлениями о передаче
информации. Основные из этих результатов будут изложены далее.
Итак, если источник
производит выбор одного элементарного сообщения
(
) из множества алфавита
, то выдаваемое им количество информации
зависит не от конкретного содержания этого элемента, а от того, каким образом
этот выбор осуществляется. Если выбираемый элемент сообщения заранее определен,
то естественно полагать, что заключающаяся в нем информация равна нулю. Поэтому
будем считать, что выбор буквы
происходит с некоторой
вероятностью
.
Эта вероятность может, вообще говоря, зависеть от того, какая
последовательность предшествовала данной букве. Примем, что количество
информации, заключенное в элементарном сообщении
является непрерывной функцией этой
вероятности
,
и попытаемся определить вид этой функции так, чтобы он удовлетворял некоторым
простейшим интуитивным представлениям об информации.
С этой целью
произведем простое преобразование сообщения, заключающееся в том, что каждую
пару «букв»
,
создаваемых
последовательно источником, мы будем рассматривать как одну укрупненную
«букву». Такое преобразование назовем укрупнением алфавита. Множество
укрупненных «букв»
образует алфавит объемом
,
так как вслед за
каждым из
элементов
алфавита
может,
вообще говоря, выбираться любой из
элементов. Пусть
есть вероятность того, что
источник произведет последовательный выбор элементов
и
. Тогда, рассматривая
пару
,
как букву нового
алфавита
можно
утверждать, что в этой паре заключено количество информации
.
Естественно
потребовать, чтобы количество информации, заключенное в паре букв,
удовлетворяло условию аддитивности, т. е. равнялось сумме количеств информации,
содержащихся в каждой из букв
и
первоначального алфавита
. Информация,
содержащаяся в букве
, равна
, где
— вероятность выбора буквы
после всех букв, предшествовавших ей. Для
определения информации, содержащейся в букве
, нужно учесть вероятность выбора буквы
после буквы
с
учетом также всех букв, предшествовавших букве
. Эту условную вероятность
обозначим
. Тогда количество
информации в букве
выразится функцией
.
С другой стороны,
вероятность выбора пары букв по правилу умножения вероятностей равна
.
(1.2)
Требование
аддитивности количества информации при операции укрупнения алфавита приводит к
равенству
.
Пусть
и
. Тогда
для любых
и
должно
соблюдаться уравнение
(1.3)
Случаи
или
мы исключаем из
рассмотрения, так как вследствие конечного числа букв алфавита эти равенства
означают, что выбор источником пары букв
,
является невозможным событием.
Равенство (1.3)
является функциональным уравнением, из которого может быть определен вид
функции
.
Продифференцируем обе части уравнения (1.3) по р:
.
Умножим обе части полученного уравнения
на р и введем обозначение
, тогда
(1.4)
Это уравнение
должно быть справедливо при любом
и любом
. Последнее ограничение
не существенно, так
как уравнение (1.4) симметрично относительно
и
и, следовательно, должно выполняться
для любой пары положительных значений аргументов, не превышающих единицы. Но
это возможно лишь в том случае, если обе части (1.4) представляют некоторую
постоянную величину
, откуда
,
.
Интегрируя
полученное уравнение, найдем
, (1.5)
где
— произвольная постоянная
интегрирования.
Формула (1.5)
определяет класс функций
, выражающих количество информации при
выборе буквы
,
имеющей вероятность
,
и удовлетворяющих условию аддитивности. Для определения
постоянной интегрирования
воспользуемся высказанным выше условием,
по которому заранее предопределенный элемент сообщения, т. е. имеющий
вероятность
,
не содержит информации. Следовательно,
, откуда сразу следует, что
.
Что касается
коэффициента пропорциональности
, то его можно
выбрать произвольно, так как он определяет лишь систему единиц, в которых
измеряется информация. Однако, поскольку
, разумно выбирать
отрицательным, для того чтобы
количество информации было положительным. Наиболее простым является выбор
. Тогда
(1.6)
При
этом единица количества информации равна той информации, которая содержится в
элементарном сообщении, имеющем вероятность
(
— основание натуральных логарифмов),
или, другими словами, равна информации, содержащейся в сообщении о том, что
наступило событие, вероятность которого равнялась
. Такую единицу информации
называют натуральной единицей.
Чаще выбирают
. Тогда
или
(1.6а)
При таком выборе
единица
информации называется двоичной. Она равна информации, содержащейся в сообщении
о том, что наступило событие, вероятность которого равнялась ½ т. е.
которое могло с равной вероятностью наступить и не наступить. Иногда
используют и другие единицы информации, например десятичные. Мы будем применять
как двоичные, так и натуральные единицы количества информации. В тех случаях,
когда выбор единиц не играет роли, мы будем писать
, (1.6б)
считая, что логарифм берется по
любому основанию, лишь бы это основание сохранялось на протяжении решаемой
задачи.
Благодаря свойству
аддитивности информации выражения (1.6) позволяют определить количество
информации не только в букве сообщения, но и в любом сколь угодно длинном
сообщении. Нужно лишь принять за
вероятность выбора этого сообщения из
всех возможных с учетом ранее выбранных сообщений.