ИНФОРМАЦИИ КОЛИЧЕСТВО
— теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой случайной величины. Если
и
— дискретные случайные величины и
соответственно распределения вероятностей случайных величин
и пары
, то И. к.
В общем случае, когда случайные величины принимают значения в некоторых измеримых пространствах X и Y соответственно, И. к. определяют следующим образом. Пусть измеримые ф-ции, принимающие конечное число значений. Тогда дискретные случайные величины, и И. к. в относительно
где верхняя грань берется по всем парам ф-ций принимающих конечное число значений. Если дискретные величины, определение (2) сводится к определению (1). Если же — непрерывные величины, имеющие совместную плотность распределения с маргинальными плотностями , то из следует, что
Хотя данное выше определение И. к. оказалось полезным с точки зрения проблем информации передачи, оно не может быть единой мерой И. к., равноприменимой во всех случаях. Меру И. к. нужно выбирать в каждом конкретном случае, исходя из конкретных обстоятельств. Напр., далеко не во всех случаях целесообразно задавать И. к. в терминах распределения вероятностей. математик А. Н. Колмогоров определяет И. к. в объекте как сложность его вычисления при помощи некоторого универсального алгоритма. В некоторых ситуациях более разумной мерой неопределенности, чем энтропия, может служить, напр., дисперсия случайной величины g, поэтому разность безусловной и сред, значения условной дисперсии
можно с равным основанием считать мерой И. к. g относительно Некоторые основные свойства И. к. таковы: 1) величина не зависит от значений, принимаемых случайными величинами , а зависит лишь от совместного распределения этих величин; 2) величина причем тогда и только тогда, когда g и независимы, может обращаться и в величина симметрична относительно , это означает, что И. к. в g относительно совпадает с И. к. в относительно g; 4) если любая ф-ция, заданная на пространстве X, то что вполне согласуется с представлением о том, что И. к. в g относительно ) не меньше, чем И. к. в некоторой ф-ции от g относительно ; что также согласуется с интуитивным представлением о И. к.; 6) в случае, когда — дискретная случайная величина, И. к. где энтропия g. В остальных случаях всегда Между И. к. и энтропией в дискретном случае (или дифф. энтропией в непрерывном случае) существует следующая связь. В дискретном случае
где соответственно энтропии величин и пары а сред, условная энтропия g при условии
где распределение , а условное распределение g при фиксированном значении . Аналогично этому, для непрерывных
где соответственно дифф. энтропии величин и пары сред, условная дифф. энтропия g при условии
где плотность распределения величины , а условная плотность распределения g при условии . Среди других свойств И. к. важно отметить свойство «условной информации», выраженное ф-лой:
где — сред. условное И. к., которое определяют аналогично тому, как была определена сред, условная энтропия, и свойство «тройной информации», выраженное ф-лой
Для гауссовского случая можно привести ф-лу явного вычисления И. к. Если - -мерные гауссовские величины, причем пара
также имеет гауссовское распределение, то 1
где — соответственно определители корреляционных матриц величин и пары . В частности, в одномерном случае , где — коэфф. корреляции
Лит. см. к ст. Информации передача.
Р. Л. Добрушип, В. В. Прелое.