Главная > Энциклопедия кибернетики. Т.1
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ИНФОРМАЦИИ КОЛИЧЕСТВО

— теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой случайной величины. Если и — дискретные случайные величины и соответственно распределения вероятностей случайных величин и пары , то И. к.

В общем случае, когда случайные величины принимают значения в некоторых измеримых пространствах X и Y соответственно, И. к. определяют следующим образом. Пусть измеримые ф-ции, принимающие конечное число значений. Тогда дискретные случайные величины, и И. к. в относительно

где верхняя грань берется по всем парам ф-ций принимающих конечное число значений. Если дискретные величины, определение (2) сводится к определению (1). Если же — непрерывные величины, имеющие совместную плотность распределения с маргинальными плотностями , то из следует, что

Хотя данное выше определение И. к. оказалось полезным с точки зрения проблем информации передачи, оно не может быть единой мерой И. к., равноприменимой во всех случаях. Меру И. к. нужно выбирать в каждом конкретном случае, исходя из конкретных обстоятельств. Напр., далеко не во всех случаях целесообразно задавать И. к. в терминах распределения вероятностей. математик А. Н. Колмогоров определяет И. к. в объекте как сложность его вычисления при помощи некоторого универсального алгоритма. В некоторых ситуациях более разумной мерой неопределенности, чем энтропия, может служить, напр., дисперсия случайной величины g, поэтому разность безусловной и сред, значения условной дисперсии

можно с равным основанием считать мерой И. к. g относительно Некоторые основные свойства И. к. таковы: 1) величина не зависит от значений, принимаемых случайными величинами , а зависит лишь от совместного распределения этих величин; 2) величина причем тогда и только тогда, когда g и независимы, может обращаться и в величина симметрична относительно , это означает, что И. к. в g относительно совпадает с И. к. в относительно g; 4) если любая ф-ция, заданная на пространстве X, то что вполне согласуется с представлением о том, что И. к. в g относительно ) не меньше, чем И. к. в некоторой ф-ции от g относительно ; что также согласуется с интуитивным представлением о И. к.; 6) в случае, когда — дискретная случайная величина, И. к. где энтропия g. В остальных случаях всегда Между И. к. и энтропией в дискретном случае (или дифф. энтропией в непрерывном случае) существует следующая связь. В дискретном случае

где соответственно энтропии величин и пары а сред, условная энтропия g при условии

где распределение , а условное распределение g при фиксированном значении . Аналогично этому, для непрерывных

где соответственно дифф. энтропии величин и пары сред, условная дифф. энтропия g при условии

где плотность распределения величины , а условная плотность распределения g при условии . Среди других свойств И. к. важно отметить свойство «условной информации», выраженное ф-лой:

где — сред. условное И. к., которое определяют аналогично тому, как была определена сред, условная энтропия, и свойство «тройной информации», выраженное ф-лой

Для гауссовского случая можно привести ф-лу явного вычисления И. к. Если - -мерные гауссовские величины, причем пара

также имеет гауссовское распределение, то 1

где — соответственно определители корреляционных матриц величин и пары . В частности, в одномерном случае , где — коэфф. корреляции

Лит. см. к ст. Информации передача.

Р. Л. Добрушип, В. В. Прелое.

Categories

1
Оглавление
email@scask.ru