Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше
Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике
§ 45. Энтропия равномерного и нормального распределений
Пусть
плотность вероятности равномерно распределенной в некоторой области
случайной величины X (если в частности X — скалярная величина, то область
может представлять собой отрезок
Так как
равна нулю вне области
то на основании формулы (43.1) энтропия случайной величины X выразится формулой
Легко заметить, что конкретное выражение плотности вероятности
в формуле (45.1) не имеет никакого значения. Важно лишь, что эта плотность вероятности равна нулю всюду вне области
Поэтому формула (45.1) останется справедливой, если заменить в ней
произвольной плотностью вероятности
равной нулю всюду вне области
Следовательно, энтропия равномерного распределения может быть выражена формулой
где
любая плотность вероятности, равная нулю вне области
следовательно, удовлетворяющая условию
Перейдем теперь к определению энтропии нормально распределенной случайной величины
Подставляя в формулу (43.1) выражение (11.6) плотности вероятности нормально распределенной скалярной случайной величины X, которую мы здесь обозначим через
и принимая во внимание (8.7) и (10.6), получим:
Таким образом, энтропия нормального распределения определяется формулой
В частном случае, при
формула (45.11) принимает вид (45.5). Так как в предыдущих выкладках конкретное выражение плотности вероятности
не имеет никакого значения; а важны лишь значения вторых моментов, соответствующих плотности вероятности
то энтропия многомерного нормального распределения может быть выражена формулой
где
произвольная плотность вероятности, удовлетворяющая условиям:
Формула (45.12) может быть сокращенно записана в виде (45.6). Таким образом, формула (45.6) дает общее выражение энтропии нормального распределения, как одномерного, так и многомерного.
Сравнив формулы (45.2) и (45.6), видим, что энтропии равномерного и нормального распределений выражаются через некоторые произвольные плотности вероятности аналогичными формулами. Этим обусловливается тот факт, что равномерное и нормальное распределения обладают максимальной энтропией в определенных классах распределений. Это экстремальное свойство равномерного и нормального распределений является следствием общего неравенства (43.6), справедливого для любых плотностей вероятности (как одномерных, так и многомерных).
Пусть
-произвольная непрерывная случайная величина, все возможные значения которой заключены в области
Ее плотность вероятности
удовлетворяет условию (45.3). Поэтому для нее справедлива формула (45.2). Полагая в
получим на основании (43.1) и (45.2):
Это неравенство показывает, что среди всех случайных величин, все возможные значения которых заключены в некоторой области
наибольшей энтропией обладают случайные величины, равномерно распределенные в области
Это экстремальное свойство энтропии равномерного распределения аналогично доказанному в § 42 свойству энтропии прерывной случайной величины. Как мы видели в § 42 среди всех прерывных случайных величин, имеющих
возможных заачений, наибольшей энтропией обладают случайные величины с равновероятными значениями.
Аналогично из формулы (45.6) и неравенства (43.6) выводится, что среди всех непрерывных случайных величин, имеющих один и тот же момент второго порядка (матрицу моментов второго порядка в случае векторных величин), наибольшей энтропией обладают нормально распределенные величины.
Пусть
составляющие двумерного нормально распределенного случайного вектора;
дисперсии случайных величин
их корреляционный момент. Найдем количество информации о величине X, доставляемое наблюдением случайной величины К, и наоборот. В § 22 мы видели, что в этом случае и безусловные и условные законы распределения случайных величин
являются нормальными. Поэтому для определения энтропий величин
можно воспользоваться формулой (45.5). Тогда, принимая во внимание, что условная дисперсия случайной величины X, согласно формулам (22.7) и (22.11), равна
и не зависит от значения у случайной величины К, придем к заключению, что условная энтропия случайной величины X не зависит от значения у величины У и, следовательно, совпадает со средней условной энтропией величины X относительно У. Тогда, применяя формулу (45.5), получим:
Вычитая формулу (45.16) почленно из (45.15) и принимая во внимание (44.7), найдем количество информации об одной из величин
содержащейся в другой:
На основании определения (17.7) коэффициента корреляции случайных величин
формулу (45.17) можно написать в более компактном виде:
Таким образом, количество информации об одной из составляющих нормально распределенного случайного вектора, получаемое в результате наблюдения другой составляющей, зависит только от коэффициента корреляции этих двух составляющих.