Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
18.2. Энтропия как мера степени неопределенности состояния физической системыЛюбое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом составе сырья или температуре в печи. На вход системы управления средствами противовоздушной обороны может быть передано сообщение о том, что в воздухе находятся две цели, летящие на определенной высоте, с определенной скоростью. На тот же вход может быть передано сообщение о том, что на определенном аэродроме в данный момент находится такое-то количество истребителей в боевой готовности, или что аэродром выведен из строя огневым воздействием противника, или что первая цель сбита, а вторая продолжает полет с измененным курсом. Любое из этих сообщений описывает состояние какой-то физической системы.
Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение приобретает смысл только тогда, когда состояние системы заранее неизвестно, случайно. Поэтому в качестве объекта, о
котором передается информация, мы будем рассматривать некоторую физическую
систему Чтобы ответить на этот вопрос, сравним между собой две системы, каждой из которых присуща некоторая неопределенность. В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: 1) выпал герб и 2) выпала цифра. В качестве второй - игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, неопределенность какой системы больше? Очевидно, второй, так как у нее больше возможных состояний, в каждом из которых она может оказаться с одинаковой вероятностью. Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако в общем случае это не так. Рассмотрим, например, техническое устройство, которое может быть в двух состояниях: 1) исправно и 2) отказало. Предположим, что до получения сведений (априори) вероятность исправной работы устройства 0,99, а вероятность отказа 0,01. Такая система обладает только очень малой степенью неопределенности: почти наверное можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Мы видим, что степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний. Перейдем к общему случаю.
Рассмотрим некоторую систему
-
вероятность того, что система Запишем эти данные в виде таблицы, где в верхней строке перечислены возможные состояния системы, а в нижней - соответствующие вероятности:
Эта табличка по написанию сходна
с рядом распределения прерывной случайной величины В качестве меры априорной
неопределенности системы (или прерывной случайной величины Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
Энтропия Логарифм в формуле (18.2.2) может
быть взят при любом основании В дальнейшем мы будем везде, если
не оговорено противное, под символом В приложении (табл. 6) даны двоичные логарифмы целых чисел от 1 до 100. Легко убедиться, что при выборе 2
в качестве основания логарифмов за единицу измерения энтропии принимается
энтропия простейшей системы
Действительно, по формуле (18.2.2) имеем:
Определенная таким образом единица энтропии называется «двоичной единицей» и иногда обозначается bit (от английского «binary digit» - двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах
энтропию системы
Имеем:
или
т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью
состояниями Докажем, что в случае, когда
состояние системы в точности известно заранее, ее энтропия равна нулю.
Действительно, в этом случае все вероятности
Докажем, что энтропия системы с
конечным множеством состояний достигает максимума, когда все состояния
равновероятны. Для этого рассмотрим энтропию системы (18.2.2) как функцию
вероятностей
Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции:
Дифференцируя
(18.2.5) по
или
откуда
видно, что экстремум (в данном случае максимум) достигается при равных между
собой значениях
а максимальная энтропия системы равна:
т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле (18.2.2) можно несколько упростить, если ввести в рассмотрение специальную функцию:
где логарифм берется по основанию 2. Формула (18.2.2) принимает вид:
Функция Пример 1. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: 1) оба самолета не сбиты; 2) истребитель сбит, бомбардировщик не сбит; 3) истребитель не сбит, бомбардировщик сбит; 4) оба самолета сбиты. Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Решение. Записываем условия в виде таблицы:
По формуле (18.2.10) имеем:
Пользуясь таблицей 7 приложения, находим
Пример 2. Определить энтропию
системы, состояние которой описывается прерывной случайной величиной
Решение.
Пример 3. Определить максимально возможную энтропию системы, состоящей из трех элементов, каждый из которых может быть в четырех возможных состояниях. Решение. Общее число возможных
состояний системы равно Пример 4. Определить максимально возможную энтропию сообщения, состоящего из пяти букв, причем общее число букв в алфавите равно 32. Решение. Число возможных
состояний системы Формула (18.2.2) (или равносильная ей (18.2.10)) служит для непосредственного вычисления энтропии. Однако при выполнении преобразований часто более удобной оказывается другая форма записи энтропии, а именно, представление ее в виде математического ожидания:
где
Когда система
Среднее
значение (математическое ожидание) случайной величины - Формулы, подобные (18.2.11), где энтропия представляется в виде математического ожидания, позволяют упрощать преобразования, связанные с энтропией, сводя их к применению известных теорем о математических ожиданиях.
|
1 |
Оглавление
|