Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
9.2. Ценность хартлиевского количества информации. Пример1. Рассмотрим следующий пример, близкий к примерам предыдущего параграфа. Пусть х есть внутренняя координата системы, принимающая значения —3, —2, —1, 0, 1, 2, 3, 4, а и является оценочной переменной, выбираемой из тех же значений, подобно переменной Будем считать, что указанные восемь точек расположены по кругу (рис. 9.3). Желательно, чтобы оценочная переменная и была как можно ближе к внутренней переменной х.
Рис. 9.3. Вид функции штрафов для рассматриваемого примера. Это описывается, например, введением функции штрафа
Последняя изображена на рис. 9.3 и обладает симметрией относительно отражения и поворота системы восьми точек на угол Априори переменную х будем считать равномерно распределенной:
Уменьшить средний штраф можно только путем предварительного уточнения переменной х, то есть путем приобретения информации. Пусть, скажем, количество информации ограничено 1 битом. Мы узнаем, что осуществляется какая-то одна возможность из двух, например х, принадлежит или не принадлежит некоторому подмножеству можно сделать оптимальным образом, выбрав то значение и, которое минимизирует выражение
Способ разбиения восьми точек на две части также можно выбрать оптимальным, т. е. таким, который дает наименьшие средние потери
Как нетрудно проверить, наилучшим способом разбиения является разбиение круга из восьми точек на два одинаковых полукруга по четыре точки в каждом.
Рис. 9.4. Значения ценности информации для одного примера. Внутри каждого полукруга целесообразно выбрать любую из двух внутренних точек. Такой выбор приводит к средним штрафам
Таким образом, в оптимальном случае 1 бит информации приносит ту пользу, что уменьшает средние потери с двух до единицы. Следовательно, ценность 1 бита информации равна единице: Аналогичное рассмотрение можно провести и для 2 битов информации. Теперь уже множество Е разбивается на четыре части, лучше всего на четыре пары соседних точек. Узнав, в какой паре находится х, выбираем в качестве и любую точку из этой пары. С вероятностью V, она совпадает с х, и с вероятностью Следовательно, информация уменьшила потери с 2 до Приняв информацию в 3 бита, мы можем точно узнать значение х и положить Если
Значениям Из сказанного ясно, что ценность информации 2. Описанный выше способ определения ценности информации можно распространить на общий случай. Предполагается, что задана случайная величина х и функция штрафов с Лицо, выбирающее оценку или управление и, получает предварительно некоторую информацию о значении х. Принимаемое им сообщение ограничено М значениями, где М — целое число, другими словами, оно должно иметь вид одного из М высказываний. Таким образом, количество получаемой информации является ограниченным, оно равно хартлиевскому количеству информации Обозначим через
Каждому значению Усредняя условные средние штрафы (9.2.2), получаем полные средние штрафы
Если никакой информации о значении неизвестной случайной величины х не поступает, то при выборе оптимальной оценки и не остается ничего другого, как минимизировать по и средние штрафы
Здесь Определим ценность информации
Здесь помимо минимизации по и производится минимизация по всевозможным функциям Теорема 9. 1. При минимизации (9.2.5) по всевозможным функциям Для нерандомизированных зависимостей наблюдение конкретного значения
по всевозможным разбиениям
Доказательство теоремы 9.1. Пусть
Построим новую, уже не рандомизированную зависимость
и в силу (9.2.7)
Сумму, стоящую справа, можно записать
где индекс
Поэтому
Выражение, стоящее справа, обозначаем через
т. е. нерандомизированная зависимость 3. Из приведенного выше определения немедленно следует одно простое применение понятия ценности хартлиевского количества информации, а именно применение к конструированию измерительно-передающей системы, содержащей информационное ограничение.
Рис. 9.5. Система передачи максимально ценной информации. Канал без помех. ИУ - измерительное устройство. Пусть имеется измерительное устройство (ИУ) (рис. 9.5), выходной сигнал х которого совпадает со значением измеряемой величины, скажем непрерывной. Точное значение х, однако, не может быть сообщено потребителю, так как на пути стоит канал без помех с ограниченной пропускной способностью или записывающее устройство ограниченной информационной емкости, так что значение у может принимать лишь одно из Принимая во внимание определение ценности хартлиевского количества информации, легко понять, как решается данная задача. Блок 1 должен осуществлять разбиение пространства значений х на оптимальные области Сказанное в основном справедливо и в том случае, когда в канале имеются помехи, т. е. когда его выходной сигнал у не обязан совпадать с входным у. Этот случай асимптотически сводится к предыдущему, если систему заставлять работать многократно, заменив х на потребуется поставить на входе канала кодировщик канала Рассмотренный выше способ определения ценности информации
Рис. 9.6. Система передачи максимально ценной информации. Канал с помехами. В-третьих, хартлиевское количество информации Определение ценности информации, даваемое ниже, имеет черты обоих приведенных выше определений (§ 9.1 и 9.2).
|
1 |
Оглавление
|