ЗАДАЧИ
3.1. Рассмотрим
совместный эксперимент из задачи 2.1 с заданной совместной вероятностью . Допустим, мы
наблюдаем выходы ,
, эксперимент
.
a. Определите
взаимную информацию для и в битах.
b. Определите
среднюю взаимную информацию .
3.2. Предположим,
что выходы ,
, в задаче
3.1 представляют три возможных выходных слова ДИБП. Определите энтропию
источника.
3.3. Докажите,
что и
продемонстрируйте законность этого неравенства, построив кривые и .
3.4. и являются двумя
дискретными случайными величинами с вероятностями . Покажите, что , причём равенство
имеет место тогда, и только тогда, когда и статистически независимы.
[Подсказка: используйте неравенство для , чтобы доказать,
что .]
3.5. Выход
ДИБП состоит из возможных символов , которые появляются с вероятностями соответственно.
Докажите, что энтропия источника не превышает .
3.6. Определите дифференциальную энтропию равномерно
распределённой случайной величины с ФПВ
для
следующих трёх случаев:
a) ;
b) ;
c) .
Обратите
внимание, что из расчётов следует, что является не абсолютной, а только
относительной мерой неопределённости.
3.7. ДИБП
имеет алфавит из восьми символов , , с вероятностями 0,25; 0,2; 0,15;
0,12; 0,10; 0,08; 0,05 и 0,05.
a) Используйте процедуру
кодирования Хаффмена, чтобы определить двоичный код для выхода источника.
b) Определите
среднее число двоичных
символов на символ источника.
c) Определите
энтропию источника и сравните с .
3.8. ДИБП
источника имеет алфавит из пяти символов , , каждый из которых появляется с
вероятностью 1/5 . Вычислите эффективность равномерного двоичного кода, если:
a) Каждый символ
кодируется отдельно в двоичную последовательность.
b) Два символа
вместе кодируются в двоичную последовательность.
c) Три символа
вместе кодируются в двоичную последовательность.
3.9. Напомним
(3.2.6)
.
Докажите, что
a) ;
b) , где .
3.10. Пусть - геометрически
распределённая случайная величина, т.е. ,
a) Найдите
энтропию .
b) Известно, что
, где - заданное целое
положительное число. Чему равна энтропия ?
3.11. Пусть и обозначают две
совместно распределённые дискретные случайные величины.
a) Покажите, что
,
.
b) Используйте
полученный выше результат, чтобы показать, что . Когда наступает равенство?
c) Покажите, что
и что
равенство имеет место тогда, и только тогда, когда и независимы.
3.12. Две
двоичные случайные величины и распределены согласно совместным
вероятностям .
Вычислите ,
, , и .
3.13. Дан
марковский процесс с одношаговой памятью, т.е. такой процесс, что для всех . Покажите, что для
стационарного марковского процесса энтропийная скорость определяется через .
3.14. Пусть , где обозначает
детерминированную функцию. Покажите, что в общем . Когда наступает равенство?
3.15. Покажите, что .
3.16
Покажите, что для статистически независимых событий
.
3.17. Покажите,
что в канале без шумов .
3.18. Покажите, что и что .
3.19. Пусть является случайной
величиной с ФПВ и
пусть -
линейное преобразование , где и - две константы. Определите
дифференциальную энтропию через .
3.20. Выходы
, и от ДИБП с
вероятностями ,
и преобразуются
линейным преобразованием , где и - константы. Определите энтропию и поясните влияние
преобразования на энтропию сигнала.
3.21. Оптимальный
четырёхуровневый неравномерный квантователь для сигнала с гауссовским
распределением амплитуд выдаёт четыре уровня , , и с вероятностями и .
a) Определите
код Хаффмена, который кодирует отдельные уровни, и определите среднюю битовую
скорость.
b) Определите
код Хаффмена, который кодирует два выходных уровня вместе, и определите среднюю
битовую скорость.
c) Какую
минимальную битовую скорость можно получить, кодируя выходных уровней, когда .
3.22.
Марковский источник первого порядка характеризуется вероятностями состояния , , и переходными
вероятностями , и .
Энтропия марковского источника , где - энтропия источника при условии, что
он находится в состоянии .
Определите энтропию двоичного источника первого
порядка, показанного на рис. 3.22, который имеет переходные вероятности и [заметим, что условные
энтропии и
определяются
двоичными энтропийными функциями и соответственно]. Как соотносится
энтропия марковского источника с энтропией двоичного ДИБП с теми же
вероятностями выходных символов и ?
Рис. Р.3.22
3.23. Источник
без памяти имеет алфавит с соответствующими вероятностями
{0,05; 0,1; 0,1; 0,15; 0,05; 0,25; 0,3}.
a) Найдите
энтропию источника.
b) Предположив,
что источник квантуется согласно правилу квантования
,
,
,
найдите энтропию квантованного источника.
3.24. Постройте
троичный код Хаффмена, использующий выходные символы 0, 1 и 2 при кодировании
источника с вероятностями выходных символов алфавита {0,05; 0,1; 0,15; 0,17;
0,18; 0,22; 0,13}. Какова результирующая средняя длина кодового слова? Сравните
среднюю длину кодового слова с энтропией источника. (С каким основанием будете
вычислять логарифмы в выражении для энтропии для полностью осмысленного
сравнения?).
3.25. Найдите
код Лемпела-Зива при кодировании двоичной последовательности источника
000100100000011000010000000100000010100001000000110100000001100.
Восстановите исходную последовательность по коду
Лемпела-Зива. [Подсказка: Вам потребуются два прохода двоичной
последовательности, чтобы принять решение о размере словаря.]
3.26. Найдите
дифференциальную энтропию непрерывной случайной величины в следующих случаях:
a) - случайная
величина с экспоненциальным распределением с параметром , т.е.
b) - случайная
величина с распределением Лапласа с параметром , т.е.
.
c) - случайная
величина с треугольным законом распределения с параметром , т.е.
3.27. Можно
показать, что для источника с рапределением Лапласа функция скорость-искажение с
абсолютной величиной меры ошибки искажений определяется как
(См. Бергер, 1971)
a) Сколько
требуется бит/отсчёт для представления выходов источника со средним искажением,
не превышающим?
b) Постройте
график для
трёх различных значений и обсудите влияние изменения на этих кривых.
3.28. Можно
показать, что если - непрерывная случайная величина с
нулевым средним и дисперсией , то её функция скорость-искажение при
среднеквадратичной мере искажений удовлетворяет нижней и верхней границам,
определяемым неравенствами
,
где означает дифференциальную энтропию
случайной величины (см. Ковер и Томас, 1991)
a) Покажите, что
для гауссовской случайной величины верхней и нижней границ совпадают.
b) Постройте
график для нижней и верхней границ для источника с лапласовским распределением
при .
c) Постройте
график для нижней и верхней границ для источника с треугольным распределением
при .
3.29. Стационарный
случайный процесс имеет автокорреляционную функцию и известно, что случайный
процесс никогда не превышает по амплитуде величину 6. Сколько требуется уровней
квантования амплитуды, чтобы гарантировать отношение сигнал/шум квантования не
хуже 60 дБ?
3.30. Канал
с аддитивным белым гауссовским шумом имеет выход , где - вход канала, а - шум
с ФПВ:
.
Для случая, когда - гауссовский белый шум с параметрами и , определите:
a) условную
дифференциальную энтропию ;
b) среднюю
взаимную информацию .
3.31. ДИБП
имеет алфавит из восьми символов , с вероятностями из задачи 3.7.
Используйте процедуру кодирования Хаффмена для нахождения троичного кода (с
символами 0, 1 и 2) для кодирования выхода источника. [Подсказка: прибавьте
символ с
вероятностью и
группируйте по три символа на каждом шаге.]
3.32.
Определите, существует ли двоичный код с кодовыми словами длиной , удовлетворяющий
условию префиксности.
3.33. Рассмотрите
двоичный блоковый код с кодовыми словами одинаковой длины . Покажите, что
неравенство Крафта выполняется для такого кода.
3.34. Покажите,
что энтропия -мерного
гауссовского вектора с нулевым средним матрицей ковариаций равна
.
3.35. Рассмотрите
ДИБП с равновероятными двоичными выходными символами (0,1). Установите меру
искажений как ,
где -
вероятность ошибки при передаче двоичных символов пользователю через двоичный
симметричный канал (ДСК). Тогда функция скоросгь-искажеине равна (Бергер. 1971)
, .
Постройте график для
3.36. Вычислите
функцию скорость-искажение для -ичного симметричного канала
для и 16. - вероятность ошибки.
3.37. Рассмотрите
пользу от взвешенной СКО как меры искажений, определённом как
,
где - симметричная,
положительно-определённая взвешивающая матрица. Путём факторизации как покажите, что эквивалентно
невзвешенной СКО как меры искажений содержащей преобразованные векторы и .
3.38. Рассмотрите
стационарную случайную сигнальную последовательность с нулевым средним и
автокорреляционной функцией
a) Определите
коэффициенты предсказания для предсказателя первого порядка с минимизацией СКО
для ,
заданной посредством соотношения
,
и соответствующее значение минимальной СКО .
b) Повторите (a)
для предсказателя второго порядка
.
3.39.
Рассмотрите кодирование случайных величин и которые характеризуются СФПВ , заданной как показано
на рис. Р.3.39. Вычислите битовую скорость, требуемую при равномерном
раздельном квантовании и (скалярное квантование) и
комбинированном (векторном) квантовании . Определите разницу в битовой скорости
при .
Рис. Р.3.39
3.40. Рассмотрите
кодирование двух случайных величин и , которые имеют равномерное
распределение в области между двумя квадратами, как показано на рис. Р3.40.
Рис.Р.3.40
a) Найдите и .
b) Предположите,
что каждая из случайных величин и квантуется с использованием
четырёхуровневого равномерного квантователя. Каково результирующее искажение?
Каково результирующее число бит на пару ?
c) Предположите,
что вместо скалярного квантования и мы используем векторный квантователь
для достижения того же уровня искажений, как в (b). Каково
результирующее число битов на выходную пару источника ?
3.41. Две
случайные величины и распределены равномерно в квадрате,
показанном на рис. Р3.41.
Рис. Р.3.41
a) Найдите и .
b) Предположите,
что каждая из случайных величин и квантуется посредством
четырёхуровневого равномерного квантователя. Каково результирующее искажение?
Каково результирующее число бит на пару источника ?
c) Предположите,
что вместо скалярного квантования и мы используем векторный квантователь с
тем же числом бит на пару источника , что в (b). Каково
результирующее искажение для этого векторного квантователя?