Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 3. АНАЛИЗ ХАРАКТЕРИСТИК АНСАМБЛЯ БЛОЧНЫХ КОДОВ3.1. Средняя по ансамблю кодов вероятность ошибки: верхняя границаНаши успехи в оценивании помехоустойчивости конкретных наборов кодовых сигналов в гл. 2 оказались довольно скромными. Поскольку точные выражения для вероятности ошибки включали в себя многомерные интегралы, слишком сложные в общем случае для численного оценивания, мы вывели хорошие верхние границы; аддитивную Бхаттачария (2.3.16) и Галлагера (2.4.8). Такие границы применимы к любому набору сигналов. Вычисление этих границ для конкретных наборов сигналов, отличных от тех немногих, которые перечислены в § 2.11, все же оказывается чрезвычайно трудным, особенно если речь идет о больших объемах наборов сигналов Вывод верхней границы начнем с рассмотрения конкретного кода, или набора из
где каждое из возможным С целью дальнейших обобщений перепишем (3.1.1) в виде
где конкретное распределение Рассмотрим формулу (3.1.1), которая соответствует равномерному взвешиванию, т. е. распределению
в § 2.4 получена верхняя граница
Эта граница Галлагера обобщает аддитивную границу Бхатта-чария (см. § 2.3) и сводится к последней при
Далее ограничим произвольный параметр
Из неравенства Иенсена
поскольку
Теперь, воспользовавшись (3.1.6), можем вычислить правую часть неравенства (3.1.7), что приводит к равенствам
Последнее равенство следует из того, что суммирование по каждому из векторов
Если теперь для любого
Эта оценка справедлива для любого канала с ортогональных сигналов, используемых в АБГШ канале (см. § 2.5). Эта аналогия станет еще более явной в следующем параграфе. Для канала без памяти вероятность ошибки запишется
Если, кроме того, потребовать, чтобы
[что справедливо для частного случая (3.1.3), где
где Прежде чем перейти к выводу следствий из простого и изящного неравенства (3.1.14), несколько обобщим его. Мы начали с равенств (3.1.1) и (3.1.2), выбрав при усреднении по ансамблю всех возможных кодовых наборов сигналов равномерное распределение. Ясно, однако, что для некоторых каналов и некоторых наборов сигналов один выбор может оказаться лучше другого. При вычислении среднего, когда конечная цель состоит в оценке качества лучшего члена ансамбля, будет логичным, если, основываясь на некоторой информации извне или интуиции, мы захотим приписать больший вес некоторым сигнальным векторам (или некоторым множествам сигнальных векторов, или определенным символам, или компонентам сигнальных векторов). Подходящий, хотя и банальный пример: средняя успеваемость группы студентов как нижняя граница успеваемости лучшего студента. Если, однако, опыт преподавателя подсказывает ему, что у рыжих зеленоглазых студентов оценки обычно оказываются выше средних, а у красноглазых студентов с зелеными волосами, как правило, хуже, он может вычислить взвешенное среднее, приписав оценкам студентов из первой группы, большие, из второй группы — меньше, остальным студентам — промежуточные веса. Единственное ограничение заключается в том, что сумма неотрицательных весов должна быть равна единице, или что вектор весов должен быть вероятностным. Если перекос, введенный преподавателем, оправдан, такое взвешенное среднее окажется более точной границей для успеваемости лучшего студента, чем первоначальное равномерное среднее. Однако независимо от того, справедливо мнение преподавателя или нет, это взвешенное среднее всегда будет нижней оценкой. Такой априорный перекос в (3.1.2) можно легко получить, допустив, что Можно также выразить границу (3.1.14) через скорость передачи данных, приходящихся на одно измерение
которая, очевидно, связана со скоростью
Следовательно, при
где
а
Заметим, наконец, что поскольку неравенство (3.1.17) — граница для вероятности ошибки при передаче любого сообщения, то, следовательно, она должна быть оценкой и для полной вероятности ошибки
где
Этот замечательно простой результат мы подробнее обсудим в следующем параграфе, где он используется для доказательства принадлежащей Шеннону теоремы кодирования в канале.
|
1 |
Оглавление
|