Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
4.5. Алгоритмы перестановочного декодированияОсновной метод выбора нескольких информационных множеств, использования каждого из них для порождения кодового слова и выбора кодового слова, ближайшего к принятой последовательности, уже обсуждался в гл. 3. Наибольшее развитие этот метод получил в работах группы Лаборатории реактивных двигателей (ЛРД) [27, 31]. Все предложенные варианты метода перестановочного декодирования требуют предварительного упорядочения принятых символов по их достоверности. Все эти схемы являются более или менее интуитивными, с очень косвенными теоретическими обоснованиями выбора различных параметров. Поэтому для изложения этих методов здесь выбран исторический подход. Обсуждаемые алгоритмы разделены на три группы: с использованием только информационных множеств, типа алгоритма Омуры и частичного синдромного декодирования. 4.5.1. Алгоритмы с использованием только информационных множествВо всех этих алгоритмах применено основное правило декодирования с помощью информационных множеств. Их отличие состоит в способе выбора информационных множеств. В простейшем случае образуется одно информационное множество, состоящее из Баумерт и Мак-Элис [27] из ЛРД этим методом декодировали квадратично-вычетные коды с параметрами (48,24) и (80,40). При декодировании совпадающим результатам. В первом случае В работах [27, 31] приведены результаты попыток использовать этот метод для декодирования Характеристики, полученные этим методом, существенно лучше предыдущих, однако не достигают уровня характеристик декодера максимального правдоподобия. Развитие описанного метода [27, 31] привело к алгоритму, согласно которому производится еще более тонкое подразделение кодового слова. В результате собраны достаточные статистические данные о распределении ошибок как функции номера символа в списке символов, упорядоченных по надежности. Затем предложено выбирать информационные множества случайно таким образом, чтобы частота нулей приближенно согласовывалась с энтропией (т. е.
Рис. 4.12. Весовые функции для малой вероятности ошибки символ должен включаться в проверочное множество очень редко. Весовые функции, приведенные в работах [27, 31], показаны на рис. 4.12. Энтропия была нормирована так, чтобы первые 30 (приблизительно) символов входили во все информационные множества. Поскольку вероятность возникновения одной или нескольких ошибок весьма мала, такой выбор почти не оказывал влияния на общие характеристики системы. Чтобы каждое информационное множество состояло из 64 элементов, оказалось необходимым несколько отойти от чисто случайного выбора. Баумерт обнаружил, что если порождать информационные множества таким способом, то для достижения характеристик, близких к получаемым при декодировании максимального правдоподобия, требуется примерна 1000 информационных множеств. В дальнейшем Гринбергер исследовал некоторые другие весовые функции (см. рис. 4.12), обнаружив, что, хотя функция Баумерта — одна из лучших, алгоритм не особенно чувствителен к точному виду весовой функции. Гринбергер исследовал также различные способы порождения информационных множеств и заметил, что, расположив множества так, чтобы каждое отличалось от предыдущего небольшим числом элементов, объем необходимых вычислений можно минимизировать. Однако для порождения 1000 различных проверочных матриц по-прежнему требуется достаточно много вычислений, так что описанный метод применим лишь в случае сравнительно низких скоростей передачи.
|
1 |
Оглавление
|