Главная > Селекция и распознавание на основе локационной информации
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

7.2. СИНТЕЗ АЛГОРИТМОВ СЕЛЕКЦИИ ЕДИНСТВЕННОЙ ИСТИННОЙ ЦЕЛИ В ГРУППЕ

Рассмотрим вначале наиболее простую ситуацию, когда среди наблюдаемых объектов находится ровно один объект первого класса (истинная цель), а все остальные объекты относятся к нулевому

классу (активные и пассивные организованные помехи, шумовые выбросы и т. п.). Эта информация предполагается известной до начала наблюдения. Наблюдение состоит в измерении или вычислении значений некоторого признака для каждой из целей в группе или в каждом разрешаемом объеме. Под можно понимать результат непосредственного измерения того или иного параметра сигнала (например, энергии) или некоторый функционал измеренной реализации сигнала (например, корреляционный интеграл где — ожидаемый сигнал). Если измеряется или вычисляется несколько признаков (например, компоненты поляризационной матрицы рассеяния) , то величина будет векторной.

Плотности распределения значений признака для первого и нулевого классов предполагаются обычно известными. Степень статистической определенности, с которой эти распределения известны, зависит от характера решаемой задачи.

В широком смысле синтез алгоритмов обнаружения, распознавания или селекции в статистической радиотехнике включает в себя разработку правил вычисления функционалов правил принятия решений по вычисленным значениям функционалов и методов аппаратурной реализации этих правил. Поскольку функционалы реализаций, применяемые при решении задачи селекции, являются функционалами отношения правдоподобия и в большинстве случаев совпадают с функционалами, применяемыми при распознавании, будем рассматривать только вопросы, связанные с разработкой правил принятия решений.

Обозначим через результат измерения признака для объекта с номером Под выборкой будем понимать совокупность значений измеренных для каждого из объектов группы, т. е.

Пусть гипотеза состоит в том, что объект является истинным. В нашей постановке это означает, что все остальные объекты в группе являются ложными. При обнаружении гипотеза , состоит в том, что цель находится в элементарном объеме и, следовательно, полезный сигнал присутствует только в канале (при параллельном обзоре зоны поиска) или в момент (при последовательном обзоре зоны). Это означает, что в других каналах или в другие моменты на выходе приемника присутствует только шум.

Плотность вероятности получения выборки при условии, что верна гипотеза Ни можно представить в виде

где — отношение правдоподобия.

Апостериорную вероятность гипотезы при условии получения выборки можно рассчитать по формуле Байеса:

Если решения принимаются по критерию максимума апостериорной вероятности, то решающее правило при селекции будет иметь вид:

Если все (критерий максимального правдоподобия), решающее правило упрощается:

Заметим, что при двухальтернативном распознавании (обнаружении)

или

где — гипотеза о том, что цель относится к первому (нулевому) классу; соответствующие этим гипотезам априорные вероятности.

Сопоставление решающих правил (7.6) и (7.8) наглядно показывает существо отличий между алгоритмами селекции и классификации: решение при селекции принимается по информации, полученной относительно всех объектов наблюдаемой группы, а решающее правило пороговым не является, тогда как при классификации решения по каждому из объектов принимаются независимо при использовании решающего правила порогового типа.

Приведем два примера применения правила (7.6). Пусть значения признака для обоих классов распределены по гауссовским

или экспоненциальным

законам.

Распределения такого рода довольно часто встречаются в радио- и лазерной локации.

Тогда с точностью до независящих от сомножителей

или

соответственно.

Если то в силу монотонности экспоненциальной функции

Если то решающее правило имеет противоположный смысл:

Рассмотрим далее случай, когда оба распределения гауссовом окне, однако отличаются не только их математические ожидания, но и дисперсии. Без ограничения общности можно принять чего всегда можно достигнуть выбором масштаба и начала координат:

В этом случае с точностью до независящих от сомножителей

откуда следует, что при отношение правдоподобия является монотонно возрастающей, а при ; монотонно убывающей функцией величины При решающее правило имеет вид

При неравенство в правиле (7.15) следует изменить на противоположное. Заметим, что величина является центром симметрии для отношения правдоподобия при котором достигает своего экстремального значения (минимального при и максимального при

Когда т. е. распределения отличаются только дисперсиями, решающее правило (7.15) можно представить в виде

Приведенные примеры показывают, что в тех случаях, когда отношение правдоподобия является монотонной функцией значений признака для решения задачи селекции достаточно самых общих сведений о соотношении между параметрами распределений то или точного знания параметров и даже не требуется (хотя они, конечно, определяют эффективность принимаемых решений). В частности, правило (7.13) показывает, что при обнаружении единственной цели в зоне поиска в локаторах второго эшелона (если при этом не учитывается координатная информация) решение должно приниматься в пользу того из каналов или элементарных объемов, которым соответствует наибольшее значение энергии сигнала.

Иногда для решения задачи селекции достаточно располагать данными о некоторых параметрах распределения значений признаков только одного из классов — селектируемого. Пусть, как и ранее,

а математическое ожидание значений признака для объектов фонового класса отличается от на в большую или меньшую сторону, причем оба эти случая равновероятны. В такой ситуации можно рассматривать как смесь двух соответствующих распределений, т. е.

Тогда с точностью до независящих от множителей

откуда в силу монотонности зависимости функции гиперболического косинуса от модуля ее аргумента следует решающее правило вида

При этом параметры существенного значения не имеют, тогда как при классификации они необходимы для вычисления двусторонних (в данном случае) порогов

Задачу селекции можно решить даже тогда, когда имеются лишь представления самого общего характера о виде распределений и полностью отсутствуют сведения об их параметрах. Пусть, например,

однако параметры этого распределения наблюдателю неизвестны. Относительно известно лишь, что математическое ожидание этого распределения отличается от на в большую или меньшую сторону, причем. оба эти случая равновероятны.

Отличие данного примера от рассмотренного состоит в том, что прежде в каждом конкретном акте наблюдения с равной вероятностью появлялись объекты фонового класса с распределениями обоих видов

а теперь все объекты фонового класса относятся к одному распределению .

Что касается объектов первого класса, то в конкретном акте наблюдения присутствует единственный его представитель, который получен либо из распределения

либо из распределения

По аналогии с предыдущим случаем

откуда следует, что в качестве «истинной» дели следует принимать ту, для которой значение больше удалено от неизвестного нам значения .

Проведем ранжировку выборки в порядке возрастания, - т. е. расположим ее элементы так, что если При данной нумерации наиболее правдоподобными будут гипотезы . В предположении, что верна гипотеза все измерения относятся к одной генеральной совокупности с распределением (7.20) и в качестве оценки параметра естественно принять значение

В предположении, что верна гипотеза Ни в качестве оценки параметра следует принять значение

С учетом (7.6), (7.25) и (7.26) решающее правило примет вид

Правило (7.27) равносильно правилу

Заметим, что рассмотренная процедура представляет собой, по существу, кластер-анализ, основанный на следующей информации: выборка состоит из единственного представителя одного из классов, значения признаков для каждого из классов распределены по гауссовским законам.

Если при селекции решения принимаются по совокупной информации, полученной в результате измерения нескольких признаков, статистическое решающее правило (7.6) остается в силе. Например, если все — плотности гауссовских распределений — номер признака), причем все независимы между собой, то это решающее правило можно преобразовать к виду:

где — обобщенное отношение сигнал-шум при измерении признака; - нормированное значение признака для объекта.

Распределение функционала при гауссовоком пределении будет также гауссовским с математическим ожиданием

если наблюдаемый объект относится к первому классу, и

если наблюдаемый объект относится к нулевому классу. В обоих случаях дисперсия функционала

Правило (7.29) является естественным обобщением правила (7.6), однако для его практической реализации необходимо располагать полной информацией о параметрах и виде распределений

Аналогично, правило

является обобщением правила (7.6). И в этом случае реализация правила (7.33) возможна лишь при наличии полной априорной информации. Из (7.33) следует также, что «геометрическая» близость измеренного «образа объекта» к «эталону» в многомерном случае не обеспечивает максимума правдоподобия или апостериорной вероятности. Однако практическая ценность любого оптимального правила или алгоритма не исчерпывается возможностью его реализации. Если оптимальный алгоритм известен и его эффективность удается оценить, то можно определить, существенны ли потери, обусловленные неоптимальностью реального алгоритма, и окупаются ли они его простотой. Применение методов цифровой обработки сигналов в радиолокации [67] позволяет уже в настоящее время реализовать самые разнообразные алгоритмы, а продолжающийся прогресс в этой области в значительной мере стимулирует такие исследования, которые еще недавно казались чисто академическими.

Categories

1
Оглавление
email@scask.ru