Главная > Информационная теория идентификации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

§ 7.8. Примеры

Одномерные абсолютно оптимальные и абсолютно оптимальные на классе алгоритмы оценивания параметра сдвига были приведены и подробно изучены в § 3.4 и § 5.4. Рассмотрим здесь соответствующие им акселерантные алгоритмы. В этом случае (см. (3.4.1), (3.4.4))

Полагая в акселерантных алгоритмах (7.4.18) и значит, получим

где матрица усиления теперь вырождается в скаляр

Подставляя из (7.8.4) в (7.8.3), окончательно получаем акселерантный абсолютно оптимальный алгоритм оценивания параметра сдвига:

Он отличается от абсолютно оптимального алгоритма (3.4.6) учетом априорной информации об оптимальном решении в виде начального условия и фишеровской информации

Аналогичным образом, из (7.5.1) и при нетрудно получить акселерантный абсолютно оптимальный на классе алгоритм

В алгоритмах (7.8.5) и (7.8.6), как это следует

Если априорная информация об оптимальном решении характеризуется финитной фидуциальной плотностью распределения (7.2.3), (7.2.7), то алгоритмов (7.5.8), (7.5.2) в этом случае получаем акселерантный проекционный алгоритм

где, как следует из (7.2.10),

Рассмотрим линейные алгоритмы. Они соответствуют абсолютно оптимальным алгоритмам при нормальной плотности распределения помех и алгоритмам, абсолютно оптимальным на классе распределений с ограниченной дисперсией. Полагая в получим линейный акселерантный алгоритм

При что соответствует отсутствию априорной информации об оптимальном решении, он совпадает с линейным абсолютно оптимальным на классе алгоритмом (5.4.9). Отметим, что в акселерантном алгоритме (7.8.8) последующие оценки уже зависят от начального условия и степень этой зависимости определяется величиной отношения

Приведем еще акселерантный абсолютно оптимальный алгоритм на классе

Результаты моделирования алгоритмов (7.8.8), (7.8.9) при тех же условиях, которые были приняты в § 3.4, приведены на рис. 7.8 и 7.9 (кривые а). Для сравнения здесь же приведены результаты из § 3.4 (кривые б). Заметно, что оценки, порождаемые ими на начальных шагах, более точны, чем для произвольных начальных значений.

Что же касается многомерных алгоритмов, то, как это неоднократно подчеркивалось, акселерантность в них достигается также за счет выбора соответствующих начальных значений Так, для рассмотренных в § 3.5 примеров идентификации и РАР-объектов алгоритмом (3.5.13) учет априорной информации в начальных условиях позволяет получать на начальных шагах оценки более точные, чем без учета начальных условий. На рис. 7.10 и 7.11 приведены зависимости от для и РАР-объектов соответственно. Кривые а соответствуют учету априорной информации, кривые отсутствию априорной информации.

1
Оглавление
email@scask.ru