Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.6. Оценка гауссовских параметров по гауссовским наблюдениямВо многих приложениях данные имеют гауссовские распределения, поэтому рассмотрим этот случай подробнее. Совместная ПРВ n гауссовских СВ
где
где
Оптимальная оценка
Рассмотрим задачу оценки гауссовского вектора
По общей теории статистических решений (п.2.5), оптимальная
оценка
Представим
где
Максимум (2.29) достигается при минимальном значении выражения
Пусть
где K,
L, M, N
– матрицы размеров M=LT. Тогда Для
нахождения минимума (2.32) возьмем производную по
Отсюда следует очень важный факт: оптимальная
оценка гауссовских параметров по гауссовским наблюдениям линейна (есть линейная
функция наблюдений Конкретизируем оценку (2.33). Для этого воспользуемся формулой Фробениуса обращения блочных матриц [7]:
где
Исследуем свойства оптимальной оценки (2.35). Найдем сначала ковариации ошибок этой оценки:
= =
Итак, матрица Т в (2.34) есть матрица ковариаций ошибок оптимальной оценки (2.35). При этом дисперсии ошибок равны диагональным элементам матрицы Т. Найдем ковариации ошибок оценок и наблюдений:
Это очень важное обстоятельство: ошибки оптимальных оценок не коррелированы с наблюдениями:
Отметим, что оценка (2.35) есть оптимальная
линейная оценка Рассмотрим теперь важный случай оценки одного параметра,
т. е. пусть
где
Из
(2.38) следует, что
При этом средний квадрат ошибки оценки определяется из (2.36):
Этот средний квадрат ошибки можно представить в другом виде. Рассмотрим определитель полной ковариационной матрицы V (наблюдений и оцениваемых параметров):
Умножим
слева матрицы нижнего ряда на
Из (2.40), (2.41) и последнего равенства следует, что
т. е. средний квадрат ошибки оценки равен отношению определителя полной ковариационной матрицы к определителю ковариационной матрицы наблюдений. Пример 1. Рассмотрим оценку гауссовского сигнала x с параметрами (0, s2) по зашумленному наблюдению z=x+q, где q – гауссовский шум с параметрами (0, s2q), независимый от x. В нашем случае, используя (2.35), получаем
Итак, оптимальной оценкой является
Дисперсию ошибки этой оценки получим из (2.36):
или, по-другому, из (2.42):
Геометрическая интерпретация оптимальной оценки. Лемма об ортогональном проектировании
Равенству (2.37) можно придать геометрический смысл.
Будем считать центрированные СВ элементами (векторами) векторного
пространства, в котором введено скалярное произведение
принимает
минимальное значение. Следовательно, длина вектора Лемма об ортогональном проектировании. Оптимальная линейная оценка
Оптимальная оценка как условное среднее
Рассмотрим снова задачу оценки параметра x
по наблюдениям
где
используется условное среднее при заданных наблюдениях. При этом
Для векторного параметра аналогично:
Таким образом, оптимальная оценка в смысле минимума среднего квадрата ошибки есть условное математическое ожидание оцениваемого параметра при заданных значениях наблюдений. Оценка (2.27) есть частный случай оценки (2.45). Действительно,
поэтому
максимум
Но у гауссовских распределений максимум ПРВ приходится на среднее значение, поэтому оптимальная оценка и есть условное среднее.
|
1 |
Оглавление
|