Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.6. Оценка гауссовских параметров по гауссовским наблюдениямВо многих приложениях данные имеют гауссовские распределения, поэтому рассмотрим этот случай подробнее. Совместная ПРВ n гауссовских СВ , составляющих гауссовский вектор , имеет вид
, (2.24)
где – вектор математических ожиданий (математическое ожидание вектора ); – матрица ковариаций. Отметим, что V – симметричная матрица: VT=V. В частности, если , т. е. , то , (2.25)
где .
Оптимальная оценка
Рассмотрим задачу оценки гауссовского вектора , когда имеется гауссовский вектор наблюдений . Пусть известны все средние значения и все ковариации СВ xi, , и zi, . Без потери общности можно считать, что и , так как мы можем центрировать все СВ, вычитая из них их математические ожидания. Будем искать оптимальные оценки в смысле минимума средних квадратов ошибок, т. е. при квадратичной функции потерь . (2.26) По общей теории статистических решений (п.2.5), оптимальная оценка в рассматриваемом случае есть оценка по методу МАП: . (2.27) Представим в виде (2.25). Для этого объединим и в один вектор , тогда , (2.28)
где ; ; ; , . Таким образом, . (2.29)
Максимум (2.29) достигается при минимальном значении выражения . (2.30) Пусть , (2.31) где K, L, M, N – матрицы размеров , соответственно, и M=LT. Тогда . (2.32) Для нахождения минимума (2.32) возьмем производную по и приравняем ее к нулю: , , т. е. . (2.33) Отсюда следует очень важный факт: оптимальная оценка гауссовских параметров по гауссовским наблюдениям линейна (есть линейная функция наблюдений ). Конкретизируем оценку (2.33). Для этого воспользуемся формулой Фробениуса обращения блочных матриц [7]: , (2.34) где и – квадратные матрицы и . Из (2.31) и (2.34) имеем . Таким образом, оптимальная оценка (2.33) принимает вид . (2.35) Исследуем свойства оптимальной оценки (2.35). Найдем сначала ковариации ошибок этой оценки: = == ==, . (2.36) Итак, матрица Т в (2.34) есть матрица ковариаций ошибок оптимальной оценки (2.35). При этом дисперсии ошибок равны диагональным элементам матрицы Т. Найдем ковариации ошибок оценок и наблюдений: . Это очень важное обстоятельство: ошибки оптимальных оценок не коррелированы с наблюдениями: . (2.37) Отметим, что оценка (2.35) есть оптимальная линейная оценка для любых центрированных векторов и , т. е. это оптимальная оценка среди оценок вида , где – любая матрица. Но эта оценка не обязательно оптимальна для негауссовских векторов. Рассмотрим теперь важный случай оценки одного параметра, т. е. пусть и , где – весовой вектор оценки. Тогда (2.37) принимает вид , где , . (2.38) Из (2.38) следует, что является решением системы линейных уравнений или . (2.39)
При этом средний квадрат ошибки оценки определяется из (2.36): . (2.40) Этот средний квадрат ошибки можно представить в другом виде. Рассмотрим определитель полной ковариационной матрицы V (наблюдений и оцениваемых параметров): . (2.41) Умножим слева матрицы нижнего ряда на и вычтем полученные произведения из матриц верхнего ряда (определитель при этом не изменится): . Из (2.40), (2.41) и последнего равенства следует, что , (2.42) т. е. средний квадрат ошибки оценки равен отношению определителя полной ковариационной матрицы к определителю ковариационной матрицы наблюдений. Пример 1. Рассмотрим оценку гауссовского сигнала x с параметрами (0, s2) по зашумленному наблюдению z=x+q, где q – гауссовский шум с параметрами (0, s2q), независимый от x. В нашем случае, используя (2.35), получаем ,, . Итак, оптимальной оценкой является . (2.43) Дисперсию ошибки этой оценки получим из (2.36): , или, по-другому, из (2.42): .
Геометрическая интерпретация оптимальной оценки. Лемма об ортогональном проектировании
Равенству (2.37) можно придать геометрический смысл. Будем считать центрированные СВ элементами (векторами) векторного пространства, в котором введено скалярное произведение . Векторы x и y ортогональны, если (xy)=0, т. е. если x и y не коррелированы. Множество всех линейных комбинаций вида есть линейное пространство Z, натянутое на пространство наблюдений (коротко – пространство наблюдений). Оптимальную линейную оценку, таким образом, нужно искать в пространстве наблюдений. Оптимальной является оценка , при которой значение минимально, т. е.
принимает минимальное значение. Следовательно, длина вектора должна быть минимальной. Этот минимум достигается, если вектор ортогонален к пространству Z, а, следовательно, и к каждому из векторов z1, z2, …, zn, что, собственно, и означает равенство (2.37). Отсюда получаем следующее утверждение. Лемма об ортогональном проектировании. Оптимальная линейная оценка параметра x по наблюдениям есть ортогональная проекция x на пространство наблюдений Z. Она удовлетворяет равенству (2.37), а в общем случае оценки векторного параметра – равенству .
Оптимальная оценка как условное среднее
Рассмотрим снова задачу оценки параметра x по наблюдениям при квадратичной функции потерь, не предполагая гауссовость x и . Тогда оптимальная оценка находится из условия минимума , (2.44) где используется условное среднее при заданных наблюдениях. При этом . Приравнивая производную от (2.44) по к нулю, получаем , . Для векторного параметра аналогично: . (2.45) Таким образом, оптимальная оценка в смысле минимума среднего квадрата ошибки есть условное математическое ожидание оцениваемого параметра при заданных значениях наблюдений. Оценка (2.27) есть частный случай оценки (2.45). Действительно, , (2.46) поэтому максимум по достигается в той же точке, что и максимум . Следовательно, (2.45) можно заменить на . (2.47) Но у гауссовских распределений максимум ПРВ приходится на среднее значение, поэтому оптимальная оценка и есть условное среднее.
|
1 |
Оглавление
|