Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.1. ТЕОРИЯ ОЦЕНИВАНИЯРассматриваемая ситуация изображена на фиг. 5.1. В этом разделе излагаются только основные идеи, более подробное обсуждение содержится в гл. И. Сосредоточим внимание на оценивании параметров. Необходимо получить правило (оператор оценивания), т. е. такую связь.
которая позволяла бы приписать неизвестному параметру
Фиг. 5.1. наблюдений. Если необходимо найти набор оценок
Свойства оценокПри оценивании существенный интерес представляет информация о рассматриваемых параметрах, в частности плотность вероятности
Упрощение, связанное с заменой функций их числовыми характеристиками, можпо оценить на примерах, приведенных на фиг. 5.2, а и б. Одновременно можно получить представление об информации, сохраняющейся в результате такого упрощения. Отметим, что если бы плотность вероятности была (многомерной) плотностью гауссовского распределения вероятностей, то замена плотности вероятности на Фиг. 5.2. (см. скан) В литературе по математической статистике (см., например, [5, 16]) перечисляются некоторые желательные свойства оценок 1) несмещенность, когда для каждого к
2) состоятельность, если с ростом к
для сколь угодно малого 3) эффективность, если для всех несмещенных оценок у
или
4) достаточность, если для всех остальных оценок Если первое и третье свойства выполняются только в пределе при Некоторые типы оценокДля рассмотрения оценок в качестве исходной выберем ситуацию, когда имеется много априорной информации [15], а именно: а) Известна плотность вероятности шума б) Известна плотность распределения вероятностей параметров в) Известны потери, связанные с численной величиной оценки Байесовские оценки. Априорная информация: в формуле Байеса
Рассмотрим также
где
Эту условную плотность вероятности Пример. Полезно иллюстрировать эти идеи на крайне простом примере. Обратимся к фиг. 5.3; нужно найти оценку
а среднее значение Пусть плотности распределений вероятностей
Фиг. 5.3. (кликните для просмотра скана) (фиг. 5.4). Отметим, что это априорная информация, имевшаяся до того, как были сделапы измерения и Читателю предлагается рассмотреть частные случаи и Опираясь на апостериорную плотность вероятности
Это скалярная величина, которую можно изобразить на графике как функцию Приведенные рассуждения можно представить также следующим образом. У слоеный риск выбора Фиг. 5.6. (см. скан) наблюдениям у:
Средний риск представляет собой математическое ожидание условного риска по распределению значений параметра объекта
Оценка, которая минимизирует это выражение, называется оценкой минимального риска. По формуле Байеса средний риск можно переписать в виде
Так как
Необходимое условие этого минимума имеет простой вид
Получаемая оценка называется байесовской, поскольку используется формула Байеса. Пример. В качестве простого примера рассмотрим снова задачу оценивания одного параметра
т.е. оптимальная оценка представляет собой условное математическое ожидание величины Так как правильно выбранная функция потерь
ясно, что условие (5.7) выполняется, если Отбросим теперь предположение в), т. е. информация о виде функции потерь
где
По-прежнему используются предположения а) и б). Априорная информация: Оценки максимального правдоподобия. Теперь отбросим предположения б)
Здесь Ьуже не случайная величина, а неизвестный постоянный параметр; вместо вертикальной черты появляется точка с запятой. Априорная плотность вероятности имеет вид
Апостериори после измерений выборочных значений
и называется функцией правдоподобия (см. разд. 2.3). Пример. Опять обратимся к задаче, иллюстрированной фиг. 5.3. Известна плотность распределения вероятностей Априорная информация: В многомерном случае необходимое условие максимума имеет вид
Фиг. 5.7.
Фиг. 5.8. или в силу монотонности логарифма
Эту формулу называют уравнением правдоподобия. Отыскивая решение этой системы уравнений, которое обеспечивает наибольшее значение 1) асимптотическая нормальность: 2) асимптотическая несмещенность; 3) асимптотическая эффективность достижение наилучшей точности или минимальной дисперсии, определяемой неравенством Крамера — Рао (см. гл. 11); 4) состоятельность: см. определение; 5) инвариантность: если Связь разных оценокПокажем, как связаны марковские оценки и оценки метода наименьших квадратов из разд. 2.2, которые обсуждаются в гл. 6, и оценки, рассматриваемые в этом разделе. Обратимся к фиг. 5.9 и предположим, что компоненты
фиг. 5.9. где
Отметим, что
Максимизация этой функции дает
или
Если матрица
Это марковская оценка. Она имеет следующие свойства: 1) линейность: 2) несмещенность: 3) минимальная дисперсия: среди всех линейных несмещенных оценок. Эту дисперсию можно найти по формуле
Априорная информация:
Это формула оценки по методу наименьших квадратов. Априорная информация отсутствует. Марковские оценки и оценки по методу наименьших квадратов получены из оценок максимального правдоподобия в случае гауссовских шумов. (Предположение о нормальности распределения не является обязательным. В гл. 6 эти оценки получаются независимо от этого предположения.) Пример. Связь между разными оценками можно продемонстрировать на простом примере, иллюстрированном фиг. 5.3. Оценка метода наименьших квадратов минимизирует следующую функцию потерь:
На фиг. 5.10 показаны разности между наблюдениями у и значениями выхода модели
или
или
При зтом условии
Фиг. 5.10. Естественно, что, чем больше входной сигнал, тем больше вес расхождения между прогнозом и Некоторые другие вопросыПростой пример на фиг. 5.3 очень хорошо иллюстрирует также так называемую проблему шума на входе. Рассмотрим систему, блок-схема которой изображена на фиг. 5.11. Ни входной, ни выходной сигналы этой системы не являются полностью наблюдаемыми. Известно [14], что, если относительно изменений
Допустим, что
Однако если
Это соответствует такому выбору
Фиг. 5.11.
Фиг. 5.12. Из формулы (5.17) для оценки метода наименьших квадратов, которая определяет явное или одноразовое решение, довольно просто получить итеративное решение, или решение с настройкой. Запишем выражения для к
Эти выражения для оценок
или
(см. скан) Последний член Выше рассматривались только выборочные сигналы. Увеличивая число точек и уменьшая шаг дискретизации времени, можно вывести соответствующие формулы для непрерывных сигналов. Некоторые из соотношений, связывающих различные типы оценок, представлены в табл. 5.1.
|
1 |
Оглавление
|