Пред.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Лекция 12. Метод наименьших квадратовМетод максимального правдоподобия, рассмотренный в предыдущей лекции, требует для своего применения знания плотности вероятности ошибок измерений. А как действовать, если плотность неизвестна? 1. Рассмотрим задачу измерений в общем виде [5,6,7,8]
где
Плотность вероятности ошибок измерений Примем, что ошибки измерений распределены по нормальному закону с ковариационной матрицей К:
При этом функция правдоподобия выборки запишется в виде
Условие метода максимального правдоподобия
выполняется, если показатель экспоненты как функция 6 принимает минимальное значение. Из этого условия приходим к уравнению получения оценки
Метод нахождения оценок 2. Если ошибки измерений взаимно независимы, то матрица К имеет диагональный вид с элементами
где 3. Если дисперсии ошибок измерений одинаковы см
4. Рассмотрим (12.3) в линейном случае
где
Тогда (12.3) запишется в аиде
Условие (12.6) приводит к уравнению
где
Отсюда
Решение (12.8) относительно
При этом ковариационная матрица оценки
5. В том случае, когда характеристики ошибок измерений одинаковы, но неизвестны, и мы предполагаем только их несмещенность и взаимную независимость, то это сразу дает условие нахождения оценки
Если при этом
В этом случае ковариационная матрица оценок
6. Качество оценок МНК базируется на теореме Гаусса-Маркова: в классе линейных несмещенных оценок оценка (12.9) обладает наименьшей дисперсией. Если В случае нелинейности
или в случае взаимонезависимых и равноточных измерений
Точность полученных таким образом оценок должна быть исследоаана а каждом конкретном случае. В заключение следует подчеркнуть, что, если ошибки измерений распределены по нормальному закону, 7. В общем случае поиск оценок МНК приводит к необходимости минимизации некоторой функции переменных
где
К - ковариационная матрица ошибок измерений размера Условие минимума функции
где
Учитывая (12.14), из (12.15) получим
где Рассмотрим несколько известных методов решения системы (12.16). 8. Классический метод дифференциальной коррекции. Предположим нам известно приближенное значение решения (12.16), которое обозначим Разложим
где С учетом (12.17) условие (12.16) запишется в виде
Система
где
Рассматривая (12.19) и (12.20) как итерационный процесс уточнения
где Разложим
Отсюда
Условие (12.23) также описывает некоторый итерационный процесс 10. Обобщенный метод дифференциальной коррекции. Итерационный процесс (12.19) может приводить к резким уходам (скачкам)
где При В заключение отметим, что во всех рассмотренных итерационных процессах необходимо предусмотреть остановку процесса при достижении заранее задаваемого предельного количества итераций
|
1 |
Оглавление
|