Главная > Оптимальные решения
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

Лекция 12. Метод наименьших квадратов

Метод максимального правдоподобия, рассмотренный в предыдущей лекции, требует для своего применения знания плотности вероятности ошибок измерений. А как действовать, если плотность неизвестна?

1. Рассмотрим задачу измерений в общем виде [5,6,7,8]

где

Плотность вероятности ошибок измерений неизвестна, но известна их ковариационная матрица К. Математическое ожидание

Примем, что ошибки измерений распределены по нормальному закону с ковариационной матрицей К:

При этом функция правдоподобия выборки запишется в виде

Условие метода максимального правдоподобия

выполняется, если показатель экспоненты как функция 6 принимает минимальное значение. Из этого условия приходим к уравнению получения оценки

Метод нахождения оценок минимизацией (12.3) называется методом наименьших квадратов (МНК). Применение МНК требует знания характеристики ошибок измерений в виде матрицы К.

2. Если ошибки измерений взаимно независимы, то матрица К имеет диагональный вид с элементами (дисперсия ошибки измерения). В этом случае из (12.3) непосредственно получим

где

3. Если дисперсии ошибок измерений одинаковы см то (12.4) приводит к условию

4. Рассмотрим (12.3) в линейном случае

где

Тогда (12.3) запишется в аиде

Условие (12.6) приводит к уравнению

где

Отсюда

Решение (12.8) относительно есть искомая оценка

При этом ковариационная матрица оценки дается формулой

5. В том случае, когда характеристики ошибок измерений одинаковы, но неизвестны, и мы предполагаем только их несмещенность и взаимную независимость, то это сразу дает условие нахождения оценки

Если при этом то из (12.9) получаем

В этом случае ковариационная матрица оценок

6. Качество оценок МНК базируется на теореме Гаусса-Маркова: в классе линейных несмещенных оценок оценка (12.9) обладает наименьшей дисперсией.

Если нелинейна, то это утверждение, вообще говоря, неверно.

В случае нелинейности оценки могут быть найдены отысканием численным методом минимума

или в случае взаимонезависимых и равноточных измерений

Точность полученных таким образом оценок должна быть исследоаана а каждом конкретном случае.

В заключение следует подчеркнуть, что, если ошибки измерений распределены по нормальному закону, оценки МНК и метода максимального правдоподобия совпадают. А это значит, что в этом случае оценки МНК обладают теми же свойствами, что и оценки максимального правдоподобия.

7. В общем случае поиск оценок МНК приводит к необходимости минимизации некоторой функции переменных

где

- вектор-столбец размера с элементами

- вектор-столбец размера с элементами

- вектор-столбец размера с элементами (измерения),

К - ковариационная матрица ошибок измерений размера

Условие минимума функции дает

где

- вектор-столбец размера с элементами

Учитывая (12.14), из (12.15) получим

где вектор-столбец размере с элементами Система уравнений (12.16) относительно неизвестных решается, вообще говоря, численными методами, в результате чего находим решение - оценки

Рассмотрим несколько известных методов решения системы (12.16).

8. Классический метод дифференциальной коррекции.

Предположим нам известно приближенное значение решения (12.16), которое обозначим . Заметим, что не компонента , а вектор-столбец с элементами

Разложим в ряд Тейлора относительно точки и ограничимся первыми двумя членами

где означает вычисленный при

С учетом (12.17) условие (12.16) запишется в виде

Система уравнений (12.18) линейна относительно неизвестных компонент вектора-столбца . Решая (12.18) и обозначая полученное решение через находим

где

Рассматривая (12.19) и (12.20) как итерационный процесс уточнения получим итерационный способ вычисления оценок МНК при . Начальное приближение должно быть найдено из каких-то дополнительных соображений. Остановка процесса производится при достижении определенной точности например, на шаге когда

где - заданная малвя величина. При этом требуемвя оценка МНК.

9. Метод Ньютона-Рафсона.

Разложим в ряд относительно некоторого значения и ограничимся первыми двумя членами. Тогда (12.16) приводит к

Отсюда

Условие (12.23) также описывает некоторый итерационный процесс в котором необходимо задать начальное приближение и момент окончания процесса типа (12.21).

10. Обобщенный метод дифференциальной коррекции.

Итерационный процесс (12.19) может приводить к резким уходам (скачкам) от что в этих случаях может давать расходимость процесса итераций. Для избежания таких ситуаций вводится некоторый коэффициент который ограничивает величину уточнения на каждом шаге

где рассчитывается по (12.20).

При получаем итерации (12.19).

В заключение отметим, что во всех рассмотренных итерационных процессах необходимо предусмотреть остановку процесса при достижении заранее задаваемого предельного количества итераций Это позволяет остановить расходящиеся или плохо сходящиеся процессы.

1
Оглавление
email@scask.ru