8.5. Оценки, связанные с ортогональным разложением
Использование функционала
(8.26) как меры качества оценки
не гарантирует еще, что каждая компонента вектора
имеет меньшую среднеквадратическую ошибку, чем вектор мнк-оценок (см,, например, п. 8.3.1). Однако, как
оказано в [192], оценки, уменьшающие среднеквадратическую ошибку каждой из компонент вектора, существуют, в частности такими являются ридж-оценки [208, 209]. В настоящем разделе проводится рассмотрение достаточно общего класса оценок, обладающих указанным выше свойством.
Вернемся к регрессии на главные компоненты
(см. п. 8.2). Пусть, как и прежде, вектор G есть вектор теоретических значений параметров, a G — вектор мнк-оценок. Пусть
— собственные векторы матрицы S. Поскольку матрица S невырождена, векторы
образуют полную ортонормированную систему (см. [102]), и поэтому любой вектор оценок параметров может быть представлен в виде
Для мнк-оценки
где
— оценка вектора ковариаций
между прогнозируемой переменной у и переменными
. Для самого вектора неизвестных параметров
. Мы будем рассматривать класс оценок вида (8.47) с коэффициентом
.
Таким образом, множитель
можно рассматривать как относительный вес
главной компоненты в оценке параметров регрессии
(8.47) по сравнению с ее весом в мнк-оценке.
Дальше веса
будут определяться из условия минимума функционала качества (8.26). Будем полагать при этом, что весовая матрица W перестановочна с матрицей S, т. е. что векторы
являются и собственными векторами матрицы W, и она представима в виде
Очевидно, здесь охвачены случаи
. После несложных преобразований получаем следующую формулу для функционала качества (8.26):
(8.48)
Чтобы получить аналитическое выражение
запишем его в виде
где
Взяв теперь математическое ожидание, получим
или в эквивалентной форме
Для дальнейшего анализа понадобится еще преобразованное выражение для нормированной суммы квадратов отклонений
. Из (8.23) имеем
Первое слагаемое в (8.51) соответствует применению мнк-оценки, а второе возникает, если хотя бы один из вкладов
.
Укажем некоторые часто используемые типы оценок, представимые в виде (8.47).
Однопараметрическая гребневая регрессия [208, 209]. Стандартная запись этой оценки имеет вид
или, что более предпочтительно, когда диагональные элементы матрицы S различны,
где DG (S) — диагональная матрица
малое число, так называемый параметр гребня.
Заметим, что редуцированные оценки Джеймса — Стейна и Мейера — Уилке также могут быть легко представлены в терминах весовых коэффициентов