7.2.4. Эв-регрессия («лямбда»-регрессия).
Ниже, используя тот же методический прием, что и при введении эв-оценок [14, п. 10.4.6], с помощью цепочки определений вводится
-регрессия и специальная мера отклонения от нее. Далее показывается, что
-регрессия обладает рядом свойств, похожих на свойства обычной мнк-регрессии. Это облегчает содержательную интерпретацию эв-регрессии и выбор подходящего для конкретного случая значения X. В заключение приводится асимптотическое разложение для оценок параметров эв-регрессии.
Пусть
— весовая функция у при фиксированном значении X, — символ функции распределения. Введем
где
Определение 7.1. Назовем
—
-взвешенной регрессией у на X (
-взвешенным откликом
),
—
-взвешенной дисперсией относительно поверхности
-взвешенной регрессии.
Определение 7.2 Распределения
назовем регрессионно-подобными, если
Пусть
— плотность нормального закона
,
-связанного с
[14, п. 10, 4.6], т. е. при
взвешенные моменты
совпадают.
Определение 7.3. Назовем
-регрессионно-связанной с
, если
.
Определение 7.4. Назовем
—
-регрессией (эв-регрессией) у на X и
—
-дисперсией у относительно поверхности
-регрессии.
Аналог мнк утверждения для эв-регрессии. Пусть
, тогда
т. е. если при каждом X заменить распределение
на
-связанный с ним нормальный закон, то для нового распределения
— обычная мнк-оценка регрессии у на X.
Пусть расстояние между двумя функциями распределения
определено как
и
— окрестность одномерных нормальных распределений, тогда для любого
существуют такие
что для любого
, для которого для всех
существует единственная
-регрессия у на X, причем
— непрерывные (в смысле
) функции относительно
. Если
нормальны, то
-регрессия у на X совпадает с обычной регрессией.
Таким образом эв-регрессия обладает всеми основными свойствами мнк-регрессии, только наблюдения в соответствующие формулы входят со специально подобранными весами. Введение весов позволяет как бы настраивать регрессию на интересующую исследователя часть выборки (рис. 7.2: в пунктирный овал заключены наблюдения
получившие малые веса и практически не участвующие в оценке параметров эв-регрессии; куполообразные кривые на прямой эв-регрессии показывают веса, приписанные наблюдениям). Эв-регрессия значительно устойчивее мнк-регрессии и регрессии по Хуберу к появлению далеких отклонений от регрессионной поверхности. Однако она, естественно, не является универсальным методом оценки регрессии для всех случаев, когда нарушаются предположения (7.3), лежащие в основе мнк. Четких рекомендаций, как выбирать Я в конкретном случае, пока не выработано. Ясно только, что надо давать максимальный вес «основной» части выборки и наименьший — части, где могут лежать «загрязнения». Определенные соображения по выбору величины
в некоторых модельных случаях приведены в п. 7.2.5.
Минимизационное определение эв-регрессии. Для того чтобы охватить случай неизвестного а, несколько изменим определение функции потерь по сравнению с (7.33). Пусть