ВЫВОДЫ
1. Общая математическая модель линейной регрессии имеет вид
, где
-вектор наблюдений,
- матрица плана экспериментов,
— регрессор
наблюдения,
- вектор неизвестных параметров,
— вектор случайных ошибок. В классической постановке задачи линейной регрессии предполагается, что
, где
- единичная матрица. Оценки по методу наименьших квадратов (мнк-оценки) отыскиваются из условия минимизации по
величины
. Когда
(ранг X равен
),
Оценкой
является
где
— ранг матрицы X. Случай, когда
где
— известная положительно определенная матрица, легко сводится к рассмотренному путем линейного преобразования
и X.
2. В классических предположениях в случаях, когда матрицу плана экспериментов можно представить состоящей из k взаимоортогональных совокупностей столбцов
вычисления значительно упрощаются, и компоненты вектора
соответствующие
оцениваются независимо друг от друга. Для проверки гипотез
(ранг X, равен
) используются отношения
имеющие, когда
верно,
-распределение.
3. В классических предположениях мнк-оценки совпадают с оценками максимального правдоподобия и являются наилучшими среди всех несмещенных оценок
. Однако при отклонении распределения
от нормального в сторону увеличения вероятности больших отклонений мнк-оценки быстро теряют свои оптимальные свойства. В связи с этим в практической работе широко используются функции потерь
. Среди них выделяется функция
при
стремящаяся к
, а при и
имеющая горизонтальную асимптоту. Она приводит к так называемым эв-оценкам параметров регрессионной зависимости (эв-регрессия или
-регрессия).
Эти оценки устойчивы к нарушению предположения нормальности, имеют наглядную геометрическую интерпретацию, для них (при весьма общих предположениях) получены асимптотические (при
) разложения.
4. Формой учета априорных сведений о распределении параметров регрессионной модели является байесовское оценивание. При этом следует различать три подхода: частотный; стандартные рекомендации, как поступать в условиях неопределенности; субъективный. Частотный подход не вызывает возражений с методологических позиций. Во втором подходе априорная (несобственная) плотность распределения параметров полагается пропорциональной
что приводит порою к серьезным интерпретационным трудностям. Основная трудность субъективного подхода состоит в том, что информация, полученная из данных, рассматривается на равных основаниях с распределением, получаемым из не полностью формализованных соображений. Вместе с тем байесовское оценивание обладает замечательным свойством — если выборка разбита на две части, то эквивалентны результаты двух подходов к оцениванию:
1) применение байесовского оценивания к первой выборке, использование полученного апостериорного распределения в качестве априорного для второй и повторное байесовское оценивание параметров второй выборки;
2) одномоментное применение байесовского оценивании к объединенной выборке.
5. В экономических и технологических исследованиях при фиксированном значении регрессора X часто рассматривается многомерный отклик
, где
- вектор наблюдений при значении регрессора
— известная
- матричная функция
—
-вектор неизвестных параметров,
—
-вектор ошибок
, где
неизвестная положительно определенная
- матрица. Оценка вектора в многомерной регрессии проводится одновременно с оценкой матрицы V путем итеративного решения нелинейной системы уравнений. Разработаны устойчивые методы оценки многомерной регрессии. Многомерная регрессия может использоваться при описании многомерных распределений.
6. Во многих задачах регрессионного типа разбиение переменных на две жесткие группы (в первую входят переменные, наблюдаемые с ошибкой, во вторую — переменные, значения которых известны точно) оказывается неадекватным реальному положению дел: все переменные наблюдаются или фиксируются с некоторыми ошибками. К настоящему времени в литературе предложен ряд моделей, описывающих подобные ситуации.
Соответствующие им оценки базируются в основном на традиционном мнк.
7. При анализе поведения схожих объектов (например, реакция однородной группы больных на испытываемое лекарство) удобно использовать регрессионные модели второго рода (например,
, где индекс
соответствует номеру объекта). Предполагая, что параметры
(точнее, их изменчивость) могут быть описаны некоторой вероятностной моделью, удается построить оценки, которые оказываются эффективнее оценок, строящихся в отдельности для каждого
объекта без учета имеющейся информации о других схожих объектах.
В формальном плане эти оценки оказываются во многом схожи с байесовскими оценками.