Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
6.1. РЕГРЕССИОННЫЙ АНАЛИЗЛинии и плоскости регрессииЭлементарным введением в регрессионный анализ может служить случай двух переменных [1, 8]. Пусть х и у — случайные величины с совместной плотностью вероятности
По этой функции необходимо определить функциональные зависимости, например условное математическое ожидание у при фиксированном х
Эта функция называется линией регрессии у по х. Можно показать ([1], стр. 96), что линия регрессии дает наилучшую оценку у в смысле минимума среднеквадратической ошибки. Точно так же определяется любая функциональная зависимость без ограничений на
Однако можно потребовать, чтобы эта функция принадлежала к какому-то классу функций, например к классу всех линейных функций или к классу полипомов заданной степени. Выбор такого класса и минимизация среднеквадратической ошибки ведут к среднеквадратическим линиям регрессии. Пример. Пусть нужно найти наилучшую аппроксимацию у линейной функцией
Такая аппроксимация называется линейной регрессионной моделью, а
где оператор математического ожидания
Дифференцирование (6.4) по
Отсюда следует, что
Подстановка этих выражений для
Читатель может самостоятельно записать формулу для случая двумерного нормального распределения Эти идеи можно использовать для отыскания наилучших нелинейных регрессионных моделей, папример полиномиальных моделей вида
где
представляет собой маргинальную плотность распределения вероятностей х. Если теперь положить
то нужно минимизировать
Дифференцируя по получаем
Приравнивая производные нулю при
Таким образом, не нужно решать систему линейных алгебраических уравнений. Это особенно удобно, так как по мере увеличения порядка модели система линейных уравнений часто становится почти вырожденной. Эти идеи можно распространить на многомерный случай, когда условная плотность вероятности имеет вид
Класс функций точно так же может быть ограничен, например, классом линейных функций. В этом случае выбор
приводит к среднеквадратической гиперплоскости регрессии для у как функции
Если все случайные величины предполагаются центрированными, то коэффициент а может быть опущен. Дифференцирование по
Если ковариациоппая матрица иевырождена, то эту систему линейных алгебраических уравнепий можно решить относительно коэффициентов регрессии Оценивание по конечному числу наблюденийДо сих пор предполагалось, что все математические ожидания могут быть вычислены, т. е. известна совместная плотность распределения Излагаемые методы имеют длинную историю. Уже в 1795 г. Гаусс использовал их при исследовании движения планет. В наши дни они применяются, например, при определении параметров орбит спутников. Следует отметить, что, помимо обычных регрессионных моделей
Где
и обобщенная регрессионная модель
(См. также [9, 11, 14, 16, 17].) Обозначения. Теперь посмотрим, как получаются оценки. Пусть наблюдается выходной сигнал объекта у. Как и в гл. 2, у состоит из отклика на входное воздействие и, шума объекта и ошибок измерений. В момент
Вектором
Шум зададим его математическим ожиданием и ковариационной матрицей:
Задача состоит в том, чтобы определить оценку
где
где
Снова заметим, что такой выбор линейной связи между Линейные несмещенные оценкиКласс линейных несмещенных оценок определяется следующими свойствами:
где
Предполагается, что равенство (6.20) может дать полное описание объекта, т. е.
Допустим сначала, что
В качестве фупкции ошибок или функции потерь можно выбрать положительно определенную форму
где
Так как
Дифференцирование этого выражения по
Последнее выражение можно записать в виде
При некотором
Эту систему называют системой нормальных уравнений. Если
Нетрудно показать, что при Здесь уместно сделать несколько замечаний: 1) Конечно, уравнение (6.31) можно решить методами вариационного исчисления:
или
при произвольном 2) Прямое доказательство того, что анализа членов второго порядка по
Очевидно, что при 3) В качестве мнемонического правила может оказаться удобным использовать то, что
умножается на
Так как второе слагаемое неизвестно, не измеряется и предполагается, что Эта оценка обладает свойством линейности, поскольку
Из формул (6.31) и (6.24) следует, что
Поскольку входной сигнал и шум статистически независимы,
А так как уже предполагалось, что
Отсюда следует, что
т. е. математическое ожидание выхода модели равно выходу объекта без аддитивного шума. Желательно определить еще одну характеристику оценки
По-прежнему предполагается, что справедливо соотношение (6.24) и
Следовательно,
Будет показано, что в нескольких практически интересных случаях это выражение можно существенно упростить. Главная диагональ матрицы состоит из оценок дисперсий оцениваемых параметров. Оценки по методу наименьших квадратов [26, 27]При использовании метода наименьших квадратов минимизируется выражение
Таким образом, в уравнении (6.26) и вытекающих из него уравнениях
И из формул (6.30), (6.31) и (6.35) получаем
или
и
Если имеет обратную, то
откуда
С инженерпой точки зрения этот случай не представляет особого интереса, поскольку случайные возмущения не учитываются. Для уменьшения влияния шумов размер выборки должен быть гораздо больше числа параметров. Если в уравнении (6.37) выразить все величины через
Ортогональпость или ортонормальность пробных сигналов может привести к существенным упрощениям (см. гл. 4). В случае ортонормальности
и
или
Можно дать простую геометрическую интерпретацию оценок метода наименьших квадратов для случая двумерного вектора параметров
Фиг. 6.1. Если вектор
Следовательно,
или
т. е. имеем уравнение (6.37). Марковские оценки (оценки обобщенного метода наименьших квадратов)При использовании марковских оценок минимизируется выражение
Следовательно,
и из формул (6.30), (6.31) и (6.35) находим
или
и
Так как ковариационная матрица (6.46) входит в формулу для оценки (6.45), оценка и ковариация определяются одновременно. Диагональные элементы (6.46) представляют собой дисперсии оценок параметров, остальные элементы матрицы — коэффициенты корреляции между оценками разных параметров. Если к Используя матричное неравенство Шварца (см. приложение В), можно легко показать, что эта линейная несмещенная оценка обладает минимальной дисперсией. Неравенство Шварца имеет вид
Выбирая
Так как
или
т. е. матрица
не отрицательно определена. Здесь Из предыдущих разделов ясно, что если аддитивная помеха — белый шум, т. е.
то
и
Как отмечалось в гл. 5, для гауссовских шумов оценки метода наименьших квадратов и марковские оценки совпадают с оценками максимального правдоподобия, все они обладают минимальной дисперсией в классе несмещенных оценок. Класс линейных несмещенных оценок порождается минимизацией положительно определенной формы
Таким образом, выбор
где
|
1 |
Оглавление
|