Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 10. МЕТОДЫ ВЫЧИСЛЕНИЯ ОЦЕНОКВ гл. 7 были представлены две основные процедуры параметрического оценивания: 1. Подход, основанный на ошибке предсказания, когда некоторая функция 2. Корреляционный подход, в котором ищется решение некоторого уравнения В данной главе будут обсуждаться вопросы наилучшего численного решения этих задач. В момент времени действительного вектора параметров 10.1. Линейные регрессии и наименьшие квадратыНормальные уравнения. Для линейных регрессий предсказание задается в виде
Применение к
где
Вектор в можно также рассматривать как решение системы уравнений
Эти уравнения известны как нормальные уравнения. Заметим, что основное уравнение (7.104) метода инструментальных переменных совершенно аналогично (10.5), и большая часть того, что говорится в данном разделе о методе наименьших квадратов, применимо также и к методу инструментальных переменных с очевидными изменениями. Матрица коэффициентов
Поэтому в инженерной литературе этот класс методов обычно называют алгоритмами квадратного корня. Термин не совсем подходящий, поскольку никакие квадратные корни не берутся. Возможно, при решении (10.5) более подходящим был бы термин квадратичные методы. Нахождение оценки наименьших квадратов посредством ортогональных преобразований. Известно несколько различных подходов к построению В общем многомерном случае (4.53) и (4.54) положим
(Здесь
Очевидно, норма не изменится при ортогональном преобразовании вектора
Выберем теперь ортогональную матрицу
где
что представляет собой
Тогда
и при
достигает минимума
Заметим, что из (10.8) следует, что
Показатель обусловленности (отношение наибольшего собственного значения к наименьшему) матрицы непосредственное решение (10.2) или (10.5) дает вполне удовлетворительную точность, если размерность вектора в не слишком велика. Нахождение в одним из описанных методов требует выполнения количества арифметических операций, пропорционального Начальные условия: вырезанные данные. Типичная структура вектора регрессии
Здесь
в то время как AR-модель для Для структуры (10.13) матрица
Если имеются сведения относительно 1. Начинать суммирование в (10.3) и (10.4) в момент 2. Заменить неизвестные начальные условия нулями (предварительное вырезание) . Для симметрии опытные данные В работах по обработке речевой информации эти подходы известны как ковариационный и автокорреляционный методы соответственно [273]. Нет сомнения, с логической точки зрения подход 1 выглядит более естественным. Подход 2, однако, имеет особенность, состоящую в том, что блоки (10.14) зависят только от разности между индексами:
Это делает Очевидно, при Алгоритм Левинсона Сдвиговая структура (10.13) придает специфическую структуру матрице Рассмотрим случай AR-модели сигнала
(верхний индекс показывает, что производится подгонка модели
для
а аргумент
Здесь Допустим, что найдено решение (10.19) относительно
Здесь первые образом, попробуем убрать
поскольку матрица коэффициентов представляет собой матрицу Теилица. Можно, кроме того, рассматривать последние
Она представляет собой модель сигнала Умножим теперь (10.21) на
Это определяющее соотношение для а
(Здесь шляпка обозначает действительную оценку, основанную на
имеем схему для вычисления оценок произвольного порядка. Заметим, что переход от а к деление. Вычисление Алгоритм Левинсона (10.24) широко применялся и был распространен на случай векторной величины z, а также на случай ковариационного метода. См., например, работы Уиттла Замечание. Наиболее важное изменение при работе с векторной величиной z состоит в том, что соответствующая модель в обратном времени (10.20)
порождает оценки параметров
Рис. 10.1. Представление (10.31) решетчатым фильтром Решетчатые фильтры Рассмотрим предсказатели (10.16) для порядков
Вычитая эти выражения одно из другого и используя (10.24), получаем
где
Выражение (10.29) представляет собой ошибку предсказания в обратном времени (10.22). Учитывая определение (10.29), рассмотрим
Вычитая отсюда (10.29) и снова используя (10.24), получаем
Введя ошибку предсказания
выражения (10.28)-(10.30) можно подытожить следующим образом:
Это простое представление ошибок предсказания (и предсказаний Характерной чертой представления (10.31) является то, что величины
(см. задачу 10D.1). Следовательно, коэффициенты отражения
Схема (10.31) вместе с (10.33) образует эффективный способ оценивания коэффициентов отражения а также предсказаний как альтернативу алгоритму Левинсона. Важный аспект состоит в том, что схема порождает предсказания всех более низких порядков как промежуточный результат. Решетчатые фильтры широко применялись в приложениях по обработке сигналов. См., например, работы Макхоула [272], Гриффитса [148] и Ли, Морфа и Фридландера [229]. По поводу рекуррентной версии см. также раздел 11.7.
|
1 |
Оглавление
|