Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
2.6. Вычислительные трудности МНКОценка МНК является решением системы нормальных уравнений
Таким образом, вычисление оценки МНК соответствует решению системы линейных уравнений. В настоящее время число методов решения линейных систем очень велико, исследованы свойства этих методов, разработаны многочисленные программы. В регрессионном анализе вычисляется не только оценка МНК, но и ее матрица ковариаций
Чем больше отношение (2.58), тем хуже обусловленность матрицы округления промежуточных результатов. В [165] показано, что чем хуже обусловленность матрицы
на ЭВМ с обычной точностью (8 знаков) результаты оказываются очень грубыми. Только счет с двойной точностью (16 знаков) позволяет найти приемлемое приближение к истинной оценке МНК на ЭВМ. Проверка различных программ, реализующих МНК, дана в [154]. Рассмотрена линейная регрессия от семи факторов: у — общее число занятых в экономике США (тыс. чел.); Таблица 2.1 (см. скан) оценки МНК, отличались не только первыми и вторыми значащими цифрами, но и знаками. Даже вычисления с двойной точностью не приводили к удовлетворительному результату. Истинное значение оценки МНК для данной регрессии удалось получить с помощью специального настольного калькулятора, работавшего с 40 значащими цифрами. Оцененная регрессия на этом калькуляторе имела следующий вид
В большинстве программ, рассмотренных Дж. Лонгли, матрица плана вычислялась по формуле
При переходе к эквивалентной записи
удалось число верных значащих цифр в оценке МНК увеличить в некоторых случаях на две. Как мы уже говорили, вычислительные трудности МНК связаны с обращением матрицы плана. Обращению матриц посвящена обширная литература (см., в частности, [68]). Существует много методов обращения матриц. Лонгли обнаружил, что в регрессионных задачах лучше работает алгоритм ортогонализации Грамма — Шмидта, в частности алгоритм обращения матриц, основанный на исключении по Гауссу. Основной причиной расхождения результатов для разных алгоритмов и ЭВМ Лонгли считает то обстоятельство, что алгоритмы обращения матриц, реализованных на ЭВМ, предназначены для ручных вычислений или с применением калькуляторов. При переходе на ЭВМ алгоритмы теряют свою эффективность. Часто исследователь не подозревает, что «машинное решение» неверно. Хорошим индикатором правильного решения в случае регрессий со свободным членом является сумма отклонений регрессии равенство нулю Результаты, полученные Дж. Лонгли, а также практика автора показывают, что к полученным с помощью ЭВМ оценкам МНК, особенно для многофакторных регрессий, следует относится осторожно, не делая скоропалительных выводов. В любом случае вычисления следует проводить с двойной точностью. В работе [84] вновь обращено внимание на регрессию Лонгли (2.60). Был поставлен следующий вопрос: является ли решение Лонгли, проведенное с 40 значащими цифрами, в действительности удовлетворительным? Авторы [84] справедливо заметили, что поскольку данные представляют собой результат округления и если Идея проверки регрессии на устойчивость относительно ошибок округления, примененная в [84] к регрессии (2.60), заслуживает внимания. Аналогичные расчеты могут быть проделаны для любой другой регрессии. Для каждого числа (конечной десятичной дроби) (см. скан) число
Вообще говоря, можно найти более общее множество
Прежде всего необходимо выяснить, существует ли матрица Перейдем к определению эффекта от округления значений независимых переменных. В [84] введен «индекс возмущения» (perturbation index) следующим образом. Пусть, как и прежде, матрица X — матрица независимых переменных регрессии. На основе имеющейся матрицы X будем образовывать новые матрицы
Пусть имеется
— составные матрицы независимых и зависимой переменных размерности
Найдем вероятностный предел а:
в силу закона больших чисел. Тогда
Ясно, что чем ближе матрица
Если регрессия устойчива к округлениям независимых переменных, то С окончательным выводом авторов [84] о том, что вычислительная программа часто является далеко не самым важным фактором при вычислении регрессий, в некоторых случаях целесообразнее вообще отказаться от вычислений, нельзя не согласиться. Часто ошибки в данных на порядок выше ошибок, привносимых программой. Для устойчивых регрессий даже самые плохие программы давали хорошие результаты. Одним из примеров, когда необходимо вообще отказаться от вычислений по методу наименьших квадратов, как показано в [84], является регрессия Лонгли.
|
1 |
Оглавление
|