Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.5. ЦЕНТРИРОВАНИЕ И МАСШТАБИРОВАНИЕ. ПРЕДСТАВЛЕНИЕ РЕГРЕССИИ В КОРРЕЛЯЦИОННОЙ ФОРМЕЕсли в регрессионную модель включены только одна или две предикторные переменные, то непосредственное вычисление по формуле Пример, Хотя цифровая машина перерабатывает значительно больше цифр, чем человеческая «вычислительная машина», ошибки такого типа нередко происходят и часто приводят к совершенно не верным результатам или к увеличению времени счета. Заключения, которые, по общему мнению, логичны, иногда базируются целиком на капризах ошибок округления. В работе Р. Фройнда о предупреждении ошибок округления в регрессионном анализе (Freund R.J. A warning of round-off errors in regression.- American Statistician, December, 1963, 17, p. 13-15) приведен пример, в котором пять различных регрессионных вычислений с использованием четырех разных регрессионных программ привели к значительным различиям в оцениваемых коэффициентах, обусловленным ошибками округления. Для преодоления этого некоторые программы позволяют получать результаты с удвоенной точностью. Это означает, что машина (по требованию) работает с числами, вдвое более длинными, чем обычно. Применение такого приема как стандартного способа приводит к излишнему расходованию машинного времени и часто оказывается неоправданной предосторожностью. Гораздо лучше сначала выяснить, что ошибки округления могут иметь место, и лишь тогда предпринимать шаги, позволяющие уменьшить ошибки, а возможно, и исключить их полностью. Две основные причины ошибок округления таковы: 1. Числа, включенные в регрессионные вычисления, могут резко различаться по порядку, как, например, если включить в расчет числа вроде 2. Матрица, которую надо обращать, может оказаться очень близкой к вырожденной. Из уравнений (2.1.10) и (2.1.11) мы можем видеть, что определитель матрицы входит в каждый элемент обратной матрицы. Если определитель матрицы мал по сравнению с остальными числами в расчете, то помехи от округления, вероятно, будут иметь место, и это справедливо не только для матриц Плохая обусловленностьКогда существуют строгие зависимости между столбцами матрицы X, т. е. когда один (или более) столбцов можно строго выразить как линейную комбинацию (с различными численными коэффициентами) других столбцов, определитель ложится либо на «модельера», либо на «сборщика данных») Дело, по существу, сводится к выбору между простотой модели и охватом, если, конечно, можно собрать данные, позволяющие оценить такую модель. Когда же зависимости проявляются лишь приближенно, в матрице Допустим, что мы хотим подобрать общую линейную модель методом наименьших квадратов в виде
где
и вектор
Тогдс! оценка вектора Р, а именно
дается выражением
а
так что
то
(Наоборот, если для приведенного выше простого примера имеет вид:
«Центрирование» данныхПусть мы имеем следующую матрицу исходных данных вместе со средними по столбцам:
Наша модель такова:
Мы можем переписать ее в виде
где
то модель можно будет выразить так:
Теперь можно преобразовать данные, как мы сделали раньше с переменными, так что
или
независимо от того, какими могут быть значения Поскольку это будет верно всегда, мы можем исключить
для оценивания методом наименьших квадратов. И она будет давать точно те же оценки параметров и предсказанные значения, какие мы получили бы, если бы воспользовались МНК для уравнения (5.5.6). (При вычислениях на карманном калькуляторе это иногда полезно, так как уменьшает на единицу размер матрицы, которую требуется обратить.) Кажущийся выигрыш, состоящий в том, что теперь надо оценивать на один параметр меньше, компенсируется тем, что
и поэтому одна степень свободы исключается из общего числа. Матрица данных для уравнения (5.5.8) будет иметь следующий вид:
Для иллюстрации ситуации в очень простом случае мы воспользуемся примером, построенным выше, с матрицей исходных данных (5.5.4). Положим
Заметим, что благодаря центрированию столбцов
|
1 |
Оглавление
|