Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
Глава 9. ДИСПЕРСИОННЫЙ АНАЛИЗ9.1. Классификация по одному признаку9.1.1. Представление в виде регрессионной моделиВ примере 4.2 из разд. 4.1.3 мы показали, как общую теорию регрессии можно применить к задаче сравнения средних двух нормальных совокупностей, когда дисперсии этих совокупностей равны. Теперь мы распространим эту теорию на случай сравнения I нормальных совокупностей . Пусть — значение наблюдения над I-й нормальной совокупностью При этом имеем следующий массив данных:
Для того чтобы использовать общую теорию регрессии, объединим имеющуюся информацию в модель
независимые и одинаково распределенные случайные величины, имеющие распределение Используя векторную запись, эту модель можно представить в виде
или
где Поскольку столбцы матрицы X линейно независимы, то (9.2) представляет собой частный случай линейной модели регрессии (полного ранга) из § 3.1 с сюда не включается). Интересующая нас нулевая гипотеза имеет вид (обозначим это общее значение символом или . В матричной форме она записывается так:
или Строки входящей сюда матрицы А очевидным образом линейно независимы. Поэтому матрица А имеет размер и ранг где Таким образом, — линейная гипотеза, и применима теория гл. 4; -критерий для гипотезы Я задается с помощью статистики
Для отыскания RSS надо минимизировать по отношению к Переходя к частным производным по переменным получаем
и
Для отыскания RSS минимизация производится при ограничениях, задаваемых гипотезой . Простейший путь состоит здесь в использовании гипотезы для уменьшения числа свободных параметров до одного, скажем Минимизируя сумму по отношению к получаем где общее среднее"), и
Последнее выражение легко преобразуется к виду
(сумма со смешанными произведениями равна нулю), и поэтому
Таким образом, (9.4) принимает вид
Если гипотеза Я верна, то эта статистика имеет распределение Заметим, наконец, что модель (9.1) можно представить также в виде
где является наблюдением над фиктивным категоризованным регрессором Здесь если -наблюдение, соответствующее 1-й совокупности, и в противном случае. 9.1.2. ВычисленияНа практике различные суммы квадратов принято располагать в виде таблицы (табл. 9.1). Таблица 9.1 (см. скан) Таблица дисперсионного анализа для классификации по одному признаку При этом строки, расположенные ниже строки "скорректированная полная" (имеется в виду "полная сумма квадратов, скорректированная относительно среднего"), часто опускаются. Терминология для сумм, используемых в столбце "источник" (т. е. источник дисперсии, изменчивости. Перев.), в различных работах бывает разной. Так, вместо термина "между совокупностями" употребляется термин "между группами", а также термин "между способами обработки". Сумма квадратов, расположенная в строке "ошибки", иногда называется суммой квадратов "внутри групп", "внутри совокупностей" или "остаточной" суммой квадратов. Эта сумма дает оценку для построенную по всем наблюдениям. Если вычисления производятся на настольном калькуляторе, то полезно использовать соотношения
где
Формулы (9.6) и (9.7) требуют вычисления только полных сумм и их квадратов. При этом ошибки округления, связанные с делением, сводятся к минимуму. В то же время необходимо проявлять достаточную осторожность, вычисляя разность двух величин (особенно приблизительно равных). Если при подобных вычислениях использовать слишком мало десятичных знаков, то полученное значение разности может оказаться весьма далеким (в смысле относительной погрешности. Перев.) от действительного. По этой причине в программах для ЭВМ предпочтительнее непосредственно использовать разности (или использовать методы Youngs, Cramer (1971) и Ling (1974)), а не пользоваться соотношениями (9.6) и (9.7). Стоит, наверное, отметить простой способ запоминания приведенных двух формул. Рассмотрим первую из них. Вид суммируемых квадратов указывает на то, что сумма составляется из элементов Перед первым надо поставить знак суммы (на это "указывает" индекс Перев.), а перед вторым — знак минус. Кроме того, первую из этих составляющих надо разделить на число наблюдений У, участвующих в построении элемента , а вторую - на число наблюдений участвующих в построении элемента С помощью подобных "правил" можно легко выписывать выражения типа (9.6) и (9.7) и для других сумм. Например, сумму можно сразу записать в виде
Эксперименты, используемые для проведения классификации по одному признаку, обычно называются однофакторными экспериментами. Так, например, может возникнуть задача сравнения эффективности шести различных лекарств или эффективности одного и того же лекарства, но даваемого в шести различных дозах. При этом данное лекарство является фактором, и имеется шесть различных уровней этого фактора. 9.1.3. Математические ожиданияИз общей теории (теорема 4.1) нам известно, что
и
При выводе этих выражений мы воспользовались тем, что необходимые нам степени свободы известны из анализа рангов матриц, связанных с исходной моделью регрессии из разд. 9.1.1. С другой стороны, в ряде планов эксперимента найти степени свободы непосредственно на основании рангов довольно трудно. В таких случаях эти степени свободы можно найти, используя общую формулу
в которой а - сумма коэффициентов при квадратах составляющих вектора Эти коэффициенты можно определить из соотношений (9.6) и (9.7). Например, из (9.6) имеем
9.1.4. Перепараметризация моделиУстановив возможность использования для проверки интересующей нас линейной гипотезы общей теории регрессии, мы затем отыскиваем выражения для RSS и Рассмотрим теперь отличный от предыдущего метод отыскания этих сумм, использующий перепараметризацию модели. Пусть
где Тогда гипотеза Я принимает вида (ограничение а. влечет за собой и равенство . Рассмотрим далее аналогичное разложение для а именно
так что
Возведем обе части последнего равенства в квадрат и просуммируем полученные выражения по и по При этом
и
Учитывая теперь, что получаем
Из этого разложения для мы и находим и Например, при условии а. правая часть (9.13) достигает минимума, если равны соответственно. При этом
Если верна гипотеза Я, то (9.13) принимает вид
и его правая часть достигает минимума при Поэтому
и
Хотя указанная перепараметризация и не приводит здесь к реальному упрощению вычисления -статистики, используемой для проверки гипотезы , мы увидим в дальнейшем, что она приводит к значительным упрощениям в задачах классификации по двум и большему числу признаков. 9.1.5. Геометрический анализПредставляется интересным более внимательно рассмотреть геометрическую сущность разложения (9.12). Соответственно структуре вектора 8, образованного элементами (см. Перев.), введем векторы у которых Тогда, учитывая (9.10), имеем
Векторы взаимно ортогональны. Например, из (9.11) вытекает, что Поэтому
а это и есть соотношение (9.12). Если то можно показать, что матрицы будут при этом симметричны и идемпотентны, причем Поэтому в силу теорем 2.7 (следствие 1) и 2.8 случайные величины взаимно независимы и имеют -распределения с числами степеней свободы, задаваемыми следами матриц соответственно. Таким образом, если гипотеза верна, то
и
Это показывает, что при справедливости гипотезы Я статистика (9.5) имеет -распределение. Интересно отметить, что взаимную независимость указанных квадратичных форм можно доказать и непосредственно следующим образом. Повторным применением теоремы 1.5 (для одномерных векторов, т. е. для скалярных величин) находим
так что Подобным же образом показываем, что а тогда по следствию 1 из теоремы 2.7 (§ 2.3) случайные величины и взаимно независимы. 9.1.6. Идентифицирующие ограниченияЗаметим, что перепараметризованная модель
имеет неполный ранг, поскольку. первый столбец соответствующей матрицы плана X равен сумме остальных ее столбцов (ср. с (3.40) из разд. 3.8.1). Ограничение участвовавшее в определении (соотношение (9.9)), являете необходимым и достаточным для идентификации В то же время мы могли бы отправляться непосредственно от модели (9.17) и ввести идентифицирующее ограничение вида Дополним матрицу X в (9.1) строкой ( не зависящей линейно от остальных строк этой матрицы. Если то столбцы расширенной матрицы также линейно независимы. Поэтому для идентификации можно использовать любую линейную комбинацию параметров для которой (см. теорему 3.9 из разд. 3.8.1). При выбранных значениях дооценки наименьших квадратов для можно найти непосредственно из соотношения Так, мы получаем д. В то же время, как мы уже видели, выбор значений приводит к более простому анализу. 9.1.7. Доверительные интервалыЕсли в результате применения -критерия гипотеза отвергается, то следующий шаг состоит в выяснении того, в какой степени параметры отличаются друг от друга. В частности, нас обычно интересуют также разности, как и т. п. Эти линейные комбинации называются сравнениями (contrasts) параметров так как все они имеют вид где Поскольку линейная комбинация имеет дисперсию то, используя рассуждения из разд. 4.1.5, можно легко показать, что интервал
где является -процентным двусторонним доверительным интервалом для Заметим, что значимо отличается от нуля, если этот интервал не содержит нуля. Если нас интересуют сразу несколько сравнений, выбранных априори, до обращения к данным, мы сталкиваемся с задачей одновременного (совместного) интервального оценивания, обсуждавшейся в гл. 5. Там были описаны три метода построения доверительных интервалов, причем наиболее узкими оказываются -интервалы максимального модуля. Если, однако, нас интересуют все возможные сравнения, то следует использовать метод Шеффе. Положим, — матрица, указанная в (9.3). Тогда множество всех линейных комбинаций совпадает с множеством всех сравнений (см. (5.16)). Поэтому, как явствует из последнего пункта разд. -статистика для гипотезы будет значимой в том и только том случае, когда хотя бы один из интервалов Шеффе
не содержит нуля (т. е. ненулевым оказывается хотя бы одно из сравнений Таким образом, если -статистика оказывается значимой, можно попытаться найти те сравнения, которые являются тому причиной (хотя такой поиск может быть и непростым ввиду потенциально бесконечного числа сравнений). Если интерес для нас представляют только разности вида то для этих разностей можно построить совокупность доверительных интервалов с вероятностью одновременного накрытия, в точности равной Эти интервалы имеют вид
или
где верхняя -процентная точка распределения стьюдентизированного размаха с параметрами (т. е. распределения размаха независимых -случайных величин, деленного на где V — независимая от них случайная величина, имеющая распределение Данный метод, предложенный Тьюки, подробно описан в работах Scheffe (1959, с. 111 — 112) и Miller (1966, с. 37). Соответствующие таблицы можно найти, например, в работе Pearson, Hartley (1970, с. 191 — 193). Поскольку во всяком отклонении разности от нуля более, чем на усматривают связь с тем, что то можно рассортировать средние по группам, внутри которых средние не будут значимо отличаться друг от друга. Например, если и упорядоченные (по возрастанию) значения выборочных средних равны
то и соответствующими группами средних будут (обычно принято подчеркивать выделенные группы, как это сделано в нашей табличке). Другим методом разбиения средних по группам является критерий множественного ранжирования Дункана [Miller (1966, с. 81)]. Хотя эта процедура весьма популярна среди исследователей, тем не менее она не стала общепринятой среди статистиков. Особенно много споров вызвал непостоянный уровень значимости этой процедуры [ONeill, Wetherill (J971, с. 226- 227)]. Имеются еще два подхода к задаче сортировки средних, представляющихся весьма многообещающими. Поскольку мы, по существу, имеем дело с вопросом принятия решений, то естественно поставить задачу именно в контексте теории принятия решений. Подобную формулировку задачи дали Waller, Duncan (1969). С другой стороны, задачу сортировки средних можно рассматривать как задачу отнесения точек выборки (представляющих выборочные средние) к одному из нескольких кластеров. Относительно техники кластер-анализа, которая может оказаться полезной в этом смысле, см. Scott, Knott (1974). Различные процедуры попарных сравнений, подобные упомянутым выше, сопоставляются в статье Carmer, Swanson (1973) с помощью численного моделирования. При этом наилучшими для выполненных экспериментов оказались так называемый метод минимальной значимой разности, основанный на простых попарных -сравнениях
(которые производятся только в случае, когда величина Л-статистики оказывается значимой), и байесовская процедура Waller, Duncan (1969). 9.1.8. Исходные предположенияВ разд. 6.3.2 мы видели, что квадратично сбалансированные -критерии устойчивы к отклонениям от предположения нормальности. Теперь мы в состоянии, получив -статистику, сразу проверить ее на квадратичную сбалансированность. Надо просто, взяв числитель и знаменатель этой статистики, посмотреть, будет ли в каждом случае коэффициент при одним и тем же для всех Поскольку для статистики (9.5) это так, то классификация по одному признаку с равными числами наблюдений на каждое среднее, обладает указанной устойчивостью. Вопрос устойчивости рассмотрен довольно подробно также в книге Scheffe (1959, гл. 10). Там показано, что -статистика устойчива и по отношению к возможному неравенству дисперсий. совокупностей, но не является устойчивой по отношению к наличию корреляций между членами совокупностей. Bhargava, Srivastava (1973) показали, как в последнем случае следует модифицировать совместные доверительные интервалы Шеффе, чтобы допустить возможность наличия постоянной корреляции. Их метод, по существу, сводится к замене на
и соответствующему изменению числа степеней свободы. Для проверки равенства дисперсий совокупностей имеется целый ряд процедур. Среди них можно отметить, в частности, приближенный -критерий [Box (1953)], описанный Scheffe (1959, с. 128), служащий хорошим примером использования метода наименьших квадратов; приближенный -критерий, основанный на абсолютных уклонениях [Levene (1960), Draper, Hunter (1969)], а также два других критерия [Layard (1973)], носящих названия хи-квадрат критерия и критерия "складного ножа" (эти критерии незначительно модифицировали Brown, Forsythe (1974)). Используя моделирование, Layard (1973) показал, что оба его критерия вполне удовлетворительны, когда упор делается на устойчивость и на мощность критерия. С другой стороны, критерий Бокса является не столь мощным, зато он более, устойчив в отношении уровня значимости. При наличии корреляции полезными могут оказаться процедуры, предложенные Han (1968). При неравенстве дисперсий совокупностей можно использовать модификацию совместных доверительных интервалов Шеффе [Spjotvoll (1972b)]. Если нас интересует лишь один доверительный интервал, скажем для можно применить устойчивую процедуру Scott, Smith (1971) (см. конец разд. 9.1.9). 9.1.9. Неравные числа наблюдений на каждое среднееЕсли мы имеем наблюдений над нормальной совокуп ностью, то единственное изменение в теории разд. 9.1.1 состоит в том, что здесь Соответствующей -статистикой для гипотезы будет
В разд. 9.1.2 в соотношениях (9.6) и (9.7) величины заменяются соответственно на Лравила" Для запоминания этих соотношений остаются в силе. В то же время при использовании предложенной в разд. 9.1.4 перепараметризации возникают некоторые трудности. Разложение (9.10) остается ортогональным, если положить поскольку например, (9.11) все еще выполняется, и
так что имеет место (9.12). Однако соотношение (9.13) уже не будет справедливым, потому, например, что
Однако последнее можно обойти. Для этого надо просто выбрать другое идентифицирующее ограничение, а именно -Тогда (9.13) сохраняет силу. (Напомним, что в соответствии с разд. 9.1.6 для идентификации можно использовать любое ограничение в котором левая часть не является сравнением.) Хотя при классификации по одному признаку перепараметризация модели имеет в основном лишь теоретический интерес, она, как мы увидим позднее, дает по крайней мере подходящую процедуру для проведения классификации по большому числу признаков. Трудности, с которыми мы встретились в случае неравных чисел наблюдений, оказываются на практике типичными и при классификации по двум и более признакам при неравных числах наблюдений на каждое среднее. Заметим, что и здесь можно использовать совместные доверительные интервалы Шеффе и Тьюки [Spjotvoll, Stoline (1973)]. Последние рекомендуются, если основной интерес заключается в попарном сравнении средних и если значения не слишком отличаются друг от друга. Однако -статистика для проверки гипотезы более не является устойчивой относительно отклонений от нормальности (так как она уже не является квадратично сбалансированной) и относительно возможного неравенства дисперсии совокупностей. Если дисперсии совокупностей различны, то можно использовать модификацию Spjotvoll (1972b) совместных доверительных интервалов Шеффе. Если нас интересует только один доверительный интервал, скажем для то можно использовать приблизительно распределенную по статистику [Scott, Smith (1971)]
где
|
1 |
Оглавление
|