Главная > Многомерный дисперсионный анализ
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

9. МНОГОМЕРНАЯ МОДЕЛЬ СО СЛУЧАЙНЫМИ ЭФФЕКТАМИ (модель II)

В этой главе на примере однофакторной классификации мы рассмотрим основные идеи построения оценок многомерных компонент дисперсии исходя из хорошо известного одномерного случая. Таким образом, эту главу следует рассматривать как введение в раздел «Многомерные компоненты дисперсии» или «Многомерная модель II».

Хороший обзор по данной проблеме содержится в [75].

Мы ограничимся здесь рассмотрением сбалансированных планов эксперимента. Как одномерный аналог можно использовать метод оценивания компонент дисперсии, или метод анализа дисперсий. Он основан на том, что анализ дисперсий проводится в предположении, что модель имеет систематические эффекты. Суммы квадратов получаются такими же, как в задаче классификации. Путем деления этих сумм на соответствующие степени свободы получаем средние суммы квадратов, а из них математические ожидания, предполагая теперь, что модель имеет случайные эффекты. Математические ожидания — линейные функции компонент дисперсии. Приравнивая эти математические ожидания к их наблюдаемым значениям, получаем систему линейных уравнений с компонентами дисперсий. Решения системы и будут оценками компонент дисперсий. Этот метод подробно описан, например, у Г. Аренса [1] и в [82] для различных планов эксперимента.

Одномерный случай

Рассмотрим метод для одномерного случая и однофакторной классификации. Предположим, что фактор А имеет уровней, т. е. мы располагаем выборками объема К-Модель

где — генеральная средняя, систематический эффект; некоррелированные случайные переменные, для всех некоррелированные случайные переменные, для всех

Случайные переменные взаимно некоррелированы.

Предполагая, что систематические эффекты (параметры), отношении которых нужно проверить нулевую гипотезу, получаем известную таблицу дисперсионного анализа:

(см. скан)

Если теперь предположить, что являются случайными эффектами, то получим, что математические ожидания соответственно равны:

Система уравнений для нахождения оценок компонент дисперсии приобретает вид

откуда

Чтобы найти оценки многомерных компонент дисперсии, необходимо знать точную структуру ковариационной матрицы плана эксперимента в одномерном случае. Векторная запись модели (9.1):

где

Разбиению матрицы плана на подматрицы

соответствует разбиение вектора на два вектора

Ковариационную матрицу 2 получаем из выражения

Исходя из предпосылок относительно получаем, что

где 1 — вектор из единиц. Следовательно,

где -матрица из единиц. С учетом некоррелированности получаем

Применяя разбиение матрицы и вектора ковариационную матрицу плана эксперимента можно представить в виде

Это разложение ковариационной матрицы 2 имеет место по крайней мере для всех сбалансированных планов полной классификации.

Например, при -факторной классификации без взаимодействия матрица плана X разбивается следующим образом:

Если компоненты дисперсии этого плана эксперимента, то ковариационную матрицу 2 этого плана можно представить в виде

Рассмотрим далее однофакторную классификацию. По методу дисперсионного анализа следует образовать математические ожидания двух квадратичных форм: причем структура матриц квадратичных форм нам еще неизвестна, но это вначале и не требуется.

На основе теоремы Ланкастера [39] математическое ожидание квадратичной формы сводится к вычислению следа.

Теорема. Пусть у — случайный вектор,

Тогда

(Теорема вначале доказывается для моментов высокого порядка.) Для случая полной классификации с одинаковым заполнением ячеек

С учетом (9.6) и (9.9) для математических ожиданий получим следующие уравнения:

Отбросим теперь оператор математического ожидания и вместо и подставим их оценки В результате получим систему уравнения для оценок

и

При полной классификации и сбалансированных планах матрицы квадратичных форм в таблице дисперсионного анализа идемпотентны, а потому (для однофакторной классификации)

что совпадает с числом степеней свободы соответствующих сумм квадратов Для получения коэффициентов необходимо знать структуру матриц что можно получить из так называемых матриц соотношений (см. [1]).

Это симметричные -матрицы, . При однофакторной классификации они состойт только из нулей и единиц. Положим по определению

и

где -матрица, состоящая сплошь из единиц, причем состоит из подматриц. Следовательно, матрицы можно определить через их подматрицы:

С помощью этого определения можно построить алгоритм умножения матриц. Положив, что

получаем

и

где I — единичная -матрица. Мы видим, что

Таким образом, получаем сначала коэффициенты

и

а затем и оценки (9.4).

Многомерный случай

Будем исходить из модельного уравнения

Сведем все векторов (каждый с компонентами, в одну матрицу Так получим известную линейную многомерную модель

где X — матрица плана, как и в одномерном случае.

Первые строк матрицы В — взаимно некоррелированные -мерные случайные векторы с математическим ожиданием и ковариационной -матрицей 2а (для всех Все строк матрицы также взаимно некоррелированы, с математическим ожиданием и ковариационной матрицей (для всех 2а и -подлежащие оценке многомерные компоненты ковариационной матрицы 2 всех векторов наблюдений. В многомерном случае (как и в одномерном) оценивание 2а и выполняют также по методу дисперсионного анализа.

Для начала предположим, что матрица В в модели (9.28) содержит только постоянные параметры. Введем матрицы

и

неотрицательно определенные с вероятностью 1. Отказываясь теперь от предположения о постоянстве параметров, так же как в одномерном случае, найдем математические ожидания Эти матрицы следует рассматривать как обобщенные квадратичные формы, распределение которых можно вывести, если известно распределение соответствующих обычных квадратичных форм для всех ненулевых векторов и (см. гл. 3).

Вывод законов распределения матриц содержится, например, в работе и Гнанадесикана [75]. Как следует из главы 4, матрицы в (9.29) и (9.30) идентичны матрицам соответствующих квадратичных форм одномерного случая. Поэтому

Причем имеют силу следующие простые соотношения:

это -векторы, состоящие из компонент заданных векторов измерений. Элементы квадратичные и билинейные формы векторов

Найдем математические ожидания и Воспользуемся для этого следующей теоремой, учитывая специфику нашего случая.

Теорема. Пусть векторы с

Тогда математическое ожидание квадратичной формы симметричная матрица) равно:

Для сбалансированного плана и полной классификации

Для ковариационной -матрицы V аналогично (9.6) действует разложение

С учетом (9.35)-(9.37) получаем следующие выражения для математических ожиданий и

т. е.

и соответственно

Математические ожидания матриц представляют собой линейные функции многомерных компонент дисперсии 2а и Уравнения (9.38) и (9.39) — это многомерное обобщение уравнений (9.10) и (9.11). Как было сказано выше при описании метода анализа дисперсий, опустим оператор математического ожидания и перейдем к оценкам:

Так как матрица плана X и ее базис а также матрицы в одномерном и многомерном случаях идентичны, то коэффициенты в (9.40) и (9.41) совпадают с коэффициентами одномерного случая (см. также (9.31) и (9.32)). С учетом этого получаем оценки:

Соотношения, выведенные для однофакторной классификации, как это видно из (9.7), справедливы для всех планов полной классификации, с одинаковой заполненностью ячеек (сбалансированные планы)

Для планов такого вида мы можем найти оценки соответствующих многомерных компонент дисперсии по аналогии с одномерным случаем Арене [2]).

Конечно, и в многомерном случае сохраняется тот недостаток метода, что положительные компоненты дисперсии могут получить отрицательные оценки (см. [82]).

Многомерные компоненты дисперсии (МКД) по определению положительно определены. Но так же как в одномерном случае, в многомерном их оценки могут быть отрицательно определенными. Большие затруднения вызывает интерпретация отрицательно определенных оценок положительно определенных матриц.

Удовлетворительно объяснить это явление как в одномерном, так и в многомерном случаях можно следующим образом:

а) Отрицательно определенную оценку будем считать доказательством того, что «истинная» МКД равна нулевой матрице. В качестве оценки следовало бы использовать нулевую матрицу вместо отрицательно определенной матрицы. Это предложение кажется убедительным. К сожалению, подправленные таким образом оценки перестают быть несмещенными.

б) Отрицательно определенная оценка может свидетельствовать о том, что выбранная модель не соответствует действительности вследствие чего нужно искать новую модель для описания результатов наблюдения.

в) Отрицательно определенная оценка может послужить поводом, чтобы поставить под сомнение метод, с помощью которого она была получена.

г) Предположим, что отрицательно определенная оценка вызвана недостаточным объемом анализируемого множества данных. Это означает, что следует привлечь для анализа дополнительную информацию и либо только по новым наблюдениям, либо с привлечением первоначальных данных построить новые оценки. Если опять получится отрицательно определенная оценка, она может послужить доказательством того, что «истинная» МКД равна нулю.

В каждом случае отрицательно определенная оценка только следствие используемых данных и метода оценивания и не связана с предположениями о распределении.

Как следует из описанной здесь процедуры оценивания МКД, основанной на методе дисперсионного анализа, для всех полных планов эксперимента с одйнрковой заполненностью ячеек МКД можно получить из соответствующих одномерных компонент дисперсий, подставляя вместо соответствующие матрицы . Коэффициенты систем уравнений совпадают в одномерном и многомерных случаях. Вопрос о том, что делать в случае несбалансированных планов, до сих пор не рассматривался. В частности, не известно, переносйм ли метод 1 Хендерсона на многомерный случай. Однако можно предположить, что при этом не возникнет особых затруднений.

1
Оглавление
email@scask.ru