4.2.2. Распределения с древообразной структурой зависимостей (ДСЗ).
Изложение начнем с определения.
Определение 4.6. Будем говорить, что
-мерный вектор X имеет ДСЗ, если существует хотя бы одна перестановка координат вектора
, такая, что для каждого
найдется номер
что «почти всюду по
для всех
При этом
соответствует фиктивной координате
Для вектора X с ДСЗ рассмотрим граф
, где
Граф G имеет
ребер и в силу (4.7) не имеет цикла, поэтому согласно
теоремы 4.1 он является деревом. Отсюда и происходит термин «древооб разная структура зависимостей». Граф G будем называть графом структуры зависимостей X. Заметим, что в случае, когда для некоторого
можно положить
, т. е. распределение
не зависит
можно было бы выбрать любое из чисел, стоящих в правой части (4.7).
Таким образом, граф G определяется, вообще говоря, неоднозначно.
Однако единственность будет, если на распределение X наложить дополнительное ограничение; для всех пар координат
для всех возможных значений
в случае дискретного распределения X
и в непрерывном случае
В важном частном случае невырожденного
-мерного нормального распределения условие (4.8) выполняется всегда.
Теорема 4.2. Пусть вектор X имеет ДСЗ, выполняются условия (4.8) и (4.8) и
— два различных графа структуры зависимостей X. Тогда для любого ребра
координаты (вектора) и
независимы, т. е. графы
отличаются друг от друга только ребрами, соответствующими независимым координатам. Ввиду принципиальной важности этого результата изложим схему его доказательства. Оно проводится в несколько шагов.
1. В графе
выбирается простая цепь, соединяющая вершины i и
Согласно п. 4 теоремы 4.1 она всегда существует. Так как
цепь содержит хотя бы одну вершину, отличную от
. Обозначим эту вершину
.
2. Координаты
как лежащие на простой цепи (в графе
), образуют марковскую последовательность. Следовательно, в дискретном случае совместное распределение
описывается формулой
3. Возьмем в графе
простую цепь, соединяющую
Возможны два случая: 1) цепь содержит вершину
и 2) цепь не содержит вершину
. В первом случае на простой цепи вершины лежат в порядке
во втором — в порядке
Оба случая рассматриваются одинаково. Пусть для определенности имеет место первый случай, тогда совместное распределение
описывается формулой
4. Формулы (4.9) и (4.10) описывают одно и то же распределение, поэтому их можно приравнять.
Опираясь на условие (4.8), в полученном равенстве можно произвести упрощения. После несложных преобразований получаем
Произведем суммирование по всем возможным значениям
. В результате получаем, что
что и требовалось доказать. Случай непрерывных распределений рассматривается аналогично с заменой вероятностей на соответствующие плотности.
Рассмотрим теперь задачу о нахождении при известном графе структуры зависимостей G перестановки координат а, позволяющей представить распределение X в виде (4.5). Положим
и возьмем произвольную простую цепь, начинающуюся в 0. Будем двигаться вдоль нее от нуля, считывая номера проходимых координат и приравнивая их
Затем берем следующую простую цепь, начинающуюся в одной из уже пройденных вершин или в 0, и двигаемся вдоль нее, продолжая считывание, и т. д. до тех пор, пока не будут исчерпаны все вершины графа и тем самым определена полностью перестановка а. Поскольку координаты, лежащие вдоль простой цепи, образуют цепь Маркова (см. п. 2, 3 схемы доказательства теоремы 4.2), из построения а сразу же следует возможность представления распределения X в виде (4.5). В отдельных случаях перед построением а может оказаться удобным в графе G изменить некоторые несущественные связи, соответствующие независимым координатам
с теоремой 4.2). 4.2.3. Нормальное распределение с ДСЗ. Пусть X имеет невырожденное
-мерное распределение с вектором средних М и ковариационной матрицей
с известной структурой зависимостей, заданной функцией
. Вопросы, связанные с нахождением
обсуждаются в следующем параграфе. Наша ближайшая цель — найти общий вид плотности X.
Известно (см. [14, с. 172] и теорему 2.5.1 [20, с.
), что условное распределение при фиксированном значении компоненты
нормально с параметрами
где
Откуда в силу (4.5) плотность X равна:
Таким образом, гауссовские распределения с ДСЗ имеют очень простой вид
— матрицы, обратной ковариационной. В ней над диагональю стоят не более
отличных от нуля элементов. Если перестановка а совпадает с исходной нумерацией координат X, то над главной диагональю в каждом столбце
стоит не более одного отличного от нуля элемента.
В качестве примера приведем ковариационные матрицы случайных векторов, графы структуры зависимостей которых показаны на рис. 4.1 и 4.2. В первом случае
и во втором
здесь знаком показаны отличные от нуля элементы.
Полезно представление
в виде
где
— матрица с элементами
Если перестановка а совпадает с исходной нумерацией координат, то
и С — нижняя треугольная матрица.
Граф структуры зависимостей G нормально распределенного вектора X может быть использован при вычислении коэффициентов корреляции между координатами X. Для этого нам необходимо знать только
коэффициентов корреляции между парами координат, соответствующих ребрам G.
Теорема 4.3. Для нормального вектора X с ДСЗ для всех
где
— простая цепь, связывающая в графе G структуры зависимостей вершины
Доказательство. Последовательность координат X, образующая простую цепь, является марковской (см. п. 2 и 3 доказательства теоремы 4.2). Пусть эти координаты будут
. В силу теоремы 1 [140, с. 122] для последовательности нормальных величин, связанных в цепь Маркова,
что и требовалось доказать.
Остановимся теперь на выборочной оценке
при известном графе G структуры зависимостей. В качестве первого шага по графу G находится перестановка а. Это можно, например, сделать так, как указано в конце предыдущего пункта. Далее строится С — оценка матрицы С путем замены в С величин
их выборочными оценками,
— оценка
находится как
Если в качестве
взять обычные в нормальном случае выборочные оценки [14, табл. 6.3, п. 6], то
есть оценка максимального правдоподобия [14, § 8.2] для
при известной структуре зависимостей. Для доказательства этого можно воспользоваться леммой 3.2.2 [20], позволяющей найти в рассматриваемом случае максимум уравнения правдоподобия.