Всякая корреляционная  -матрица является симметрической, т. е.
-матрица является симметрической, т. е.  , где
, где  символ транспонирования (замены местами строк и столбцов), и неотрицательно определенной. Последнее означает, что для любого ненулевого вектора
 символ транспонирования (замены местами строк и столбцов), и неотрицательно определенной. Последнее означает, что для любого ненулевого вектора  
 
 
 
где равенство — следствие определения матричного произведения вектора-строки  матрицы К и вектора-столбца
 матрицы К и вектора-столбца  Если в (2.4.1) имеет место строгое неравенство, то матрица К называется положительно определенной. Неотрицательная определенность корреляционной матрицы следует из того, что ее можно представить в виде
 Если в (2.4.1) имеет место строгое неравенство, то матрица К называется положительно определенной. Неотрицательная определенность корреляционной матрицы следует из того, что ее можно представить в виде 
 
 
где  вектор математических ожиданий и справа написано математическое ожидание произведения вектора-столбца
 вектор математических ожиданий и справа написано математическое ожидание произведения вектора-столбца  на вектор-строку
 на вектор-строку  т. е. математическое ожидание матрицы размера
 т. е. математическое ожидание матрицы размера  Для любого неслучайного вектора z
 Для любого неслучайного вектора z 
 
 
где использована перестановочность взятия математического ожидания и суммирования, а также введена с. в. 
 
 
Известно (см., например, [1]), что для любой симметрической матрицы  существует такая система ортонормальных векторов
 существует такая система ортонормальных векторов  что
 что 
 
 
Действительные числа  называются собственными числами, а векторы
 называются собственными числами, а векторы  собственными векторами матрицы К, причем — собственный вектор, соответствующий собственному числу Систему равенств (2.4.5) можно записать в матричном виде:
 собственными векторами матрицы К, причем — собственный вектор, соответствующий собственному числу Систему равенств (2.4.5) можно записать в матричном виде: 
 
 
где 
 
 
— матрица, строки которой — собственные векторы матрицы  диагональная матрица с элементами
 диагональная матрица с элементами 
 
на главной диагонали. В силу ортонормальности собственных векторов матрица  является ортогональной, т. е.
 является ортогональной, т. е. 
 
где  единичная
 единичная  -матрица.
-матрица. 
Используя хорошо известные свойства определителей и, в частности, то, что  можно получить, что
 можно получить, что 
 
Всякая квадратная  -матрица А задает некоторое линейное преобразование
-матрица А задает некоторое линейное преобразование  -мерного векторного пространства в себя, при котором вектор
-мерного векторного пространства в себя, при котором вектор  переводится в вектор
 переводится в вектор  Рассмотрим линейное преобразование, задаваемое ортогональной матрицей
 Рассмотрим линейное преобразование, задаваемое ортогональной матрицей  Такое преобразование называется ортогональным. Для любого вектора х
 Такое преобразование называется ортогональным. Для любого вектора х 
 
 
Заметим, что всякое линейное преобразование переводит нулевой вектор в себя, а всякое ортогональное преобразование сохраняет длину вектора. Действительно, если  то
 то 
 
 
есть длина вектора х. Очевидно, 
 
 
т. е. длина преобразованного вектора у равна длине исходного вектора х. Это свойство ортогонального преобразования позволяет его интерпретировать как вращение системы координат  -мерного векторного пространства вокруг начала координат.
-мерного векторного пространства вокруг начала координат. 
Пусть X — случайный вектор с корреляционной матрицей  ортогональная матрица, образованная собственными векторами матрицы Пусть
 ортогональная матрица, образованная собственными векторами матрицы Пусть  случайный вектор, получающийся в результате ортогонального преобразования с матрицей
 случайный вектор, получающийся в результате ортогонального преобразования с матрицей  из случайного вектора
 из случайного вектора  
 
 
 
Обозначим через  корреляционную матрицу вектора К. Легко видеть (см. (2.4.2) и (2.4.8)), что
 корреляционную матрицу вектора К. Легко видеть (см. (2.4.2) и (2.4.8)), что 
 
 
где  — векторы математических ожиданий.
 — векторы математических ожиданий. 
Таким образом, корреляционная матрица вектора  является диагональной, причем элементы главной диагонали суть
 является диагональной, причем элементы главной диагонали суть  
 
собственные числа матрицы  Это означает, что с. в.
 Это означает, что с. в.  являются некоррелированными и дисперсия с. в.
 являются некоррелированными и дисперсия с. в.  
 
 
 
т. е. равна  собственному числу корреляционной матрицы
 собственному числу корреляционной матрицы  Если X — гауссовский случайный вектор, то У — также гауссовский случайный вектор. При этом случайные величины
 Если X — гауссовский случайный вектор, то У — также гауссовский случайный вектор. При этом случайные величины  являются независимыми и гауссовскими, т. е.
 являются независимыми и гауссовскими, т. е. 
 
где 
 
Мы показали, что любую систему гауссовских с. в. с помощью ортогонального преобразования (поворота системы координат) можно преобразовать в систему независимых гауссовских с. в. Верно и обратное, если  система независимых гауссовских с. в. с математическими ожиданиями ту,
 система независимых гауссовских с. в. с математическими ожиданиями ту,  туп и дисперсиям»
 туп и дисперсиям»  произвольная ортогональная матрица, то
 произвольная ортогональная матрица, то 
 
 
есть гауссовский случайный вектор, компоненты которого имеют математические ожидания 
 
 
и корреляционная матрица  которого есть
 которого есть 
 
 
При этом строки матрицы  есть собственные векторы, а
 есть собственные векторы, а  собственные числа матрицы
 собственные числа матрицы  Если
 Если  то матрица
 то матрица  невырождена, т. е.
 невырождена, т. е.  и система с. в.
 и система с. в.  имеет невырожденное
 имеет невырожденное  -мерное гауссовское распределение с ф. п. в. (2.3.25).
-мерное гауссовское распределение с ф. п. в. (2.3.25). 
Пример 2.4.1. Пусть  гяуссовский случайный вектор на плоскости с
 гяуссовский случайный вектор на плоскости с  в. (2.2.36). Предположим, что
 в. (2.2.36). Предположим, что  тогда коррелляциоиная матрица этого вектора есть
 тогда коррелляциоиная матрица этого вектора есть 
 
 
где  коэффициент корреляции с. в.
 коэффициент корреляции с. в.  Нетрудно проверить, что векторы
 Нетрудно проверить, что векторы 
 
 
— собственные векторы матрицы  соответствующие собственным числам
 соответствующие собственным числам 
 
 
Ортогональное преобразование, задаваемое ортогональной матрицей 
 
переводит случайный вектор X в случайный вектор  с независимыми гауссовскими компонентами
 с независимыми гауссовскими компонентами  Очевидно, что математические ожидания и дисперсии этих с. в.
 Очевидно, что математические ожидания и дисперсии этих с. в. 
 
 
Заметим, что ортогональное преобразование есть обратимое преобразование, поскольку  
 
В следующем примере мы покажем, как можно использовать ортогональные преобразования для вычисления средней взаимной информации между гауссовскими случайными векторами. 
Пример 2.4.2. Пусть  гауссовский случайный вектор
 гауссовский случайный вектор  корреляционной матрицей
 корреляционной матрицей  пусть
 пусть  такой же вектор с корреляционной матрицей
 такой же вектор с корреляционной матрицей  который будем считать статистически независимым от вектора
 который будем считать статистически независимым от вектора  . В отличие от примера 2.3.3, здесь будет предполагаться, что
. В отличие от примера 2.3.3, здесь будет предполагаться, что  диагональная матрица с одинаковыми ненулевыми элементами
 диагональная матрица с одинаковыми ненулевыми элементами  на главной диагонали. Нас будет интересовать средцяя взаимная информация
 на главной диагонали. Нас будет интересовать средцяя взаимная информация  между векторами
 между векторами  Хотя
 Хотя  вычислено в примере 2.3.3, мы снова рассмотрим вычисление этой величины с использованием ортогонального преобразования.
 вычислено в примере 2.3.3, мы снова рассмотрим вычисление этой величины с использованием ортогонального преобразования. 
Пусть  ортогональная матрица, соответствующая матрице
 ортогональная матрица, соответствующая матрице  Тогда
 Тогда 
 
 
где  собственные числа матрицы
 собственные числа матрицы  к
 к 
 
 
Отсюда следует, что 
 
т. е. ортогональная матрица  диагонализирует также корреляционную матрицу
 диагонализирует также корреляционную матрицу  вектора У, и, следовательно, вектор
 вектора У, и, следовательно, вектор  имеет независимые
 имеет независимые  
 
компоненты с дисперсиями  Далее из обратимости ортогонального преобразования вытекает, что
 Далее из обратимости ортогонального преобразования вытекает, что 
 
где второе равенство есть следствие того, что ортогональное преобразование не меняет относительную энтропию (см. задачу  и независимости векторов
 и независимости векторов  а третье равенство — следствие того, что относительная энтропия системы независимых с. в. равна сумме относительных энтропий каждой из с. в. системы. Нетрудно усидеть, что в рассматриваемом случае выражения (2.3.35) и (2.4.29) совпадают.
 а третье равенство — следствие того, что относительная энтропия системы независимых с. в. равна сумме относительных энтропий каждой из с. в. системы. Нетрудно усидеть, что в рассматриваемом случае выражения (2.3.35) и (2.4.29) совпадают.