Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике § 7.3. Последовательное байесовское оцениваниеТак как оценки параметров являются случайными векторами, полная информация о статистических свойствах оценок содержится в их совместной плотности вероятности, функции распределения вероятностей или характеристических функциях. В этом параграфе мы покажем, как плотность вероятностей оценки можег быть вычислена с помощью последовательной процедуры. 7.3.1. Оценивание в схеме с поощрением.Пусть объектов, которые используются для оценки плотности векторного параметра Значения X поступают последовательно одно за другим. Воспользовавшись теоремой Байеса, можно получить рекуррентное выражение для условной плотности вероятности параметра при фиксированных
где априорная плотность вероятности вектора предполагается известной. Если числитель (7.82) известен, то знаменатель можно найти, интегрируя числитель:
Таким образом, выражение (7.82) показывает, что если известна, то может быть вычислена. Повторение этой операции до тех пор, пока не станет равным единице, показывает, что для того, чтобы начать эту последовательность вычислений, нужно знать только Функция является априорной плотностью вероятности 0 и отражает наше начальное знание о параметре Оценивание вектора математического ожидания при известной ковариационной матрице. Оценим вектор математического ожидания М нормального распределения с известной ковариационной матрицей Е. Плотность вероятности предполагается нормальной с вектором математического ожидания и ковариационной матрицей Тогда, после наблюдения первого объекта имеем
где
Таким образом, плотность вероятности также нормальна, а ее вектор математического ожидания и ковариационная матрица определяются формулами Так как интеграл в (7.84) не зависит от М, то С, и являются константами, не зависящими от и такими, что
Повторим тот же процесс, заменив параметры плотности вероятности параметрами плотности вероятности Плотность вероятности также нормальна, а вычисляются по формулам (7.85) и (7.86) с подстановкой вместо Таким образом, после итераций получим
где обозначает нормальное распределение с вектором математического ожидания и ковариационной матрицей 1. Значения определяются следующим образом:
С увеличением влияние начальных значений уменьшается, и в пределе получим
Таким образом, при больших оценкой математического ожидания является выборочное среднее, а дисперсия этой оценки равна При описании этого вычислительного процесса мы постоянна обращали внимание на то, что как априорная, так и апостериорная плотности вероятности всегда нормальны. Вследствие этого мы рекуррентно вычисляли только параметры и а не сами плотности. Если апостериорная плотность вероятности в каждой итерации является членом того же семейства функций, что априорная плотность вероятности, и изменяются лишь ее параметры, то мы называем такую плотность вероятности самосопряженной или воспроизводимой. Доказано, что, кроме упрощения вычислений, воспроизводимая плотность вероятности имеет то преимущество, что при она становится все более «концентрированной» и сходится в определенном смысле к истинному вектору параметров [Спрэджинс, 1963, 1965]. Многие хорошо известные плотности вероятности, которые вместе с тем являются и воспроизводимыми перечислены в [Спрэджинс, 1965]. Оценивание ковариационной матрицы при пулевом векторе математического ожидания. Последовательное оценивание ковариационпой матрицы нормально распределенного случайного вектора X может быть рассмотрено таким же образом, как оценивание вектора математического ожидания. Предполагается, что вектор математического ожидания известен и, без ограничения общности, — что он равен нулю. Ранее мы предположили, что априорная плотность вероятности является нормальной. С другой стороны, известно, что выборочная ковариационная матрица имеет распределение Уишарта. Поэтому мы начнем с распределения выборочной ковариационной матрицы где — число объектов и — начальное предположение об истинной ковариационной матрице. Значение — это число объектов для начальной выборочной ковариационной матрицы, и его можно рассматривать как доверительную константу для начальной оценки Далее, вместо вычисления вычислим где Это делается потому, что ковариационная матрица в случае нормального распределения всегда используется в обращенной форме. Тогда определяется следующим образом:
где
Используя (7.92) в качестве и многократно применяя рекуррентную процедуру (7.82), получим для плотности вероятности снова распределение Уишарта с параметрами [Кишн, 1965]:
Следовательно, с увеличением оценка приближается к выборочной ковариационной матрице с нулевым средним значением. Оценивание вектора математического ожидания и ковариационной матрицы. Когда последовательно оцениваются как вектор математического ожидания, так и ковариационная матрица, необходимо вычислить совместную апостериорную плотность вероятности Когда М и оцениваются выборочным средним и выборочной ковариационной матрицей, нормально распределенная случайная величина, плотность вероятности представляет собой распределение Гаусса — Уишарта:
где задается формулой (7.93). Значение является доверительной константой для начальной оценки так же как значение для оценки . И в этом случае, используя выражение (7.96) в качестве и многократно применяя рекуррентную процедуру (7.82), получим для плотности вероятности распределение Гаусса — Уишарта с параметрами [Кишн, 1965]:
Оценивание в случае без поощрения. Предположим, что имеются два распределения, характеризуемые параметрами При последовательном оценивании без поощрения ставится задача последовательно оценить параметры предполагая, что нам неизвестны истинные распределения, в соответствии с которыми появляются объекты. Эту задачу называют также задачей обучения без учителя. Вследствие добавочной неопределенности, которую мы вводим, вычисление такой оценки оказывается более сложным. Однако разработка этого типа методов оправдывается надеждой, что после начального обучения с поощрением машина сможет улучшать качество распознавания без какого-либо внешнего вмешательства. Так как мы не знаем, к какому классу принадлежит объект самое большое, что мы можем сказать, — это то, что X принадлежит классу с вероятностью Поэтому априорная плотность вероятности (7.82) принимает вид
Следовательно, если нам известны априорная плотность вероятности каждого класса и априорные вероятности классов то плотность вероятностей можно вычислить по формуле (7.101), а — по формуле (7.83). Таким образом, мы получаем рекуррентное выражение для апостериорной плотности вероятности в виде
Таким образом, процедура последовательного оценивания без поощрения (7.102) по смыслу не отличается от процедуры последовательного оценивания с поощрением (7.82). Но из-за того, что при вычислении априорной плотности вероятности используется суммирование, свойство воспроизводимости утрачивается для всех плотностей, включая нормальную, и уже нельзя ограничиться оценкой набора параметров: мы должны иметь дело с рекуррентным оцениванием многомерных функций. Использование всех имеющихся объектов одновременно позволяет построить более удобные для практики методы оценивания и классификации без поощрения. Задача формулируется как задача нахождения «скоплений» (групп) данных объектов и естественных границ этих групп без использования информации о принадлежности объектов к тому или иному классу. Эта задача будет рассмотрена в гл. 11.
|
1 |
Оглавление
|