Главная > Статистический синтез при априорной неопределенности и адаптация информационных систем
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

7.5. МЕТОДЫ НАХОЖДЕНИЯ ОЦЕНОК МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ

Уравнения максимального правдоподобия (7.1.2) или (7.1.3) определяют общий способ нахождения оценок максимального правдоподобия как в регулярном, так и в нерегулярном случае. Существуют весьма разнообразные методы их решения, которые в достаточно общей форме можно классифицировать на два основных вида: конечные и рекуррентные. В первом случае оценка максимального правдоподобия получается сразу по всей совокупности имеющихся данных наблюдения х. Во втором решение уравнения максимального правдоподобия представляет собой процесс, в котором вычисление оценок производится многократно с постепенным увеличением совокупности данных наблюдения. В обоих случаях в зависимости от вида функции правдоподобия может быть получено точное или приближенное решение. Рассмотрим возможные методы нахождения оценок максимального правдоподобия, обратив основное днимание на рекуррентные процедуры.

7.5.1. Конечные методы

При решении уравнения правдоподобия (7.1.2), (7.1 3) может быть использован любой из известных методов максимизации функции векторной переменной Только в редких случаях максимизирующее значение — оценка максимального правдоподобия находится точно. В частности, это заведомо удается сделать, если функция правдоподобия такова, что

где матрица положительно (или отрицательно) определенная при всех , а уравнения

имеют решения. Эти решения

где — функция, обратная и являются компонентами вектора оценки максимального правдоподобия.

Простейшим частным случаем (7 5.1) является случай, когда логарифм функции правдоподобия квадратично зависит от , т. е.

где -скаляр; -вектор той же размерности что и неособая матрица порядка При этом оценка максимального правдоподобия

где матрица, обратная

Другим распространенным примером, для которого выпочняется (7.5.1), является случай, когда

В этом случае оценка максимального правдоподобия

Число таких примеров, как соответствующих (7 5 1), так и несоответствующих этому условию, но допускающих точное решение уравнения правдоподобия, в том числе и для нерегулярного случая (примеры § 74 и др.), довольно велико, однако еще более многочисленны случаи, когда точное аналитическое решение уравнения правдоподобия получить невозможно. При этом для нахождения оценки используются различные приближенные методы. Выбор того или иного из них определяется исходя из точности приближенного решения и вычислительной простоты В частности, в регулярном случае широко распространены различные варианты итеративных процедур, в том числе градиентный метод, метод наискорейшего спуска, метод Ньютона, метод золотого сечения и Любой из них является методом последовательных приближений

и при определенных условиях обеспечивает достаточно быструю сходимость к истинному решению уравнения максимального правдоподобия. Приведем для примера алгоритм нахождения оценки максимального правдоподобия, соответствующий методу Ньютона. В этом случае итерация, определяющая очередное приближение к оценке максимального правдоподобия , производится по правилу

где приближение, полученное на шаге, а начальное приближение выбирается произвольно с учетом имеющихся представлений о существе задачи. Входящий в (7.5.8) оператор представляет собой результат умножения вектора-столбца на транспонированный ему вектор (строку) и является матрицей вида так что результат воздействия этого оператора на функцию также представляет собой матрицу

а как всегда, обратная матрица.

Проиллюстрируем применение этого алгоритма на примере оценки единственного параметра для случая, когда логарифм функции правдоподобия представляется в виде

где вектор некоторой размерности; некоторые функции известная величина, функция имеет единственный максимум (для определенности при и является четной относительно этого значения, а суммирование производится по такому множеству значений что интервал от до полностью перекрывает диапазон возможных значений параметра . К функции правдоподобия, соответствующей (7.5.10), приводят многие задачи радиотехнических измерений (частоты, задержки радиолокационного сигнала, направления на источник излучения).

Выберем в качестве нулевого приближения для оценки максимального правдоподобия величину, соответствующую какому-либо из дискретных значений например Для того чтобы это значение давало максимально возможную величину функции правдоподобия, очевидно, его нужно выбрать так, чтобы

В силу свойств функции выбор любого другого приведет к уменьшению логарифма функции правдоподобия. Таким образом, наиболее правдоподобным дискретным приближением к оценке максимального правдоподобия является величина

где определяется условием (7.5 11) и соответствует тому номеру для которого величина максимальна.

Следующее приближение вычисляется в соответствии с алгоритмом Ньютона (7.5.8) и дается выражением

где учтена четность функции Если последняя, как это бывает в практических задачах, достаточно быстро убывает с увечичением то в числителе и знаменателе выражения (7.5.13) можно ограничиться только первыми слагаемыми В результате

оценка получается зависящей только от наибольшей из величин ближайших к ней. Приближение (7.5.14), как правило, обеспечивается достаточно точным, и следующие итерации не требуются.

7.5.2. Рекуррентные методы

При большом объеме совокупности данных наблюдения х конечные метопы решения уравнения правдоподобия приводят к значительным вычислительным трудностям, связанным с необходимостью запоминания болниого числа исходных Данных и промежуточных результатов вычислений В связи с этим особиц интерес представляют рекуррентные методы, в которых оценка максимального правдоподобия вычисляется по шагам с постепенно увеличивающейся точностью, причем каждый шаг связан с получением новых данных наблюдения, а рекуррентная процедура строится так, чтобы хранить, в памяти по возможности наименьшее количество данных от предыдущих шагов. Дополнительным и весьма существенным с практической точки зрения преимуществом рекуррентных методов является готовность к выдаче результата на любом промежуточном шаге.

Это обуславливает целесообразность применения рекуррентных методов таже в тех случаях, если удается получить точное решение уравнения максимального правдоподобия конечным методом, и делает их еще более ценными, когда невозможно найти точное аналитическое выражение для оценки максимального правдоподобия.

Пусть совокупность данных наблюдения х представляет собой последовательность для описания которой введем вектор (Как всегда, каждая его компонента в свою очередь, может быть вектором, отрезком случайного процесса и т. д.) Пусть

— функция правдоподобия, а

— ее логарифм. Последний всегда можно представить в виде

где

— логарифм функции правдоподобия для совокупности данных наблюдения без последнею значения, а

— логарифм условной плотности вероятности значения при заданных значениях .

Представление (7 5.16) для логарифма функции правдоподобия является основой для получения рекуррентной процедуры вычисления оценки максимального правдоподобия. Рассмотрим регулярный случай. При эгом оценка максимального правдоподобия может быть найдена как решение уравнения

которое отличается от (7.1.6) только введением индекса у логарифма функции правдоподобия.

Обозначим решение этого уравнения через подчеркнув тем самым, что эта оценка получена по совокупности данных наблюдения Аналогично обозначим через решение уравнения оценку максимального правдоподобия, полученную по совокупности данных

Уравнение (7.5.19) можно переписать с учетом (7.5.16) в следующем виде:

Разложим левую часть (7.5.20) в ряд Тейлора в окрестности точки При этом

где

— вектор градиента функции в точке слагаемое обращается в нуль благодаря тому, что является решением уравнения правдоподобия для предыдущего шага;

— симметричная матрица вторых производных логарифма функции правдоподобия в точке взятая с обратным знаком, а ненаписанные члены разложения имеют квадратичный и более высокий порядок малости относительно разности Пренебрегая зтими последними, получаем следующее приближенное решение уравнения максимального правдоподобия:

где матрица, обратная

Это решение представлено в форме рекуррентного соотношения, определяющего очередное значение оценки через оценку на предыдущем шаге и поправку зависящею от имеющихся данных наблюдения непосредственно и через предыдущую оценку. Поправка формируется как произведение градиента логарифма условной плотности вероятности вновь полученного значения в точке равной предыдущей оценке, на весовую матрицу Последняя определяется выражением (7.5.23) и также зависит от оценки на предыдущем шаге, а ее зависимость от новых данных наблюдения целиком определяется видом логарифма условной плотности вероятности

По форме соотношение (7.5.24) очень похоже на (7.5.8), реализующее итеративный способ вычисления оценки максимального правдоподобия по методу Ньютона. Однако на самом деле они существенно отличаются друг от друга. В (7.5.8) поправка к предыдущему значению оценки определяется величиной градиента логарифма всей функции правдоподобия, который всегда зависит от всех имеющихся данных наблюдения что требует запоминания всей этой совокупности. В соответствии с (7.5.24) поправка к определяется величиной градиента который благодаря свойствам условной плотности вероятности фактически зависит только от тех значений которые находятся в сильной статистической связи с Это различие является следствием специального выбора предыдущего приближения как оценки максимального правдоподобия, найденной по уменьшенной на одно значение совокупности данных наблюдения и особенно ярко проявляется при независимых значениях

В этом последнем случае

благодаря чему зависит только от а градиент только от предыдущего значения оценки и вновь полученных на шаге данных наблюдения Поэтому при независимых значениях для формирования вектора не требуется запоминать с предыдущего шага никакой иной информации, кроме значения оценки

Аналогично, в случае марковской последовательности данных наблюдения, т. е. при

вектор зависит только от текущего и одного предыдущего значения В этом случае для вычисления требуется запомнить с предыдущего шага, помимо значения еще только значение но не всю совокупность данных наблюдения, как в итеративной процедуре. В общем случае для вычисления может

потребоваться запоминание большего числа предыдущих значений однако из-за необходимости учета только тех значений которые статистически зависимы с это число практически всегда меньше полного объема совокупности данных наблюдения Так, если вектор описывает временную последовательность, то количество подлежащих запоминанию членов этой последовательности определяется временем ее корреляции, а относительная их доля убывает обратно пропорционально как и в случае независимых значений

Рассмотрим теперь структуру весовой матрицы входящей в рекуррентное соотношение (7.5.24). Согласно определению (7 5.23), из-за наличия слагаемого она, вообще говоря, зависит от всех значений даже при независимых значениях что лишает рекуррентное соотношение (7.5.24) преимуществ, связанных с возможным сокращением количества запоминаемых с предыдущего шага данных. Существует несколько способов приближенного вычисления матрицы которые устраняют этот недостаток.

Первый из них основан на более последовательном использовании основного предположения о малом различии двух очередных значений оценки которое является основой для получения рекуррентного соотношения (7.5.24). Это позволяет получить аналогичное рекуррентное соотношение для весовой матрицы Действительно, используя малость из (7.5.23), имеем

Введя обозначение

из (7.5.24) и (7.5.25) получим систему рекуррентных соотношений для вектора оценки и весовой матрицы

Эта система совместно с начальными значениями полностью определяет значение оценки на любом шаге, требуя на каждом из них вычисления только градиента и матрицы вторых производных от логарифма условной плотности вероятности для текущего наблюдаемого значения Начальные значения выбираются с учетом имеющихся априорных данных о возможных значениях и диапазоне изменения параметров а при полном отсутствии этих данных принимаются нулевыми

При независимых значениях система рекуррентных соотношений (7.5.27), очевидно, описывает многомерный (размерности марковский случайный процесс, компонента которого сходится к истинному значению параметра а компонента сходится к информационной матрице Фишера (7.3.8), где — истинное

значение оцениваемого параметра, и неограниченно увеличивается с ростом Аналогичные свойства сходимости система (7.5.27) имеет и при более общих условиях, ссли последовательность является эргодической.

Второй из упомянутых способов основан на замене матрицы вторых производных от логарифма функции правдоподобия ее математическим ожиданием — информационной матрицей Фишера, которая с учетом (7.5.16) может быть записана в виде:

где аналогично (7 5.26)

Заменяя в (7 5.24) матрицу матрицей получаем рекуррентное соотношение

для приближенного вычисления оценок максимального правдоподобия, предложенное Сакрисоном [27] (в оригинале для независимых одинаково распределенных когда

Это рекуррентное соотношение проще системы (7 5 27), поскольку оптимальная весовая матрица заменена ее математическим ожиданием и для ее нахождения не требуются имеющиеся данные наблюдения, кроме тех, которые сконцентрированы в значении оценки . В то же время очевидно, что подобная замена означает необходимость выполнения дополнительного по сравнению с (7.5.27) требования близости матрицы вторых производных к своему математическому ожиданию.

Если плотность распределения вероятности и матрица меняются от шага к шагу, прямое нахождение а каждом шаге может потребовать слишком большого числа вычислении При этом за счет дополнительного уменьшения точности результатов, определяемого неравенством нулю малых разностей — можно переити к рекуррентному вычислению приближенного значения матрицы Возвращаясь к прежнему обозначению для этого приближенного значения, получаем еще одну систему рекуррентных соотношений

где

— математическое ожидание матрицы (информационная матрица Фишера для одного наблюдения взятое в точке Эта система отличается от (7.5.27) тем, что во втором из рекуррентных соотношений (7.5.31) не участвуют непосредственно данные наблюдения

Любая из рассмотренных выше систем рекуррентных соотношений является совершенно точной, если функция квадратично зависит от и дополнительно матрица вторых производных не зависит от Фактически это соответствует случаю независимых нормально распределенных (не обязательно одинаково) значений с неизвестным математическим ожиданием , которое и представляет собой оцениваемый параметр.

Система рекуррентных соотношений (7.5.24) дает точное решение уравнения максимального правдоподобия в гораздо более широких условиях при единственном требовании, чтобы функция квадратично зависела от . При этом зависимость от произвольна, что соответствует широкому классу распределений вероятности совокупности как с независимыми, так и с зависимыми значениями.

Наряду с рассмотренными общими способами существует еще ряд методов выбора матрицы весовых коэффициентов в рекуррентном соотношении (7.5.24), приспособленных к тем или иным конкретным ограничениям, часть из которых рассмотрена в [23]. Простейшим из них является выбор в виде диагональной матрицы, так что (I — единичная матрица), где убывающая последовательность числовых коэффициентов, выбираемая независимо от свойств функции правдоподобия так же, как в процедуре стохастической аппроксимации Робинса — Монро, которая будет рассмотрена в следующих главах.

Стоит отметить, что любые итерационные или рекуррентные процедуры нахождения оценок максимального правдоподобия в общем случае являются приближенными. Поэтому, вообще говоря, для оценок, получающихся в результате применения этих процедур, состоятельность, асимптотическую эффективность и асимптотическую нормальность нужно доказывать заново. Для итеративных процедур необходимые свойства оценок гарантируются тем, что в принципе такие процедуры при соответствующем числе итераций дают решение уравнения правдоподобия с любой наперед заданной точностью. Для рекуррентных процедур типа (7.5.27), (7.5.30), (7.5.31) и других имеются специальные доказательства, например [23]. При этом, помимо требования регулярности, предъявляются некоторые дополнительные требования:

— на поведение функции при различных значениях для достижения с помощью рекуррентной процедуры глобального максимума этой функции в точке соответствующей истинному значению параметра;

— на порядок роста вторых моментов производных логарифма функции правдоподобия при больших по модулю значениях . Эти требования (см., например, [23]) являются следствием более общих условий сходимости в точку всех или части компонент марковского случайного процесса, к которому приводит та или иная рекуррентная процедура.

В заключение отметим также, что в том случае, когда существует точное решение уравнения максимального правдоподобия, оно практически всегда может быть представлено в рекуррентном виде. Приведем два простых разнородных примера. Так, элементарная оценка неизвестного математического ожидания нормальной случайной величины по совокупности ее выборочных значений в виде арифметического среднего

является оценкой максимального правдоподобия и может быть представлена в рекуррентном виде:

что является самым простым частным случаем (7.5.30) при

Другой пример — это нерегулярная оценка максимального правдоподобия для параметра ширины прямоугольного распределения — из (7.4.2), которая также может быть определена рекуррентным соотношением

с начальным условием Это рекуррентное соотношение уже другого типа: его правую часть нельзя представить в виде суммы предыдущей оценки и малой поправки, что является следствием нерегулярности этого примера; однако оно обладает всеми преимуществами рекуррентного подхода: требует запоминания с предыдущего шага всего одного числа — оценки и резко сокращает перебор до одного сравнения вместо сравнения всех значений

Приведенные примеры иллюстрируют преимущества рекуррентных методов даже в том случае, когда уравнение максимального правдоподобия допускает точное решение, ибо простота аналитического представления результата не тождественна вычислительной простоте его получения.

7.5.3. Переход к непрерывному времени. Дифференциальные уравнения для оценок максимального правдоподобия

Рассмотрим теперь специальный случай, когда имеющиеся данные наблюдения х описываются не совокупностью выборочных точек а представляют собой отрезок реализации некоторого процесса зависящего от параметров заданный на интервале причем длина этого интервала может увеличиваться при наблюдении (момент времени является переменным).

Для статистического описания данных наблюдения в этом случае вводится функционал отношения правдоподобия, представляющий собой предел при отношения плотности распределения вероятности совокупности значений при произвольно заданном значении 0 к аналогичной плотности вероятности при некотором фиксированном значении а в некоторых случаях, когда допускает представление где -случайный процесс, не зависящий от 0, к плотности вероятности совокупности значений при условии, что Использование

функционала отношения правдоподобия позволяет исключить формальные трудности определения плотности вероятности, возникающие при переходе к непрерывному времени.

Логарифм функционала отношения правдоподобия может быть представлен в виде

где - некоторый функционал процесса на интервале . В некоторых случаях функционал вырождается в функцию, зависящую только от значения Так, если

где -известная функция времени и параметров дельта-коррелированный случайный процесс («белый» шум) со спектральной плотностью то, выбирая в качестве знаменателя отношения правдоподобия распределения вероятности х при будем иметь

Пусть оценка максимального правдоподобия параметра построенная по реализации процесса на интервале т. е. решение уравнения максимального правдоподобия

Дифференцируя левую часть этого уравнения по времени, получаем

Вводя обозначения

и решая уравнение (7.5.42) относительно получаем дифференциальное уравнение для оценки максимального правдоподобия

Матрица в свою очередь, согласно (7.5.37) определяется дифференциальным уравнением

где

Так же, как в дискретном случае, матрица в (7.5.45), (7.5.47) может быть заменена своим математическим ожиданием — информационной

матрицей Фишера при значении а дифференциальное уравнение (7.5 46) для весовой матрицы - уравнением

где аналогично дискретному случаю

— математическое ожидание матрицы вторых производных Совокупность дифференциальных уравнений (7.5.45), (7.5.46) или (7.5.45), (7.5.48) совместно с начальными условиями, относительно выбора которых остается в силе все сказанное для дискретного случая, полностью определяет оценку максимального правдоподобия для любого момента времени. Эта совокупность может быть смоделирована с помощью соответствующих, вообще говоря, нелинейных аналоговых устройств или при подходящей дискретизации по времени решена с помощью ЭВМ. Отметим в заключение одну из модификаций этих уравнений, позволяющую избежать необходимости обращения матрицы

Вводя обозначение

и дифференцируя по времени соотношение где I — единичная матрица, получаем с помощью (7.5.46) дифференциальное уравнение, определяющее непосредственно матрицу

(и аналогично при замене на ), которое совместно с уравнением (7.5.45)

определяет оценку не требуя обращения матриц. При этом имеет место переход от простейшего линейного дифференциального уравнения (7.5.46) к нелинейному относительно дифференциальному уравнению (7.5.51) типа Риккати.

1
Оглавление
email@scask.ru