Первую группу составляют градиентные методы, которые используются при малых объемах информации о параметрах объекта, когда они являются неопределенными, ограниченными функциями, удовлетворяющими неравенствам (6.1.9). При этом сведения о внешних возмущениях и помехах могут быть различными. Это могут быть неопределенные ограниченные функции, удовлетворяющие неравенствам (6.2.10), и случайные процессы с известными или неизвестными законами распределения.
Вторую группу составляют методы, основанные на теории статистических решений. Они применяются, когда имеются априорные сведения о законе распределения параметров объекта. Эта плотность распределения уточняется в процессе работы системы. При этом предполагаются известными законы распределения случайных внешних воздействий и помех.
Наиболее полное изложение первой и второй групп методов можно найти соответственно в книгах [6.5, 6.6].
Здесь и в последующих главах основное внимание будет уделено градиентным методам построения алгоритма адаптации, причем здесь приведены эвристические соображения по применению этих методов, а в последующих главах получены условия и определены параметры алгоритмов адаптации, при которых эти алгоритмы приводят к достижению цели управления. Отметим, что наиболее трудным из всех этапов синтеза адаптивного регулятора является четвертый этап.
Интерпретация задачи оптимального адаптивного управления [6.11].
Рассмотрим устойчивую адаптивную систему, описываемую уравнениями (6.2.1), (6.2.18), (6.2.19) при известных функциях в правых частях уравнений (6.2.18) и известных (заданных) функциях

. При некоторой функции

в (6.2.19) и фиксированных начальных условиях на движениях адаптивной системы функционал
(6.3.1)
является функцией некоторого вектора чисел
, к которому сходятся решения уравнения (6.2.19).
Требуется найти такую функцию
, чтобы функция
достигала своего наименьшего значения.
Для этого построим процедуру нахождения минимума функции
. Экстремальное значение
аргумента этой функции удовлетворяет уравнениям
(6.3.2)
Алгоритм решения уравнений (6.3.2), основанный на методе градиента, имеет вид
где
— некоторая функция (параметр алгоритма), выбираемая из условий сходимости
Алгоритм (6.3.3) позволяет найти настраиваемые параметры
после того, как процесс управления объектом закончился, поскольку значение критерия
было определено при
. Для устранения этого недостатка заметим, что значение
не зависит от траектории
, входящей в функцию
, и поэтому в алгоритм (6.3.3) подставляют вместо
не предельное, а текущее значение
, и тогда (6.3.3) принимает вид
(6.3.5)
В тех случаях, когда выражения
имеют явную (аналитическую) форму, как, например, уравнения (6.1.41) в примере (6.1.2), уравнения (6.3.5) являются уравнениями алгоритма адаптации (6.2.19). Таким образом, интерпретация задачи оптимального адаптивного управления как задачи о минимуме функции приводит при детерминированных внешних возмущениях и помехах к искомому алгоритму адаптации. Этот алгоритм содержит не определенный пока параметр
.
Покажем, что для идентификационного, адаптивного управления можно указать явный вид правой части алгоритма адаптации (6.3.5).
Рассмотрим объект (6.2.1), описанный уравнением в форме «вход—выход»:
(6.3.6)
где
— заданная функция своих аргументов.
Допустим, что эта функция с достаточной точностью может быть аппроксимирована конечной суммой
(6.3.7)
где
— линейно независимые известные функции;
— неизвестные числа.
Примем в качестве критерия точности идентификации функцию
(6.3.8)
где невязка
(6.3.9)
и будем определять числа
из условия минимума критерия (6.3.8).
Алгоритм решения уравнений
на основе метода градиента имеет вид
(6.3.10)
где
— параметр, выбираемый из условия сходимости процесса идентификации,
(6.3.11)
Допустим для простоты, что
, тогда
(6.3.12)
Нетрудно видеть, что правая часть этого уравнения является известной функцией измеряемых переменных объекта и их производных.
Отметим, что алгоритм адаптации (идентификации) (6.3.12) был получен исходя из выражения критерия оптимизации (6.3.8), а не из выражения для цели управления, которая достигается, если выбран соответствующий алгоритм регулирования, например вида (6.1.24), в котором оценками вектора а являются переменные
. Критерий (6.3.8) иногда называют (6.10] целью адаптации.