Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ГЛАВА ВОСЕМНАДЦАТАЯ. ЭНТРОПИЯ, ИНФОРМАЦИЯ, АЛГОРИТМ В СИСТЕМАХ АВТОМАТИЧЕОКОГО УПРАВЛЕНИЯПредыдущие разделы курса основ автоматики посвящены рассмотрению весьма важных, но частных систем автоматического управления. Между тем, помимо нарастающего разнообразия возможных частных видов автоматических устройств, в современной технике ясно выражена тенденция комплексного использования этих устройств — объединение автоматических устройств в единые системы. Понятие системы автоматического управления охватывает как простейшие автоматические устройства, так и сложнейшие комплексы автоматических систем. Такие системы комплексной автоматизации, как системы управления технологическими процессами целых предприятий и групп предприятий, системы автоматического управления боевыми действиями и т. п., могут включать множество источников информации, систем регулирования, вычислительных и управляющих машин, каналов передачи информации и других устройств. Кроме того, комплексные системы автоматизации на всех этапах развития техники будут в той или иной мере использовать участие человека в процессах управления. Человек будет контролировать и утверждать наиболее важные решения управляющих машин» выполнять операции, не поддающиеся автоматизации при данном уровне техники. Оптимальное рзаимодействие человека с системой относится к чжцу важнейших вопросов построения комплексных автоматизированных систем. Для качественного описания и исследования процессов в комплексных автоматических системах необт ходимы соответствующие определения и понятия. Основные определения и понятия, используемые при анализе систем регулирования, как-то: передаточные функции, законы регулирования, частотные характеристики и т. д., недостаточны для анализа и бписания сложных систем автоматического управления. Необходимы более общие определения и понятия. Такие определения и понятия формируются в общей науке об управлении — кибернетике. 18-1. ЭНТРОПИЯ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ УПРАВЛЯЕМОГО ПРОЦЕССАПусть имеется некоторый процесс, управление которым подлежит автоматизации. Состояние процесса в каждый данный момент времени характеризуется совокупностью величин Координаты процесса всегда имеют разброс относительно желаемых значений, т. е. содержат случайные составляющие. Одним из основных назначений автоматизации управления процессом являются уменьшение неопределенности протекания процесса, уменьшение отклонений процесса от желаемого его течения. При этом требование увеличения точности управления часто сочетается с требованием увеличения скорости протекания процесса. Для иллюстрации тезиса о разбросе координат процесса, подлежащего автоматизации, приведем несколько примеров. При пусках неуправляемых ракет наблюдается большое рассеивание как координат точек падений, так и координат в процессе полета. Назначение автоматического управления ракетой прежде всего заключается в уменьшении указанного рассеивания. При работе генератора без регулятора напряжения имеют место большие колебания напряжения, вызванные случайными изменениями нагрузки и скорости вращения. Назначение регулятора заключается в уменьшении этих колебаний до допустимых пределов. При. работе автоматического станка без контроля размеров обрабатываемой детали разброс конечных размеров деталей в некоторых случаях превосходит установленные допуски. Система автоматического контроля, воздействующая на настройку станка, увеличивает точность обработки. Командир или штаб соединения, осуществляя управление боевой операцией, может допускать значительные отклонения от оптимальных решений. Автоматизация управления операцией уменьшит отклонения от оптимальных решений при одновременном увеличении скорости операции. Число подобных примеров беспредельно велико. Исчерпывающей характеристикой координат процесса в каждый заданный момент времени является распределение вероятностей этих величин. Для непрерывных координат, принимающих произвольные значения в некоторых интервалах, будем рассматривать плотность вероятностей
Функция
выражает вероятность одновременного нахождения координат в интервалах
Если распределение дискретно, т. е. координаты могут иметь лишь дискретные значения, то функция плотности вероятности вырождается в сумму Отметим, что координаты процесса, протекающего во времени, являются случайными функциями времени и выражение (18-1) (Следует рассматривать как плотность вероятности сечения случайных функций при заданном Распределение вероятностей требует при эмпирическом определении большого числа экспериментов. В теории информации была введена интегральная характеристика неопределенности, названная энтропией. Эта характеристика имеет близкое родство с понятием энтропии в статистической физике и термодинамике. В термодинамике, рассматривающей макроскопические тепловые процессы, энтропия определяется как функция теплового состояния тела, зависящая от таких макроскопических характеристик, как температура и приращение Молекулы, образующие тело, могут иметь различные скорости и координаты. Каждую совокупность значений скоростей и координат молекул данного тела можно рассматривать как определенное состояние тела. Физическая энтропия есть характеристика распределения вероятностей состояний тела как системы молекул. Следует подчеркнуть» что физическая энтропия есть объективная характеристика макроскопического состояния тела, объективная в той же мере, как температура, количество тепла и т. п. В теории вероятностей и теории информации понятие энтропии было распространено на распределения вероятностей любых переменных. Энтропией непрерывного распределения вероятностей переменных
Энтропия зависит только от распределения вероятностей — однозначно определяется плотностью вероятности Теория информации рассматривает энтропию распределения вероятностей в системах получения и передачи информации. При этом считается, что после получения информации о какой-либо величине распределение вероятности этой величины и, стало быть, энтропия могут существенным образом измениться. Тем самым энтропии в теории информации приписывается смысл «субъективной» или относительной характеристики. Подобную энтропию будем называть информационной энтропией там, где это необходимо в интересах ясности изложения. Информационная энтропия для данного наблюдателя изменяется всякий раз, когда этот наблюдатель получает информацию о рассматриваемых величинах. Информационной энтропии в наибольшей мере соответствует формулировка Больцмана, согласно которой энтропия есть мера недостающей информации. Связь информационной энтропии с количеством информации подробно рассматривается далее. Здесь уместно отметить, что основание логарифма в выражении энтропии в принципе может быть произвольным положительным числом. Однако для удобства сопоставления с количеством информации это основание выбирают равным 2 (двоичный логарифм). Помимо информационной энтропии, в теории автоматического управления целесообразно использовать другое понятие энтропии, которое является как бы приложением понятия физической энтропии к управляемым процесса Этот вид энтропии будем называть энтропией распределения вероятностей координат управляемого процесса (объекта) или просто энтропией процесса. Указанные понятия энтропии имеют одинаковые математические выражения. Энтропия распределения вероятностей координат управляемого процесса выражается той же формулой, что и информационная энтропия:
Различие же имеет место в существе указанных понятий и заключается в следующем. Информационная. энтропия, как выше указывалось, существенным образом зависит от информации, получаемой данным наблюдателем, и является вследствие этого относительной «субъективной» характеристикой. Энтропия процесса и распределение вероятностей координат этого процесса — объективные характеристики, не зависящие от информации, полученной отдельным наблюдателем. Иными словами, считается, что энтропию распределения вероятностей координат какого-либо процесса нельзя изменить, только измерив с той или иной точностью эти координаты. Для изменения энтропии процесса необходимо вмешательство в этот процесс, т. е. управление или «естественное» воздействие. Физическая энтропия есть частный случай энтропии процесса, а именно тот случай, когда координатами процесса являются координаты и скорости большого числа молекул. Таким образом, есть два общих понятия энтропии, имеющие одинаковое математическое выражение: энтропия процесса и информационная энтропия. Рассмотрим некоторые свойства энтропии. Поскольку математические определения информационной энтропии и энтропии процесса одинаковы, все соотношения в равной мере справедливы для обоих видов энтропии и в формулировках вид энтропии можно не указывать. Если координаты
и
где Таким образом, для независимых величин
Но по определению плотностей вероятности
Поэтому
где Итак, энтропия независимых координат процесса равна сумме энтропии, каждой координаты. Если процесс характеризуется лишь одной координатой х, то энтропия равна:
Если координата х может принимать лишь дискретные значения, вероятности которых равны
Эта формула не может быть получена простым предельным переходом из (18-4). Если дискретная величина не имеет разброса, т. е. значение ее строго фиксировано, то все вероятности Энтропия величины, могущей принимать
Согласно известному правилу отыскания эстремума функции, аргументы которой удовлетворяют определенным уравнениям (условный экстремум), значения
где Производя дифференцирование, находим
Из этого равенства следует, что все вероятности
и в силу (118-6) равны Энтропия непрерывной величины, заданной абсолютно точно, равна отрицательной бесконечности. Это положение легко доказать, осуществляя предельный переход от распределения вероятностей с конечной дисперсией к случаю, когда дисперсия равна нулю. Плотность вероятности
Следует заметить, что возрастание абсолютной величины энтропии по мере уменьшения дисперсии (увеличения точности) происходит в логарифмической пропорции, т. е. «медленно». Обращение в бесконечность В реальных процессах физические величины никогда не могут быть измерены и заданы абсолютно точно, и энтропия никогда не обращается в бесконечность. Кроме того, предел непрерывности физических величин кладется квантовой структурой процессов. Энтропия непрерывной величины, имеющей заданный средний квадрат, максимальна при нормальном законе распределения вероятностей. Для подтверждения этого положения найдем экстремум энтропии
при условиях
Условие экстремума функционала
заключается в равенстве
откуда
где Определяя
(распределение Гаусса). Легко проверить, что нормальное распределение при заданных условиях соответствует именно максимуму энтропии и этот максимум равен:
Таким образом, при заданном среднем квадрате нормальное распределение соответствует наибольшей неопределенности величины х из всех возможных распределений. Здесь необходимо указать на важное положение: практическое значение имеет не абсолютная величина энтропии, а ее приращение. Это положение справедливо, пожалуй, в той же мере, как утверждение, что значение имеет не абсолютная величина потенциала, а разность потенциалов. Оно снимает затруднение, связанное с размерностями величин. Действительно, если
Для иллюстрации понятия энтропии состояния процесса, подлежащего управлению, приведем примеры. Пример 1. Генератор переменного тока без регулятора напряжения Поскольку величины
Пример 2. В результате полной дезорганизации управления Считая в первом случае распределение вероятностей равномерным, а во втором случае — нормальным, находим: 130
Использование понятия энтропии, разумеется, не заменяет детального изучения управляемого процесса, так же как использование понятия общей энергии системы не заменяет определения каждой из координат системы. Однако рассмотрение энтропии позволяет установить некоторые общие условия организации управления процессами.
|
1 |
Оглавление
|