Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике § 7. ЭнтропияБудем рассматривать замкнутую систему в течение времени, большого по сравнению с ее временем релаксации; тем самым подразумевается, что система находится в полном статистическом равновесии. Проведем нижеследующие рассуждения сначала для квантовой статистики. Разделив систему на большое число макроскопических частей (подсистем), будем рассматривать какую-либо одну из них. Пусть есть функция распределения этой подсистемы; для упрощения формул будем пока опускать у (и других величин) индекс, отличающий подсистемы. С помощью функции можно, в частности, вычислить распределение вероятностей для различных значений энергии Е подсистемы. Мы видели, что может быть написано как функция только от энергии . Для того чтобы получить вероятность подсистеме иметь энергию в интервале между Е и надо умножить на число квантовых состояний с энергиями, лежащими в этом интервале; мы пользуемся здесь тем же представлением о «размазанном» энергетическом спектре, которое было введено в конце предыдущего параграфа. Обозначим посредством Г (Е) число квантовых состояний с энергиями, меньшими и равными Е; тогда интересующее нас число состояний с энергией между Е и можно написать в виде
а распределение вероятностей по энергии будет
Условие нормировки
означает геометрически, что площадь, заключенная под кривой , равна единице. В соответствии с общими утверждениями, сделанными в § 1, функция W(Е) имеет чрезвычайно резкий максимум при , будучи сколько-нибудь заметно отличной от нуля в непосредственной близости от этой точки. Введем «ширину» кривой определив ее как ширину прямоугольника, высота которого равна значению функции W(Е) в точке максимума, а площадь равна единице:
Принимая во внимание выражение (7,1), можно переписать это определение в виде
где
есть число квантовых состояний, соответствующее интервалу значений энергии. Об определенной таким образом величине можно сказать, что она характеризует «степень размазанности» макроскопического состояния подсистемы по ее микроскопическим Достояниям. Что же касается интервала , то по порядку величины он совпадает со средней флуктуацией энергии подсистемы. Сделанные определения непосредственно переносятся в классическую статистику, но только вместо функции надо говорить о классической функции распределения вместо — об объеме участка фазового пространства, определяемом формулой
Фазовый объем аналогично характеризует размеры той области фазового пространства, в которой данная подсистема проводит почти все время. Не представляет труда установить связь между и при предельном переходе от квантовой к классической теории. Как известно (см. III, § 48), в квазиклассическом случае можно установить определенное соответствие между объемом какой-либо области фазового пространства и «приходящимся» на него числом квантовых состояний; именно, можно сказать, что на каждое Квантовое состояние приходится в фазовом пространстве клетка объемом — число степеней свободы системы). Поэтому ясно, что в квазиклассическом случае число состояний можно написать в виде
где s — число степеней свободы данной подсистемы. Эта формула и устанавливает искомое соответствие между Величину называют статистическим весом макроскопического состояния подсистемы, а ее логарифм
называется энтропией подсистемы. В классическом случае энтропия определяется, соответственно, выражением
Определенная таким образом энтропия, как и самый статистический вес, есть безразмерная величина. Поскольку число состояний во всяком случае не меньше единицы, то энтропия не может быть отрицательной. Понятие энтропии — одно из важнейших в статистике. Уместно отметить, что если оставаться целиком на позициях классической статистики, то никакого понятия о «числе микроскопических состояний» вообще нельзя ввести, и мы были бы принуждены определить статистический вес просто как величину Но эта величина, как и всякий объем фазового пространства, имеет размерность произведения s импульсов и стольких же координат, т. е. размерность s-й степени действия: . Энтропия, определенная как имела бы при этом своеобразную размерность логарифма действия. Это значит, что при изменении единиц действия энтропия изменилась бы на аддитивную постоянную: если изменить единицу действия в а раз, то перейдет в . Поэтому в чисто классической статистике энтропия представляет собой величину, определенную лишь с точностью до аддитивной постоянной, зависящей от выбора единиц. Однозначными величинами, не зависящими от выбора единиц, являются при этом лишь разности энтропий, т. е. изменения энтропии при том или ином процессе. С этим обстоятельством и связано появление квантовой постоянной в определении (7,8) энтропии для классической статистики. Лишь понятие о числе дискретных квантовых состояний, неизбежно связанное с отличной от нуля квантовой постоянной, позволяет ввести безразмерный статистический вес и тем самым определить энтропию как вполне однозначную величину. Напишем определение энтропии в другом виде, выразив ее непосредственно через функцию распределения. Согласно (6,4) логарифм функции распределения подсистемы имеет вид
Ввиду линейности этого выражения по величина
может быть написана и как среднее значение Поэтому энтропию (согласно (7,3)) можно написать в виде
т. е. можно определить энтропию как (взятое с обратным знаком) среднее значение логарифма функции распределения подсистемы. По смыслу среднего значения имеем
это выражение можно написать в общем операторном виде, не зависящем от выбора системы волновых функций, с помощью которых определяются элементы статистической матрицы:
Аналогичным образом в классической статистике определение энтропии может быть написано в виде
Вернемся теперь к замкнутой системе в целом, и пусть статистические веса ее различных подсистем. Если каждая из подсистем может находиться в одном из квантовых состояний, то этому, очевидно, соответствует
различных состояний системы в целом. Эта величина называется статистическим весом, а ее логарифм энтропией S замкнутой системы. Ясно, что
т. е. определенная таким образом энтропия является величиной аддитивной: энтропия сложной системы равна сумме энтропий ее частей. Для ясного понимания способа определения энтропии важно иметь в виду следующее обстоятельство. Энтропию замкнутой системы (полную энергию которой обозначим как ), находящейся в полном статистическом равновесии, можно определить и непосредственно, не прибегая к разделению системы на подсистемы. Для этого представим себе, что рассматриваемая система является в действительности лишь малой частью некоторой воображаемой очень большой системы (о которой в этой связи говорят как о термостате). Термостат предполагается находящимся в полном равновесии, причем таком, чтобы средняя энергия нашей системы (являющейся теперь незамкнутой подсистемой термостата) как раз совпадала с истинным значением энергии Тогда можно формально приписать нашей системе функцию распределения того же вида, что и для всякой ее подсистемы, и с помощью этого распределения определить ее статистический вес , а с ним и энтропию, непосредственно по тем же формулам (7,3-12), которыми мы пользовались для подсистем. Ясно, что наличие термостата вообще не сказывается на статистических свойствах отдельных малых частей (подсистем) нашей системы, которые и без того не замкнуты и находятся в равновесии с остальными частями системы. Поэтому наличие термостата не изменит статистических весов этих частей, и определенный только что указанным способом статистический вес будет совпадать с прежним определением в виде произведения (7,13). До сих пор мы предполагали, что замкнутая система находится в полном статистическом равновесии. Теперь следует обобщить сделанные определения на системы, находящиеся в произвольных макроскопических состояниях (неполных равновесиях). Итак, предположим, что система находится в некотором неполном равновесии, и будем рассматривать ее в течение промежутков времени малых по сравнению со временем релаксации полного равновесия. Тогда для определения энтропии надо поступить следующим образом. Разделим мысленно систему на части, настолько малые, что их собственные времена релаксации оказались бы малыми по сравнению с промежутками времени (напомним, что времена релаксации, вообще говоря, уменьшаются с уменьшением размеров системы). Такие подсистемы можно считать находящимися в течение времени в некоторых своих частных равновесиях, описывающихся определенными функциями распределения. Поэтому к ним можно применить прежнее определение статистических весов и, таким образом, вычислить их энтропии Статистический вес всей системы определяется затем как произведение (7,13) и, соответственно, энтропия S — как сумма энтропий . Подчеркнем, однако, что энтропия неравновесной системы, определенная таким образом как сумма энтропий ее частей (удовлетворяющих поставленному выше условию), не может быть теперь вычислена с помощью представления о термостате, без разделения системы на части. В то же время это определение вполне однозначно в том смысле, что дальнейшее разделение подсистем на еще более мелкие части не изменит значения энтропии, поскольку каждая подсистема уже находится сама по себе в своем «полном» равновесии. Следует в особенности обратить внимание роль времени в определении энтропии. Энтропия есть величина, характеризующая средние свойства тела за некоторый отличный от нуля промежуток времени Задав мы должны для определения S мысленно разделить тело на части, настолько малые, чтобы их собственные времена релаксации были малы по сравнению с Поскольку в то же время эти части и сами должны быть макроскопическими, то ясно, что для слишком малых интервалов понятие энтропии вообще теряет смысл; в частности, нельзя говорить о мгновенном ее значении. Дав, таким образом, полное определение энтропии, обратимся теперь к выяснению важнейших свойств и основного физического смысла этой величины. Для этого надо привлечь микроканоническое распределение, согласно которому для описания статистических свойств замкнутой системы можно пользоваться функцией распределения вида (6,6)
Здесь можно понимать как дифференциал функции представляющей собой число квантовых состояний подсистемы С энергиями, меньшими или равными перепишем в виде
Статистический вес по самому своему определению есть функция от средней энергии подсистемы; то же относится и к Будем теперь формально рассматривать как функции истинного значения энергии (те же функции, которыми они в действительности являются от ). Тогда мы можем заменить в (7,15) производные отношениями , где — понимаемая в указанном смысле функция от — соответствующий интервал значений энергии (тоже функция от ). Наконец, заменив на получим
где — энтропия всей замкнутой системы, понимаемая как функция точных значений энергий ее частей. Множитель в экспоненте которого стоит аддитивная величина, есть очень быстро меняющаяся функция энергий По сравнению с этой функцией зависимость от энергий величины совершенно несущественна, и поэтому с очень большой точностью можно заменить (7,16) выражением (7,17) Но выраженное в виде, пропорциональном произведению дифференциалов всех есть не что иное, как вероятность всем подсистемам иметь энергии, лежащие в заданных интервалах между Таким образом, мы видим, что эта вероятность определяется энтропией системы как функцией энергий подсистем; множитель обеспечивает равенство суммы заданному значению энергии системы. Это свойство энтропии, как мы увидим в дальнейшем, лежит в основе ее статистических применений. Мы знаем, что наиболее вероятными значениями энергий являются их средние значения . Это значит, что функция должна иметь при максимальное возможное (при заданном значении суммы ) значение. Но есть как раз те значения энергий подсистем, которые соответствуют полному статистическому равновесию системы. Таким образом, мы приходим к следующему важнейшему выводу: энтропия замкнутой системы в состоянии полного статистического равновесия имеет наибольшее возможное (при заданной энергии системы) значение. Наконец, укажем еще одно интересное истолкование функции ( - энтропии какой-либо подсистемы или замкнутой системы (в последнем случае предполагается, что система находится в полном равновесии, в результате чего ее энтропия может быть выражена как функция от одной лишь ее полной энергии). Статистический вес по самому своему определению есть число уровней энергии, приходящихся на интервал АЕ, определенным образом характеризующий ширину распределения вероятностей по энергии. Разделив АЕ на АГ, мы получим среднее расстояние между соседними уровнями в данном участке (участок вблизи значения Е) энергетического спектра рассматриваемой системы. Обозначив это расстояние как D(Е), можем написать:
Таким образом, функция S (Е) определяет густоту уровней энергетического спектра макроскопической системы. Ввиду аддитивности энтропии можно сказать, что средние расстояния между уровнями макроскопического тела экспоненциально убывают с увеличением его размеров (т. е. числа частиц в нем).
|
1 |
Оглавление
|