Главная > ФИЗИКА МАКРОСИСТЕМ. ОСНОВНЫЕ ЗАКОНЫ (И.Е.Иродов)
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

Статистическая физика- это раздел физики, в котором изучают свойства макросистем, исходя из индивидуальных свойств составляющих макросистему частиц и взаимодействий между ними. Описание движения каждой частицы макросистемы (а их порядка $10^{22} \div 10^{23}$ ) – задача совершенно немыслимая. Вместо этого статистическая физика оперирует со средними значениями параметров очень большого числа частиц. Колоссальное число частиц в макросистеме приводит, несмотря на очевидный хаос, к появлению новых, статистических закономерностей. Их изучение и делает возможным описание макросистем на основе сведений о свойствах отдельных частиц системы.
0 вероятности. Основу статистической физики составляет теория вероятностей. Вероятность интересующего нас события характеризуется кратностью его повторения. Если в $N$ случаях $i$-е событие происходит $N_{i}$ раз, то вероятностью $P_{i}$ этого события называют величину
\[
P_{i}=\lim _{N \rightarrow \infty} \frac{N_{i}}{N} .
\]

Так как на практике $N$ всегда конечно, то для вычисления вероятности стараются, чтобы $N$ и $N_{i}$ были достаточно большими. Тогда можно считать, что
\[
P_{i} \approx N_{i} / N .
\]

Ясно, что сумма вероятностей всех возможных результатов измерений равна единице:
\[
\sum P_{i}=\sum\left(N_{i} / N\right)=1 .
\]

Теперь обратимся к вычислению вероятностей сложных событий. Рассмотрим две основные теоремы: о сложении и умножении вероятностей. Проще всего это понять с помощью игрального кубика.
1. Теорема о сложении вероятностей заключается в том, что вероятность того, что в результате $N$ бросаний кубика выпадет $i$ или $k$, равна
\[
P_{i \text { или } k}=\frac{N_{i}+N_{k}}{N}=P_{i}+P_{k} .
\]
2. Теорема об умножении вероятностей. Найдем вероятность того, что при двух бросаниях кубика выпадет последовательно $i$ и $k$ (или наоборот). Рассмотрим $N$ двойных бросаний. Пусть первый кубик из каждой пары бросков дал $i$ в $N_{i}$ случаях (так что $P_{i} \approx N_{i} / N$ ). Теперь выделим из этих $N_{i}$ случаев те $N_{k}$ случаев, когда второй кубик давал $k$ (так что $P_{k} \approx N_{k} / N_{i}$ ). Искомая вероятность
\[
P_{i \text { k } k}=\frac{N_{i}}{N} \frac{N_{k}}{N}=P_{i} \cdot P_{k} .
\]

Средние значения случайных величин. Зная вероятности появления различных результатов измерения дискретной величины $x$, можно найти их среднее значение $\langle x\rangle$. По определению среднего
\[
\langle x\rangle=\frac{1}{N} \sum N_{i} x_{i}=\sum P_{i} x_{i} .
\]

Функция распределения. Рассмотрим случай, когда случайная величина $x$ имеет непрерывный характер (например, скорости молекул). Для этого разобьем всю область изменения $x$ на отдельные интервалы и будем считать число попаданий случайной величины в тот или иной интервал. Интервалы должны быть во избежание заметных флуктуаций достаточно большими, чтобы в каждом интервале число попаданий было $N_{i} \gg 1$ и чтобы’с помощью (2.2) можно было определить вероятность попадания случайной величины в данный интервал. Вместе с тем, интервалы должны быть достаточно небольшими, чтобы более детально характеризовать распределение величины $x$.

Итак, мы имеем достаточно большое число достаточно небольпих интервалов и, допустим, нам известна вероятность $P_{x}$ попадания в тот или иной интервал $\Delta x$. Сама величина $\Delta P_{x}$ весьма мала, поэтому в качестве характеристики случайной величины берут отношение $\Delta P_{x} / \Delta x$, которое для достаточно малых $\Delta x$ не зависит от величины самого интервала $\Delta x$.

Это отношение при $\Delta x \rightarrow 0$ называют функцией распределения $f(x)$ случайной величины $x$ :
\[
f(x)=\lim _{\Delta x \rightarrow 0} \frac{\Delta P_{x}}{\Delta x}=\frac{\mathrm{d} P_{x}}{\mathrm{~d} x} .
\]

Видно, что функции распределения $f(x)$ можно приписать смысл плотности вероятности, т.е. вероятности интересующей нас величины оказаться в единичном интервале вблизи значения $x$.

В разных случаях функция распределения имеет совершенно различный вид, один из которых в качестве примера приведен на рис. 2.1. В соответствии с (2.7) площадь полоски шириной $\mathrm{d} x$ на этом рисунке равна вероятности того, что случайная величина $x$ окажется
Рис. 2.1

в пределах интервала ( $x, x+d x$ ):
\[
\mathrm{d} P_{x}=f(x) \mathrm{d} x .
\]

Вероятность того, что величина $x$ попадает в интервал $(a, b)$ :
\[
P=\int_{a}^{b} f(x) \mathrm{d} x .
\]

Ясно, что вероятность того, что величина $x$ может принять хотя бы какое-нибудь значение (достоверное событие), равна единице. Это называют условием нормировки:
\[
\int f(x) \mathrm{d} x=1,
\]

где интегрирование производится по всему интервалу возможных значений величины $x$. Из этого условия следует, что вся площадь под кривой $f(x)$ равна единице (см. рис. 2.1). Заметим, что (2.10) является аналогом формулы (2.3).

Средние значения. Среднее значение величины $\boldsymbol{x}$ можно найти, зная ее нормированную на единицу функцию распределения $f(x)$. Обратимся к формуле (2.6). Она справедлива и для случая, когда интервал изменения величины $x$ будет разбит на небольшие участки. Уменьшая участки, мы должны в конце концов заменить $P_{i}$ на $\mathrm{d} P$ и $\Sigma$ на интеграл $\int$. Тогда
\[
\langle x\rangle=\int x \mathrm{~d} p=\int x f(x) \mathrm{d} x,
\]

где интегрирование проводится по интересующему нас интервалу значений $x$. Аналогичные формулы справедливы для любой функции $\varphi(x)$, например
\[
\left\langle x^{2}\right\rangle=\int x^{2} f(x) \mathrm{d} x .
\]

Пример. Идеальный газ находится в сферическом сосуде радиуса $R$. Найдем распределение расстояний $r$ молекул от центра сосуда и среднее значение $\langle r\rangle$.
Выделим мысленно тонкий концентрический шаровой слой радиуса $r$ и толщиной $\mathrm{d} r$. Сначала найдем вероятность того, что молекулы попадают в этот слой. Она равна доле молекул в этом слое: $\mathrm{d} P_{r}=\mathrm{d} N_{r} / N$. В силу равномерного распределения молекул это отношение равно отношению соответствующих объемов:
\[
\mathrm{d} P_{r}=\frac{\mathrm{d} V}{V}=\frac{4 \pi r^{2} \mathrm{~d} r}{(4 \pi / 3) R^{3}}=\frac{3 r^{2} \mathrm{~d} r}{R^{3}} .
\]

Согласно (2.7) искомая функция распределения
\[
f(r)=\mathrm{d} P_{r} / \mathrm{d} r=3 r^{2} / R^{3} .
\]

Среднее значение $\langle r\rangle$ находим по формуле (2.11):
\[
\langle r\rangle=\int_{0}^{R} r \frac{3 r^{2}}{R^{3}} \mathrm{~d} r=\frac{3}{R^{3}} \frac{R^{4}}{4}=\frac{3}{4} R .
\]

Флуктуации. Вероятность случайного события и экспериментально наблюдаемая доля результатов, когда событие осуществляется, – это не одно и то же. Последняя (доля результатов) испытывает случайные отклонения от предсказываемой вероятности. Именно такого рода отклонения происходят в любых макросистемах. Эти отклонения и обусловливают флуктуации.

Согласно теории вероятности, с увеличением числа $N$ испытаний относительная флуктуация любой величины уменьшается по закону $1 / \sqrt{N}$. Именно грандиозность числа $N$ молекул и объясняет, почему макроскопические законы, получаемые на основе статистических представлений о движении частиц макросистемы, оказываются точными.

В дальнейшем мы часто будем использовать понятие бесконечно малого объема $\mathrm{d} V$ макросистемы. Под этим будет пониматься такой объем, размеры которого ничтожны по сравнению с размерами самой макросистемы, но все же намного превосходящие характерный размер ее микростроения. Каждая бесконечно малая область, предполагается, содержит число частиц $\mathrm{d} N$ настолько большое, что относительной флуктуацией их можно пренебречь.

Categories

1
Оглавление
email@scask.ru