Энтропия в классической термодинамике
Термодинами́ческая энтропи́я S, часто просто именуемая энтропия, в химии и термодинамике является функцией состояния термодинамической системы; её существование постулируется вторым началом термодинамики.
Термодинамическое определение энтропии
Понятие энтропии было впервые введено в 1865 году Рудольфом Клаузиусом. Он определил изменение энтропии термодинамической системы при обратимом процессе как отношение изменения общего количества тепла ΔQ к величине абсолютной температуры T:
Рудольф Клаузиус дал величине S имя «энтропия», происходящее от греческого слова τρoπή, «изменение» (изменение, превращение, преобразование). Данное равенство относится к изменению энтропии, не определяя полностью саму энтропию.
Эта формула применима только для изотермического процесса (происходящего при постоянной температуре). Её обобщение на случай произвольного квазистатического процесса выглядит так:
- ,
где - приращение (дифференциал) энтропии, а - бесконечно малое приращение количества теплоты.
Необходимо обратить внимание на то, что рассматриваемое термодинамическое определение применимо только к квазистатическим процессам (состоящим из непрерывно следующих друг за другом состояний равновесия).
Поскольку энтропия является функцией состояния, в левой части равенства стоит её полный дифференциал. Напротив, количество теплоты является функцией процесса, в котором эта теплота была передана, поэтому считать полным дифференциалом нельзя.
Энтропия, таким образом, согласно вышеописанному, определена вплоть до произвольной аддитивной постоянной. Третье начало термодинамики позволяет определить её точнее: предел величины энтропии равновесной системы при стремлении температуры к абсолютному нулю полагают равным нулю.
Статистическое определение энтропии: принцип Больцмана
В 1877 году Людвиг Больцман нашёл, что энтропия системы может относиться к количеству возможных «микросостояний» (микроскопических состояний), согласующихся с их термодинамическими свойствами. Рассмотрим, например, идеальный газ в сосуде. Микросостояние определено как позиции и импульсы (моменты движения) каждого составляющего систему атома. Связность предъявляет к нам требования рассматривать только те микросостояния, для которых: (I) месторасположения всех частей расположены в рамках сосуда, (II) для получения общей энергии газа кинетические энергии атомов суммируются. Больцман постулировал, что:
где константу k=1,38•10–23 Дж/К мы знаем теперь как постоянную Больцмана, а Ω является числом микросостояний, которые возможны в имеющемся макроскопическом состоянии (статистический вес состояния). Этот постулат, известный как принцип Больцмана, может быть оценен как начало статистической механики, которая описывает термодинамические системы, используя статистическое поведение составляющих их компонентов. Принцип Больцмана связывает микроскопические свойства системы (Ω) с одним из её термодинамических свойств (S).
Согласно определению Больцмана, энтропия является просто функцией состояния. Так как Ω может быть только натуральным числом (1,2,3,…), то энтропия Больцмана должна быть положительной — исходя из свойств логарифма.
Ошибки в понимании энтропии как меры беспорядка
Существует широко распространённое заблуждение, что мы можем смотреть на Ω и как на меру беспорядка в системе. Казалось бы, это оправдано, потому что мы думаем об «упорядоченных» системах как о системах, имеющих очень малую возможность конфигурирования, а о «беспорядочных» системах, как об имеющих очень много возможных состояний. Рассмотрим, например, набор 10 монет, каждая из которых может находиться либо в состоянии «орёл», либо в состоянии «решка». Наиболее «упорядоченным» макроскопическим состоянием будет являться или 10 «орлов», или 10 «решек»; для каждого результата в каждом случае имеется только одна возможная конфигурация. И наоборот, наиболее «неупорядоченное» состояние содержит 5 «орлов» и 5 «решек», и здесь 10C5 = 252 способов для получения этого результата (см. комбинаторика.)
С учётом второго начала термодинамики т.о. статистическое определение энтропии гласит, что беспорядок в изолированной закрытой системе может только возрастать. Это можно понять, взяв тот же пример с монетами. Допустим, что мы начали с 10 «орлами» и переворачиваем одну случайную монету каждую минуту. Когда мы проверим состояние системы через достаточно большой промежуток времени, возможно, что мы увидим 10 «орлов» или даже 10 «решек», но вероятность этого очень мала; более вероятно, что мы увидим приблизительно равное количество «орлов» и «решек». То есть мы можем утверждать, что в замкнутой системе произвольно протекающие процессы наиболее вероятно протекают в направлении увеличения беспорядка или энтропии.
Подобные же рассуждения можно применить и к идеальному газу. В случае идеального газа наиболее вероятным состоянием, соответствующим максимуму энтропии, будет равномерное распределение молеул.
На самом деле подобное понимание энтропии совершенно неправомерно. Рассмотрим пример - распределение молекул в поле тяготения. В этом случае наиболее вероятным распределением молекул будет распределение согласно барометрической формуле Больцмана. Другой пример - учёт электромагнитных сил взаимодействия между ионами. В этом случае наиболее вероятным состоянием, соответствующим максимуму энтропии, будет упорядоченное кристаллическое состояние, а совсем не "хаос".
Это неверное понимание энтропии появилось во время развития теории информации, в связи с парадоксом термодинамики, связанным с мысленным экспериментом т.н. "демона Максвелла". Суть парадокса заключалась в том, что рассматривалось два сосуда с разными температурами, соединённых узкой трубкой с затворками, которыми управлял т.н. "демон". "Демон" мог измерять скорость отдельных летящих молекул, и т.о. избирательно пропускать более быстрые в сосуд с высокой температурой, а более медленные - в сосуд с низкой. Из этого мысленного эксперимента вытекало кажущееся противоречие со вторым началом термодинамики.
Парадокс может быть разрешён при помощи теории информации. Для измерения скорости молекулы "демон" должен был бы получить информацию о её скорости. Но всякое получение информации - материальный процесс, сопровождающийся возрастанием энтропии. Количественный анализ, проведённый, например, в [1] показал, что приращение энтропии при измерении превосходит по абсолютной величине уменьшение энтропии, вызванное перераспрелением молекул "демоном".
Однако в дальнейшем наука пошла по неверному пути, когда многие учёные стали отождествлять информацию с "отрицательной энтропией". Начало этому заблуждению положил Н. Винер [2] (стр. 23). На самом деле энтропия не является "мерой дезорганизации, мерой беспорядка и хаоса", а информация совсем не является мерой упорядоченности, организованности, порядка.
Подобное неверное понимание, ставшее распространённым научным мифом, принесло немало вреда развитию науки и техники во второй половине XX века.
Энтропия в открытых системах
В силу второго начала термодинамики, энтропия замкнутой системы не может уменьшаться» (закон неубывания энтропии). Математически это можно записать так: , индекс обозначает так называемую внутреннюю энтропию, соответствующую замкнутой системе. В открытой системе возможны потоки тепла как из системы, так и внутрь неё. В случае наличия потока тепла в систему приходит количество тепла при температуре и уходит количество тепла при температуре . Приращение энтропии, связанное с данными тепловыми потоками, равно:
В стационарных системах обычно , , так что . Поскольку здесь изменение энтропии отрицательно, то часто употребляют выражение «приток негэнтропии», вместо оттока энтропии из системы. Негэнтропия определяется таким образом как обратная величина энтропии.
Суммарное изменение энтропии открытой системы будет равно:
Если всё время , то рост внутренней энтропии не компенсируется притоком внешней негэнтропии, система движется к ближайшему состоянию равновесия, в котором осуществляется возможный для этого состояния максимальный хаос. Если , то мы имеем стационарный процесс с неизменной общей энтропией. В этом случае в системе осуществляется некоторая внутренняя работа с генерацией внутренней энтропии, которая преобразует, например, температуру внешнего потока тепла в температуру уходящего из системы потока тепла. В случае, когда , возникают условия для развития, прогрессивной усложняющейся эволюции, роста порядка и новых структур, жизни живых организмов.
Измерение энтропии
В реальных экспериментах очень трудно измерить энтропию системы. Техники измерения базируются на термодинамическом определении энтропии и требуют экстремально аккуратной калориметрии.
Для упрощения мы будем исследовать механическую систему, термодинамические состояния которой будут определены через её объем V и давление P. Для измерения энтропии определенного состояния мы должны сперва измерить теплоёмкость при постоянных объёме и давлении (обозначенную CV и CP соответственно), для успешного набора состояний между первоначальным состоянием и требуемым. Тепловые ёмкости связаны с энтропией S и с температурой T согласно формуле:
где нижний индекс X относится к постоянным объёму и давлению. Мы можем проинтегрировать для получения изменения энтропии:
Таким образом, мы можем получить значение энтропии любого состояния (P,V) по отношению к первоначальному состоянию (P0,V0). Точная формула зависит от нашего выбора промежуточных состояний. Для примера, если первоначальное состояние имеет такое же давление, как и конечное состояние, то
В добавление, если путь между первым и последним состояниями лежит сквозь любой фазовый переход первого рода, скрытая теплота, ассоциированнае с переходом, должна также учитываться.
Энтропия первоначального состояния должна быть определена независимо. В идеальном варианте выбирается первоначальное состояние как состояние при экстремально высокой температуре, при которой система существует в виде газа. Энтропия в этом состоянии подобна энтропии классического идеального газа плюс взнос от молекулярных вращений и колебаний, которые могут быть определены спектроскопически.
Построение графика изменения энтропии
Основная статья: адиабатический процесс
Следующее уравнение может быть использовано для построения графика изменения энтропии на диаграмме P-V:
Здесь два замечания: (1) это не определение энтропии (но выведено из него), (2) предполагается, что CV и CP постоянные, что на самом деле не так.
См. также
- Чёрная дыра
- Тепловая смерть
- Демон Максвелла
- Термодинамические потенциалы
- Стрелы времени
- Информационная энтропия
- Энергетическое определение энтропии
Литература
- Fermi, E., Thermodynamics, Prentice Hall (1937)
- Reif, F., Fundamentals of statistical and thermal physics, McGraw-Hill (1965)
- ↑ Бриллюэн Л. Наука и теория информации. - М., 1960.
- ↑ Винер Н. Кибернетика. - М.: Советское радио, 1958.