Was bedeutet Boltzmanns Definition von Entropie?

Ich möchte fragen, ob jemand die physikalische Bedeutung von Boltzmanns Definition der Entropie kennt. Natürlich ist die Formel ziemlich einfach

$$ S = k_b \ ln (Ω) $$

aber was zum Teufel ist der natürliche Logarithmus der Mikrozustände der Systeme? Ich meine, was drückt er aus?

Kommentare

  • ‚ ist ein Maß dafür, wie viele Mikrozustände denselben Makrostaten produzieren würden und daher, wie wahrscheinlich der Zustand ist Der Logarithmus ändert dies nicht (er nimmt monoton zu).
  • ja, aber warum nicht eher linear als exponentiell ansteigend?

Antwort

Zwei offensichtliche wünschenswerte Merkmale dieser Definition sind:

  • Wenn Sie zwei Systeme nebeneinander stellen und sie als ein System betrachten, ergibt sich die Gesamtzahl der möglichen Mikrozustände $ \ Omega_t $ ist gleich dem Produkt von $ \ Omega $ s der beiden Systeme, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Aber für t In seinem System ist die Entropie die Summe der Entropien, was auf die Notwendigkeit einer exponentiellen Definition hinweist.
  • Die $ \ ln $ -Funktion hat die Eigenschaft, dass die Entropie eines Systems mit einem Mikrozustand $ (\ Omega = 1) ist ) $ ist Null, was wünschenswert ist.

Diese Beziehung kann erhalten unter der Annahme von gleichen a priori Wahrscheinlichkeiten , dh dass Das Gleichgewicht entspricht dem Makrostaten mit der maximalen Anzahl von Mikrozuständen:

Betrachten Sie zwei isolierte Systeme, die sich getrennt im Gleichgewicht befinden und jeweils die Makrostaten $ E_i ^ {(0)}, V_i, N_i $ (Energie, Volumen, Anzahl der Partikel). Jeder von ihnen hat eine Gesamtzahl von $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ möglichen Mikrozuständen.

Jetzt bringen wir sie in thermischen Kontakt, damit sie Energie austauschen können. Nach diesem Punkt haben wir „E_t = E_1“ + E_2 „= \ text {Konstante} $. $ N $ und $ V $ für jedes System bleiben unverändert. Die Gesamtzahl der möglichen Mikrozustände für jedes System wäre $ \ Omega_i (N_i, V_i, E_i „) $ und für das zusammengesetzte System: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1“) \ times \ Omega_2 (N_2, V_2, E_2 „) = \ Omega_1 (E_1“) \ Omega_2 (E_2 „) = $$ $$ \ Omega (E_t, E_1) $$

Mit der Annahme eines Gleichgewichts tritt an dem Punkt ein, an dem maximal $ \ Omega $ vorliegt finden wir den Wert von $ E_1 ^ * $ (und damit $ E_2 ^ * $), der $ \ Omega (E_t, E_1) $ maximiert: $$ d \ Omega = 0 \ to \ left (\ frac {\ teilweise \ Omega_1 (E_1)} {\ partielles E_1} \ rechts) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ links (\ frac {\ partielles \ Omega_2 (E_2)} {\ partielles E_2} \ rechts) _ {E_2 = E_2 ^ *} \ frac {\ partielles E_2} {\ partielles E_1} = 0 \ tag {1} $$ $$ \ frac {\ partielles E_2} {\ partielles E_1 } = – 1 \ bis $$ $$ \ beta_1 = \ left (\ frac {\ partiell \ ln \ Omega_1 (E_1)} {\ partiell E_1} \ rechts) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ partiell \ ln \ Omega_2 (E_2)} {\ partiell E_2} \ rechts) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Natürlich erwarten wir t Diese Größen $ \ beta_1 $ und $ \ beta_2 $ müssen mit den Temperaturen der Systeme in Beziehung stehen. Aus der Thermodynamik wissen wir, dass $$ \ left (\ frac {\ partielles S} {\ partielles E} \ rechts) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparing $ ( 2) $ und $ (3) $ können wir folgern: $$ \ frac {\ partielles S} {\ partielles (\ ln \ Omega)} = k $$ oder $$ \ Delta S = k \ ln \ Omega $$ wobei $ k $ eine Konstante ist.

Kommentare

  • Das $ \ ln $ ist also willkürlich, oder?
  • @jinawee Warum willkürlich? Führt ‚ t $ (1) $ nicht zu einem $ \ ln $?
  • Vergiss es, ich habe an Shannon gedacht ‚ s Entropie: stats.stackexchange.com/a/87210/31711 .

Antwort

Mustafas Antwort gibt einen wichtigen Grund für die logarithmische Abhängigkeit an: Mikrozustände multiplizieren sich, während wir „d wie eine extrinsische Eigenschaft eines Systems, additiv zu sein. Wir brauchen also einfach einen Isomorphismus, der Multiplikation in Addition umwandelt. Die einzige kontinuierliche ist der „Rechenschieber-Isomorphismus“, auch bekannt als Logarithmus. Die Basis $ e $ ist beliebig, wie Sie aus der Antwort von Mustafa ersehen können: Sie können jede positive Basis (außer 1!) Und wie Sie verwenden Um die Basis zu verschieben, müssen Sie die Boltzmann-Konstante $ k_B $ anpassen, um den multiplikativen Faktor der Änderung der Basis zu absorbieren.

Ein informationstheoretischer Blick auf die Anzahl möglicher Mikrozustände zeigt jedoch andere tiefe Gründe als Der Beweis des Shannon Noiseless Coding Theorem gibt der Informationsentropie (auch logarithmisch) ihre Arbeitsbedeutung: Es ist die minimale Anzahl von Bits oder Anzahl der „Ja-Nein“ -Antworten, die wir beantworten müssen, um einen bestimmten Mikrozustand eindeutig zu identifizieren, vorausgesetzt, alle sind gleich wahrscheinlich. Stellen Sie sich alle möglichen Mikrozustände vor, die in einer lexikografischen Reihenfolge angeordnet sind, und stellen Sie sich dann vor, sie in einer Datenbank „gespeichert“ zu halten Binärbaum: Sie arbeiten sich durch den Binärbaum, um einen bestimmten Mikrozustand und die Anzahl der Zweige zu finden, die Sie auf dem Weg machen müssen (S. 22) proportional zu Ihrer Such- und Abrufzeit ist $ \ log_2 \ Omega $.Intuitiv ist Entropie die Länge des kürzesten Buches, das Sie schreiben müssen, um einen bestimmten Mikrozustand angesichts der makroskopischen Eigenschaften eines Systems zu beschreiben. Das ist ein Buch: Wenn wir einem System mit einem Grad Kelvin (kälter als die kosmische Hintergrundmikrowellenstrahlung im Weltraum) nur ein Joule Wärme hinzufügen, benötigen wir a Buch größer als das gesamte World Wide Web Ende 2013 , um den Mikrozustand des Systems zu beschreiben!

Wie gesagt, Sie können $ \ log_e $ anstelle von $ \ log_2 $ as verwenden Solange Sie die multiplikative Änderung des Basisfaktors in Ihren physikalischen Konstanten (Definition von $ k_B $ und $ T $) verfolgen.

Abschnitt 2 (sorgfältig lesen) und den Anhang dieses Dokuments:

E. T. Jaynes, „Informationstheorie und statistische Mechanik“ .

geben auch einige solide Motivationen für den Logarithmus und die Entropieformel als einzigartige Abhängigkeit mit allen folgende Eigenschaften:

  1. Es ist eine kontinuierliche Funktion der Wahrscheinlichkeiten $ p_i $ der Mikrozustände;
  2. Wenn alle Mikrozustände gleich wahrscheinlich sind, ist es eine monoton ansteigende Funktion von $ \ Omega $;
  3. Wenn wir die Menge der Mikrozustände willkürlich in beliebige Teilmengen aufteilen und diese Teilmengen dann als einzelne Ereignisse in einem neuen „Zustandsraum“ betrachten – eine „grobkörnige“ Version der ersten mit Wenn die neuen Ereignisse selbst Entropien $ H_i $ und Wahrscheinlichkeiten $ p_i $ haben, die aus dem ursprünglichen Zustandsraum berechnet wurden, berechnen Sie die Entropie für den gesamten Zustandsraum als $ \ sum p_j \, H_j $, dann erhalten wir die gleiche Antwort für die Entropie, egal wie wir die Mikrozustände aufteilen.

Wenn Sie darüber nachdenken, ist der letzte Punkt (3) eine starke Verallgemeinerung von th Die Idee „Multiplikation wird Addition“, ausgedrückt in Mustafas Antwort .

Antwort

Entropie wurde erstmals in der klassischen Thermodynamik erfüllt und als

$$ \ mathrm dS = \ frac {definiert \ delta Q} {T} $$, wobei $ Q $ aus dem ersten Hauptsatz der Thermodynamik

$$ \ Delta U = stammt Q- W $$

und $ T $ ist die Temperatur; $ W $ Arbeit vom System erledigt.

Nachdem experimentell festgestellt wurde, dass Materie auf Mikroebene diskret ist, dh aus Molekülen besteht, wurde das statistische Verhalten der Materie zum zugrunde liegenden Rahmen, aus dem die klassische Thermodynamik hervorgeht.

Die erste Gesetz ist Energieerhaltung, was auch in den Ensembles des Mikrosystems ein strenges Gesetz ist.

In der statistischen Mechanik wurde festgestellt, dass die Die durchschnittliche kinetische Energie der Partikel hängt mit der Temperatur zusammen.

Die Art und Weise, wie die klassische Entropie entsteht und mit der aus der statistischen Mechanik abgeleiteten Entropie identifiziert wird, ist nicht einfach.

Die statistische Definition wurde von Ludwig Boltzmann in den 1870er Jahren durch Analyse des statistischen Verhaltens der mikroskopischen Komponenten des Systems entwickelt. Boltzmann zeigte, dass diese Definition der Entropie der thermodynamischen Entropie innerhalb einer konstanten Zahl entspricht, die seitdem als Boltzmannsche Konstante bekannt ist. Zusammenfassend liefert die thermodynamische Definition der Entropie die experimentelle Definition der Entropie, während die statistische Definition der Entropie erweitert das Konzept und bietet eine Erklärung und ein tieferes Verständnis seiner Natur.

In diesem Artikel wird beispielsweise beweist (Gleichung 42), dass die Entropie der statistischen Mechanik mit der Entropie der klassischen Thermodynamik identifiziert wird. Die logarithmische Abhängigkeit ergibt sich aus der Mathematik des Äquivalenznachweises.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.