Ik zou willen vragen of iemand de fysieke betekenis van Boltzmanns definitie van entropie kent. De formule is natuurlijk vrij eenvoudig
$$ S = k_b \ ln (Ω) $$
maar wat is in hemelsnaam de natuurlijke logaritme van microstaten van de systemen? Ik bedoel, wat drukt het uit?
Opmerkingen
- Het ‘ is een maatstaf van hoeveel microstates dezelfde macrostaat zouden produceren, en dus hoe waarschijnlijk de toestand is. De logaritme verandert daar niets aan (het neemt monotoon toe).
- ja, maar waarom niet lineair toenemend in plaats van exponentieel?
Antwoord
Twee voor de hand liggende wenselijke kenmerken van deze definitie zijn:
- Als je twee systemen naast elkaar plaatst en ze als één systeem beschouwt, is het totale aantal mogelijke microstates $ \ Omega_t $ is gelijk aan het product van $ \ Omega $ s van de twee systemen, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Maar voor t zijn systeem de entropie is de som van de entropieën, wat de noodzaak van een exponentiële definitie aangeeft.
- De $ \ ln $ functie heeft de eigenschap dat de entropie van een systeem met één microstaat $ (\ Omega = 1 ) $ is nul, wat wenselijk is.
Deze relatie kan verkregen worden door de aanname van gelijke a priori waarschijnlijkheden , dat wil zeggen dat het evenwicht komt overeen met de macrostaat met het maximale aantal microstaten:
Beschouw twee geïsoleerde systemen, afzonderlijk in evenwicht, elk met macrostaten $ E_i ^ {(0)}, V_i, N_i $ (energie, volume, aantal deeltjes). Elk van hen heeft een totaal aantal $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ mogelijke microstaten.
Nu brengen we ze in thermisch contact zodat ze energie kunnen uitwisselen. Na dit punt “hebben we $ E_t = E_1” + E_2 “= \ text {constante} $. $ N $ en $ V $ voor elk systeem blijven ongewijzigd. Het totale aantal mogelijke microstates voor elk systeem zou $ \ zijn Omega_i (N_i, V_i, E_i “) $ en voor het samengestelde systeem: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 “) = \ Omega_1 (E_1”) \ Omega_2 (E_2 “) = $$ $$ \ Omega (E_t, E_1) $$
Met de aanname van vindt er evenwicht plaats op het punt van het hebben van maximum $ \ Omega $ vinden we de waarde van $ E_1 ^ * $ (en dus $ E_2 ^ * $) die $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ gedeeltelijke \ Omega_1 (E_1)} {\ partieel E_1} \ right) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ left (\ frac {\ partieel \ Omega_2 (E_2)} {\ gedeeltelijk E_2} \ rechts) _ {E_2 = E_2 ^ *} \ frac {\ gedeeltelijk E_2} {\ gedeeltelijk E_1} = 0 \ tag {1} $$ $$ \ frac {\ gedeeltelijk E_2} {\ gedeeltelijk E_1 } = – 1 \ to $$ $$ \ beta_1 = \ left (\ frac {\ partieel \ ln \ Omega_1 (E_1)} {\ partieel E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ partieel \ ln \ Omega_2 (E_2)} {\ partieel E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$
Uiteraard verwachten we t deze hoeveelheden $ \ beta_1 $ en $ \ beta_2 $ gerelateerd zijn aan de temperatuur van de systemen. Uit thermodynamica weten we dat $$ \ left (\ frac {\ partiële S} {\ partiële E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ $ ( 2) $ en $ (3) $, kunnen we concluderen dat: $$ \ frac {\ partiële S} {\ partiële (\ ln \ Omega)} = k $$ of $$ \ Delta S = k \ ln \ Omega $$ waarbij $ k $ een constante is.
Opmerkingen
- Dus de $ \ ln $ is willekeurig, toch?
- @jinawee Waarom willekeurig? Levert niet ‘ t $ (1) $ een $ \ ln $ op?
- Vergeet het maar, ik dacht aan Shannon ‘ s entropie: stats.stackexchange.com/a/87210/31711 .
Antwoord
Mustafas antwoord geeft een belangrijke reden voor de logaritmische afhankelijkheid: microstaten vermenigvuldigen zich, terwijl wij “zou graag willen dat een extrinsieke eigenschap van een systeem additief is. We hebben dus gewoon een isomorfisme nodig dat vermenigvuldiging in optellen verandert. De enige continue is de “rekenliniaal isomorfisme” oftewel de logaritme. De basis $ e $ is willekeurig, zoals je kunt zien in het antwoord van Mustafa “s antwoord : je kunt elke positieve basis gebruiken (behalve 1!), En, zoals je verschuivingsbasis, moet u de Boltzmann-constante $ k_B $ aanpassen om de multiplicatieve basiswijziging te absorberen.
Maar een informatietheoretische blik op het aantal mogelijke microstaten toont andere diepe redenen naast het bovenstaande. Het bewijs van de Shannon Noiseless Coding Theorem , geeft de informatieve entropie (ook logaritmisch) zijn werkende betekenis: het is het minimum aantal bits, of aantal ja-nee-antwoorden dat we moeten beantwoorden om een bepaalde microstaat uniek te identificeren, ervan uitgaande dat ze allemaal even waarschijnlijk zijn. Stel je voor dat alle mogelijke microstaten in een lexicografische volgorde zijn gerangschikt en stel je dan voor dat je ze in bestand houdt in een database die is gerangschikt als binaire boom. Je werkt je een weg door de binaire boom om een bepaalde microstaat te vinden, en het aantal takken dat je onderweg moet maken (p afhankelijk van uw zoek-en-ophaaltijd) is $ \ log_2 \ Omega $.Of, intuïtief, entropie is de lengte van het kortste boek dat je zou moeten schrijven om een bepaalde microstaat te beschrijven, gegeven de macroscopische eigenschappen van een systeem. Dat is een boek: als we slechts één joule warmte toevoegen aan een systeem van één graad Kelvin (kouder dan de kosmische microgolfstraling op de achtergrond in de verre ruimte), zouden we a nodig hebben boek eind 2013 groter dan het hele World Wide Web om de microstaat van het systeem te beschrijven!
Zoals ik al zei, kunt u $ \ log_e $ gebruiken in plaats van $ \ log_2 $ als zolang je de multiplicatieve verandering van de basisfactor in je fysieke constanten bijhoudt (definitie van $ k_B $ en $ T $).
Deel 2 (lees het aandachtig) en de bijlage van dit artikel:
E. T. Jaynes, “Information Theory and Statistical Mechanics” .
geven ook enkele solide motivaties voor de logaritme en de entropieformule als zijnde de unieke afhankelijkheid met alle volgende eigenschappen:
- Het is een continue functie van de waarschijnlijkheden $ p_i $ van de microstaten;
- Als alle microstaten even waarschijnlijk zijn, is het een monotoon toenemende functie van $ \ Omega $;
- Als we de set van microstates willekeurig verdelen in willekeurige subsets en deze subsets beschouwen als enkele gebeurtenissen in een nieuwe “toestandsruimte” – een “grofkorrelige” versie van de eerste met waar de nieuwe gebeurtenissen zelf entropieën $ H_i $ en waarschijnlijkheden $ p_i $ hebben berekend vanuit de oorspronkelijke toestandsruimte, bereken dan de entropie van voor de totale toestandsruimte als $ \ sum p_j \, H_j $, dan krijgen we hetzelfde antwoord voor de entropie, ongeacht hoe we de microstaten kunnen verdelen.
Als je erover nadenkt, is het laatste punt (3) een krachtige generalisatie van th Het idee “vermenigvuldiging wordt toevoeging” uitgedrukt in Mustafa “s antwoord .
Antwoord
Entropie werd voor het eerst ontmoet in de klassieke thermodynamica en werd gedefinieerd als
$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, waarbij $ Q $ afkomstig is van de eerste wet van de thermodynamica
$$ \ Delta U = Q- W $$
en $ T $ is de temperatuur; $ W $ werk gedaan door het systeem.
Toen eenmaal experimenteel werd vastgesteld dat materie op microniveau discreet is, dwz samengesteld is uit moleculen, werd het statistische gedrag van materie het onderliggende raamwerk van waaruit de klassieke thermodynamica voortkomt.
De eerste wet is behoud van energie, wat ook een strikte wet is in de ensembles van het microsysteem.
In de statistische mechanica werd vastgesteld dat de gemiddelde kinetische energie van de deeltjes is verbonden met temperatuur.
De manier waarop de klassieke entropie ontstaat en wordt geïdentificeerd met de statistische mechanica die is afgeleid van entropie, is niet eenvoudig.
De statistische definitie is ontwikkeld door Ludwig Boltzmann in de jaren 1870 door het statistische gedrag van de microscopische componenten van het systeem te analyseren. Boltzmann toonde aan dat deze definitie van entropie equivalent was aan de thermodynamische entropie binnen een constant getal dat sindsdien bekend staat als de constante van Boltzmann. Samenvattend levert de thermodynamische definitie van entropie de experimentele definitie van entropie op, terwijl de statistische definitie van entropie breidt het concept uit, biedt uitleg en een beter begrip van de aard ervan.
Dit artikel, bijvoorbeeld bewijst (vergelijking 42) dat de statistische mechanica entropie wordt geïdentificeerd met de entropie van de klassieke thermodynamica. De logaritmische afhankelijkheid komt voort uit de wiskunde van het bewijs van gelijkwaardigheid.