Vad är innebörden av Boltzmanns definition av entropi?

Jag skulle vilja fråga om någon känner till den fysiska innebörden av Boltzmanns definition av entropi. Naturligtvis är formeln ganska enkel

$$ S = k_b \ ln (Ω) $$

men vad i helvete är den naturliga logaritmen för systemets mikrostat? Jag menar vad uttrycker den?

Kommentarer

  • Det ’ är ett mått på hur många mikrostater som skulle producera samma makrostat och därför hur sannolikt staten är. logaritmen ändrar inte det (det ökar monotont).
  • ja men varför inte linjärt öka snarare än exponentiellt?

Svar

Två uppenbara önskvärda funktioner i denna definition är:

  • När du sätter två system bredvid varandra och betraktar dem som ett system är det totala antalet möjliga mikrostatus $ \ Omega_t $ är lika med produkten av $ \ Omega $ s av de två systemen, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Men för t hans system entropin är summan av entropierna, vilket indikerar nödvändigheten av en exponentiell definition.
  • Funktionen $ \ ln $ har egenskapen att entropin för ett system med en mikrostat $ (\ Omega = 1 ) $ är noll, vilket är önskvärt.

Denna relation kan erhållas från antagandet om lika a priori sannolikheter , dvs att jämvikten motsvarar makrotillståndet med det maximala antalet mikrostater:

Tänk på två isolerade system, separat i jämvikt, var och en med makrostat $ E_i ^ {(0)}, V_i, N_i $ (energi, volym antal partiklar). Var och en av dem har ett totalt antal $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ möjliga mikrostater.

Nu tar vi dem i termisk kontakt så att de kan utbyta energi. Efter denna punkt har vi ”$ E_t = E_1” + E_2 ”= \ text {konstant} $. $ N $ och $ V $ för varje system förblir oförändrade. Det totala antalet möjliga mikrostatus för varje system skulle vara $ \ Omega_i (N_i, V_i, E_i ”) $ och för det sammansatta systemet: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 ”) = \ Omega_1 (E_1”) \ Omega_2 (E_2 ”) = $$ $$ \ Omega (E_t, E_1) $$

Med antagandet att jämvikt inträffar vid punkten att ha maximalt $ \ Omega $ , vi hittar värdet på $ E_1 ^ * $ (och därmed $ E_2 ^ * $) som maximerar $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ till \ vänster (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ höger) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ vänster (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ höger) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ till $$ $$ \ beta_1 = \ vänster (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ höger) _ {E_1 = E_1 ^ *} = \ vänster (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Naturligtvis förväntar vi oss t dessa mängder $ \ beta_1 $ och $ \ beta_2 $ för att vara relaterade till systemens temperaturer. Från termodynamik vet vi att $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Jämförelse av $ ( 2) $ och $ (3) $, vi kan dra slutsatsen att: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ eller $$ \ Delta S = k \ ln \ Omega $$ där $ k $ är konstant.

Kommentarer

  • Så $ \ ln $ är godtyckligt, eller hur?
  • @jinawee Varför godtycklig? Gör inte ’ t $ (1) $ $ $ ln $?
  • Glöm det, jag tänkte på Shannon ’ s entropi: stats.stackexchange.com/a/87210/31711 .

Svar

Mustafas svar ger en viktig anledning till det logaritmiska beroendet: mikrostatus multiplicerar, medan vi ”gillar att en yttre egenskap hos ett system är additiv. Så vi behöver helt enkelt en isomorfism som förvandlar multiplikation till ytterligare. Den enda kontinuerliga är ”glidregel-isomorfism” aka logaritmen. Basen $ e $ är godtycklig som du kan se från Mustafas svar : du kan använda vilken positiv bas som helst (bortsett från 1!), Och som du skiftbas, måste du justera Boltzmann-konstanten $ k_B $ för att absorbera den multiplikativa förändringen av basfaktorn.

Men en informationsteoretisk titt på antalet möjliga mikrostat visar andra djupa skäl förutom ovanstående. beviset för Shannon Noiseless Coding Theorem , ger informationsentropin (även logaritmisk) dess funktionsbetydelse: det är det minsta antalet bitar, eller antal ”ja-nej” -svar som vi behöver svara för att unikt identifiera en viss mikrostat, förutsatt att alla är lika troliga. Föreställ dig alla möjliga mikrostatus ordnade i någon ordning i lexikografisk ordning och tänk dig att behålla dem ”i fil” i en databas ordnad som Du arbetar dig ner i binärträdet för att hitta en viss mikrostat och antalet grenar du behöver göra på vägen (p roportional till din sök-och-hämta tid) är $ \ log_2 \ Omega $.Eller intuitivt är entropi längden på den kortaste boken du behöver skriva för att beskriva en viss mikrostat med tanke på systemets makroskopiska egenskaper. Det är en bok: om vi bara tillför en joule värme till ett system i en grad kelvin (kallare än den kosmiska bakgrunden mikrovågsstrålning i djupt utrymme) skulle vi behöva a boka större än hela Internet i slutet av 2013 för att beskriva systemets mikrostat!

Som sagt kan du använda $ \ log_e $ istället för $ \ log_2 $ som så länge du håller reda på den multiplikativa förändringen av basfaktorn i dina fysiska konstanter (definition av $ k_B $ och $ T $).

Avsnitt 2 (läs det noggrant) och bilagan till denna uppsats:

E. T. Jaynes, ”Informationsteori och statistisk mekanik” .

ger också några starka motiv för logaritmen och entropiformeln som unikt beroende med allt följande egenskaper:

  1. Det är en kontinuerlig funktion av sannolikheterna $ p_i $ för mikrostatema.
  2. Om alla mikrostater är lika troliga är det en monotont ökande funktion av $ \ Omega $;
  3. Om vi delar upp mikrostatuppsättningen godtyckligt i godtyckliga delmängder och sedan tänker på dessa delmängder som enstaka händelser i ett nytt ”tillståndsutrymme” – en ”grovkornad” version av den första med där de nya händelserna själva har entropier $ H_i $ och sannolikheter $ p_i $ beräknade från det ursprungliga tillståndsutrymmet, räkna sedan ut entropin för för det totala tillståndsutrymmet som $ \ sum p_j \, H_j $, då får vi samma svar för entropin, oavsett hur vi kan partitionera mikrostaterna.

Om du tänker på det är den sista punkten (3) en kraftfull generalisering av e ”multiplikation blir tillägg” -idé uttryckt i Mustafas svar .

Svar

Entropy möttes först i klassisk termodynamik och definierades som

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, där $ Q $ kommer från termodynamikens första lag

$$ \ Delta U = Q- W $$

och $ T $ är temperaturen; $ W $ arbete gjort av systemet.

När det experimentellt fastställdes att materia på mikronivå är diskret, dvs. består av molekyler, blev det statistiska beteendet hos materien det underliggande ramverket från vilket klassisk termodynamik framgår. lag är energibesparing, vilket också är en strikt lag i mikrosystemets ensembler.

Det fastställdes i statistisk mekanik att partiklarnas genomsnittliga kinetiska energi är kopplad till temperaturen.

Det sätt som den klassiska entropin uppstår och identifieras med den statistiska mekanikens härledda entropi är inte enkelt.

Den statistiska definitionen utvecklades av Ludwig Boltzmann på 1870-talet genom att analysera det statistiska beteendet hos systemets mikroskopiska komponenter. Boltzmann visade att denna definition av entropi var ekvivalent med den termodynamiska entropin inom ett konstant antal som sedan dess har kallats Boltzmanns konstant. Sammanfattningsvis ger den termodynamiska definitionen av entropi den experimentella definitionen av entropi, medan den statistiska definitionen av entropi utvidgar konceptet och ger en förklaring och en djupare förståelse för dess natur.

Detta papper, till exempel bevisar (ekvation 42) att entropin för statistisk mekanik identifieras med entropin för klassisk termodynamik. Det logaritmiska beroendet kommer från matematiken för beviset på ekvivalens.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *