Hvad er meningen med Boltzmanns definition af entropi?

Jeg vil gerne spørge, om nogen kender den fysiske betydning af Boltzmanns definition af entropi. Naturligvis er formlen ret ligefrem

$$ S = k_b \ ln (Ω) $$

men hvad i helvede er den naturlige logaritme af systemernes mikrostater? Jeg mener hvad udtrykker det?

Kommentarer

  • Det ‘ er et mål for, hvor mange mikrostater, der ville producere den samme makrostat, og derfor af, hvor sandsynlig staten er. logaritme ændrer ikke det (det stiger monotont).
  • ja men hvorfor ikke lineært stigende snarere end eksponentielt?

Svar

To åbenlyse ønskelige træk ved denne definition er:

  • Når du lægger to systemer ved siden af hinanden og betragter dem som ét system, er det samlede antal mulige mikrostater $ \ Omega_t $ er lig med produktet af $ \ Omega $ s af de to systemer, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Men for t hans system entropien er summen af entropierne, hvilket indikerer nødvendigheden af en eksponentiel definition.
  • Funktionen $ \ ln $ har den egenskab, at entropien til et system med en mikrostat $ (\ Omega = 1 ) $ er nul, hvilket er ønskeligt.

Denne relation kan opnås fra antagelsen om lige a priori sandsynligheder , dvs. ligevægten svarer til makrotilstanden med det maksimale antal mikrostater:

Overvej to isolerede systemer, hver for sig i ligevægt, hver med makrostater $ E_i ^ {(0)}, V_i, N_i $ (energi, volumen, antal partikler). Hver af dem har et samlet antal $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ mulige mikrostater.

Nu bringer vi dem i termisk kontakt, så de kan udveksle energi. Efter dette punkt har vi “$ E_t = E_1” + E_2 “= \ tekst {konstant} $. $ N $ og $ V $ for hvert system forbliver uændret. Det samlede antal mulige mikrostater for hvert system vil være $ \ Omega_i (N_i, V_i, E_i “) $ og for det sammensatte system: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 “) = \ Omega_1 (E_1”) \ Omega_2 (E_2 “) = $$ $$ \ Omega (E_t, E_1) $$

Med den antagelse, at ligevægt opstår ved det punkt, hvor det maksimale $ \ Omega $ , finder vi værdien af $ E_1 ^ * $ (og dermed $ E_2 ^ * $), der maksimerer $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ til venstre (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ højre) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ venstre (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ højre) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ til $$ $$ \ beta_1 = \ venstre (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ højre) _ {E_1 = E_1 ^ *} = \ venstre (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Vi forventer naturligvis t disse mængder $ \ beta_1 $ og $ \ beta_2 $ for at være relateret til systemernes temperaturer. Fra termodynamik ved vi, at $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Sammenligner $ ( 2) $ og $ (3) $, vi kan konkludere, at: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ eller $$ \ Delta S = k \ ln \ Omega $$ hvor $ k $ er en konstant.

Kommentarer

  • Så $ \ ln $ er vilkårlig, ikke?
  • @jinawee Hvorfor vilkårlig? Resultat ‘ t $ (1) $ resulterer i en $ \ ln $?
  • Glem det, jeg tænkte på Shannon ‘ s entropi: stats.stackexchange.com/a/87210/31711 .

Svar

Mustafas svar giver en vigtig årsag til den logaritmiske afhængighed: mikrostater multiplicerer, mens vi “vil gerne have en ekstern egenskab ved et system for at være additiv. Så vi har simpelthen brug for en isomorfisme, der forvandler multiplikation til tilføjelse. Den eneste kontinuerlige er “isomorfismens slidregel”, alias logaritmen. Basen $ e $ er vilkårlig, som du kan se fra Mustafas svar : du kan bruge en hvilken som helst positiv base (bortset fra 1!), Og som du skiftbase, skal du justere Boltzmann-konstanten $ k_B $ for at absorbere den multiplikative ændring af basisfaktor.

Men et informationsteoretisk kig på antallet af mulige mikrostater viser andre dybe grunde bortset fra ovenstående. bevis for Shannon Noiseless Coding Theorem , det giver den informative entropi (også logaritmisk) sin funktionsbetydning: det er det mindste antal bits, eller antal “ja-nej” -svar, som vi skal svare for entydigt at identificere en bestemt mikrostat, forudsat at alle er lige sandsynlige. Forestil dig alle de mulige mikrostater arrangeret i en eller anden leksikografisk rækkefølge, og forestil dig at holde dem “arkiveret” i en database arrangeret som en Du arbejder dig ned ad det binære træ for at finde en bestemt mikrostat, og antallet af grene, du skal lave på vejen (p roportional til din søg-og-hent-tid) er $ \ log_2 \ Omega $.Eller intuitivt er entropi længden af den korteste bog, som du har brug for at skrive for at beskrive en bestemt mikrostat givet et systems makroskopiske egenskaber. Det er en bog: hvis vi kun tilføjer en joule varme til et system i en grad kelvin (koldere end den kosmiske baggrund mikrobølgestråling i det dybe rum), ville vi have brug for a bog større end hele internettet i slutningen af 2013 for at beskrive systemets mikrostat!

Som jeg sagde, kan du bruge $ \ log_e $ i stedet for $ \ log_2 $ som så længe du holder styr på den multiplikative ændring af basisfaktoren i dine fysiske konstanter (definition af $ k_B $ og $ T $).

Afsnit 2 (læs det omhyggeligt) og tillægget til dette papir:

E. T. Jaynes, “Informationsteori og statistisk mekanik” .

giver også nogle solide motiver for logaritmen og entropi-formlen som den unikke afhængighed med al den følgende egenskaber:

  1. Det er en kontinuerlig funktion af sandsynlighederne $ p_i $ for mikrostatene;
  2. Hvis alle mikrostater er lige sandsynlige, er det en monotont stigende funktion af $ \ Omega $;
  3. Hvis vi opdele sæt mikrostater vilkårligt i vilkårlige delmængder og derefter tænke på disse delmængder som enkeltbegivenheder i et nyt “statsrum” – en “grovkornet” version af den første med hvor de nye begivenheder i sig selv har entropier $ H_i $ og sandsynligheder $ p_i $ beregnet ud fra det oprindelige tilstandsrum, så udarbejd entropien for det samlede statsrum som $ \ sum p_j \, H_j $, så får vi det samme svar for entropien, uanset hvordan vi kan opdele mikrostaterne.

Hvis du tænker over det, er det sidste punkt (3) en kraftig generalisering af e “multiplikation bliver tilføjelse” -idé udtrykt i Mustafas svar .

Svar

Entropi blev først mødt i klassisk termodynamik og blev defineret som

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, hvor $ Q $ kommer fra termodynamikens første lov

$$ \ Delta U = Q- W $$

og $ T $ er temperaturen; $ W $ arbejde udført af systemet.

Når det eksperimentelt blev fastslået, at stof på mikroniveau er diskret, dvs. er sammensat af molekyler, blev den statistiske opførsel af materie den underliggende ramme, hvorfra klassisk termodynamik opstår.

Den første lov er energibesparelse, hvilket også er en streng lov i mikrosystemets ensembler.

Det blev fastslået i statistisk mekanik, at partiklernes gennemsnitlige kinetiske energi er forbundet med temperaturen.

Den måde, hvorpå den klassiske entropi opstår og identificeres med den statistiske mekanik afledt entropi, er ikke enkel.

Den statistiske definition blev udviklet af Ludwig Boltzmann i 1870erne ved at analysere den statistiske opførsel af systemets mikroskopiske komponenter. Boltzmann viste, at denne definition af entropi svarede til den termodynamiske entropi inden for et konstant antal, som siden har været kendt som Boltzmanns konstant. Sammenfattende giver den termodynamiske definition af entropi den eksperimentelle definition af entropi, mens den statistiske definition af entropi udvider konceptet med en forklaring og en dybere forståelse af dets natur.

Dette papir, for eksempel beviser (ligning 42), at den statistiske mekanik entropi er identificeret med entropien af klassisk termodynamik. Den logaritmiske afhængighed kommer fra matematikken for beviset for ækvivalens.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *