Jeg vil spørre om noen vet den fysiske betydningen av Boltzmanns definisjon av entropi. Selvfølgelig er formelen ganske grei
$$ S = k_b \ ln (Ω) $$
men hva i helvete er den naturlige logaritmen til mikrostatene i systemene? Jeg mener hva uttrykker den?
Kommentarer
- Det ‘ er et mål på hvor mange mikrostater som vil produsere den samme makrostaten, og derfor hvor sannsynlig staten er. logaritmen endrer ikke det (den øker monotont).
- ja, men hvorfor ikke lineær økning i stedet for eksponentiell?
Svar
To åpenbare ønskelige trekk ved denne definisjonen er:
- Når du setter to systemer ved siden av hverandre, og vurderer dem som ett system, er det totale antallet mulige mikrostater $ \ Omega_t $ er lik produktet av $ \ Omega $ s av de to systemene, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Men for t hans system entropien er summen av entropiene, noe som indikerer nødvendigheten av en eksponentiell definisjon.
- Funksjonen $ \ ln $ har den egenskapen at entropien til et system med en mikrostat $ (\ Omega = 1 ) $ er null, noe som er ønskelig.
Denne relasjonen kan oppnås fra antagelsen om like a priori sannsynligheter , dvs. likevekten tilsvarer makrostaten med det maksimale antall mikrostater:
Vurder to isolerte systemer, hver for seg i likevekt, hver med makrostatene $ E_i ^ {(0)}, V_i, N_i $ (energi, volum, antall partikler). Hver av dem har et totalt antall $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ mulige mikrostater.
Nå bringer vi dem i termisk kontakt slik at de kan utveksle energi. Etter dette punktet vil vi ha $ E_t = E_1 «+ E_2» = \ tekst {konstant} $. $ N $ og $ V $ for hvert system forblir uendret. Det totale antallet mulige mikrostatus for hvert system vil være $ \ Omega_i (N_i, V_i, E_i «) $ og for det sammensatte systemet: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1») \ times \ Omega_2 (N_2, V_2, E_2 «) = \ Omega_1 (E_1») \ Omega_2 (E_2 «) = $$ $$ \ Omega (E_t, E_1) $$
Med antagelsen om likevekt oppstår på det punktet å ha maksimalt $ \ Omega $ , finner vi verdien av $ E_1 ^ * $ (og dermed $ E_2 ^ * $) som maksimerer $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ til \ venstre (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ høyre) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ venstre (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ høyre) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ til $$ $$ \ beta_1 = \ venstre (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ høyre) _ {E_1 = E_1 ^ *} = \ venstre (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$
Naturligvis forventer vi t disse mengdene $ \ beta_1 $ og $ \ beta_2 $ for å være relatert til systemets temperaturer. Fra termodynamikk vet vi at $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparing $ ( 2) $ og $ (3) $, vi kan konkludere med at: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ eller $$ \ Delta S = k \ ln \ Omega $$ hvor $ k $ er en konstant.
Kommentarer
- Så $ \ ln $ er vilkårlig, ikke sant?
- @jinawee Hvorfor vilkårlig? Får ikke ‘ t $ (1) $ $ $ ln $?
- Glem det, jeg tenkte på Shannon ‘ s entropi: stats.stackexchange.com/a/87210/31711 .
Svar
Mustafas svar gir en viktig årsak til den logaritmiske avhengigheten: mikrostatene multipliserer, mens vi «liker at en ekstern egenskap til et system skal være additiv. Så vi trenger ganske enkelt en isomorfisme som gjør multiplikasjon til tillegg. Den eneste kontinuerlige er «lysbildet isomorfisme» aka logaritmen. Basen $ e $ er vilkårlig som du kan se fra Mustafa «svar : du kan bruke en hvilken som helst positiv base (bortsett fra 1!), Og som du skiftbase, må du justere Boltzmann-konstanten $ k_B $ for å absorbere den multiplikative endringen av basefaktoren.
Men et informasjonsteoretisk blikk på antall mulige mikrostater viser andre dype grunner bortsett fra det ovennevnte. beviset for Shannon Noiseless Coding Theorem , gir informasjonsentropien (også logaritmisk) sin arbeidsbetydning: det er minimum antall bits, eller antall «ja-nei» -svar vi trenger å svare for å identifisere en bestemt mikrostat på en unik måte, forutsatt at alle er like sannsynlige. Tenk deg alle mulige mikrostatene ordnet i en eller annen leksikografisk rekkefølge, og tenk deg å ha dem «arkivert» i en database ordnet som Du jobber deg nedover binærtreet for å finne en bestemt mikrostat, og antall grener du trenger å lage på vei (p roportional to your seek-and-retry time) er $ \ log_2 \ Omega $.Eller, intuitivt, er entropi lengden på den korteste boka du trenger å skrive for å beskrive en bestemt mikrostat gitt et systems makroskopiske egenskaper. Det er en bok: hvis vi bare tilfører en joule varme til et system i en grad kelvin (kaldere enn den kosmiske bakgrunnen mikrobølgestrålingen i det dype rommet), trenger vi a bok større enn hele nettet på slutten av 2013 for å beskrive systemets mikrostat!
Som sagt kan du bruke $ \ log_e $ i stedet for $ \ log_2 $ som så lenge du holder oversikt over den multiplikative endringen av basisfaktoren i dine fysiske konstanter (definisjon på $ k_B $ og $ T $).
Seksjon 2 (les den nøye) og vedlegget til denne artikkelen:
E. T. Jaynes, «Information Theory and Statistical Mechanics» .
gir også noen solide motivasjoner for logaritmen og entropiformelen som unik avhengighet med all den følgende egenskaper:
- Det er en kontinuerlig funksjon av sannsynlighetene $ p_i $ for mikrostatene;
- Hvis alle mikrostatene er like sannsynlige, er det en monotont økende funksjon av $ \ Omega $;
- Hvis vi deler mikrosettene vilkårlig i vilkårlige delmengder og deretter tenker på disse delmengdene som enkeltbegivenheter i et nytt «statsrom» – en «grovkornet» versjon av den første der de nye begivenhetene har entropier $ H_i $ og sannsynligheter $ p_i $ beregnet fra det opprinnelige tilstandsrommet, og deretter beregner entropien til for det totale tilstandsområdet som $ \ sum p_j \, H_j $, så får vi det samme svaret uansett hvordan vi kan dele mikrostatene.
Hvis du tenker på det, er det siste punktet (3) en kraftig generalisering av e «multiplikasjon blir tillegg» -ide uttrykt i Mustafas svar .
Svar
Entropy ble først møtt i klassisk termodynamikk og ble definert som
$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, hvor $ Q $ kommer fra termodynamikkens første lov
$$ \ Delta U = Q- W $$
og $ T $ er temperaturen; $ W $ arbeid utført av systemet.
Når det eksperimentelt ble fastslått at materie på mikronivå er diskret, dvs. består av molekyler, ble materiens statistiske oppførsel det underliggende rammeverket som klassisk termodynamikk kommer fra.
Den første lov er bevaring av energi, som også er en streng lov i ensemblene til mikrosystemet.
Det ble etablert i statistisk mekanikk at partikkelenes gjennomsnittlige kinetiske energi er forbundet med temperaturen.
Måten den klassiske entropien kommer fram og identifiseres med den statistiske mekanikken avledet entropi er ikke enkel.
Den statistiske definisjonen ble utviklet av Ludwig Boltzmann på 1870-tallet ved å analysere den statistiske oppførselen til systemets mikroskopiske komponenter. Boltzmann viste at denne definisjonen av entropi tilsvarte den termodynamiske entropien til et konstant tall som siden har vært kjent som Boltzmanns konstant. Oppsummert gir den termodynamiske definisjonen av entropi den eksperimentelle definisjonen av entropi, mens den statistiske definisjonen av entropi utvider konseptet, gir en forklaring og en dypere forståelse av dets natur.
Dette papiret, for eksempel, beviser (ligning 42) at den statistiske mekanikkens entropi er identifisert med entropien til klassisk termodynamikk. Den logaritmiske avhengigheten kommer fra matematikken til beviset på ekvivalens.