Care este semnificația definiției entropiei de către Boltzmann?

Aș dori să întreb dacă cineva cunoaște sensul fizic al definiției entropiei lui Boltzmann. Desigur, formula este destul de simplă

$$ S = k_b \ ln (Ω) $$

dar ce naiba este logaritmul natural al microstatelor sistemelor? Adică ce exprimă?

Comentarii

  • Este ‘ o măsură a numărului de microstate care ar produce același macrostat și, prin urmare, a probabilității statului. logaritmul nu schimbă asta (crește monoton).
  • da, dar de ce nu creștere liniară decât exponențială?

Răspuns

Două caracteristici evidente dorite ale acestei definiții sunt:

  • Când puneți două sisteme una lângă alta, considerându-le ca fiind un sistem, numărul total de microstate posibile $ \ Omega_t $ este egal cu produsul din $ \ Omega $ s din cele două sisteme, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Dar pentru t sistemul său entropia este suma entropiilor, indicând necesitatea unei definiții exponențiale.
  • Funcția $ \ ln $ are proprietatea că entropia unui sistem cu un microstat $ (\ Omega = 1 ) $ este zero, ceea ce este de dorit.

Această relație poate fi obținută din ipoteza probabilităților a priori egale , adică echilibrul corespunde macrostatului cu numărul maxim de microstate:

Luați în considerare două sisteme izolate, separat în echilibru, fiecare cu macrostate $ E_i ^ {(0)}, V_i, N_i $ (energie, volum, număr de particule). Fiecare dintre ele are un număr total de $ microstate posibile $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $.

Acum îi aducem în contact termic, astfel încât să poată face schimb de energie. După acest punct, vom avea $ E_t = E_1 „+ E_2” = \ text {constant} $. $ N $ și $ V $ pentru fiecare sistem rămân neschimbate. Numărul total de microstate posibile pentru fiecare sistem ar fi $ \ Omega_i (N_i, V_i, E_i „) $ și pentru sistemul compozit: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 „) = \ Omega_1 (E_1”) \ Omega_2 (E_2 „) = $$ $$ \ Omega (E_t, E_1) $$

Odată cu presupunerea echilibrului are loc la punctul de a avea maximum $ \ Omega $ , găsim valoarea $ E_1 ^ * $ (și deci $ E_2 ^ * $) care maximizează $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ left (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ to $$ $$ \ beta_1 = \ left (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Bineînțeles Aceste cantități $ \ beta_1 $ și $ \ beta_2 $ trebuie să fie legate de temperaturile sistemelor. Din termodinamică știm că $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparând $ ( 2) $ și $ (3) $, putem concluziona că: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ sau $$ \ Delta S = k \ ln \ Omega $$ unde $ k $ este o constantă.

Comentarii

Răspunsul

Răspunsul lui Mustafa oferă un motiv important pentru dependența logaritmică: microstatele se înmulțesc, în timp ce noi „Aș dori ca o proprietate extrinsecă a unui sistem să fie aditivă. Deci, avem nevoie pur și simplu de un izomorfism care transformă multiplicarea în adunare. Singurul continuu este „izomorfismul regulii diapozitive”, aka logaritmul. Baza $ e $ este arbitrară, după cum puteți vedea din răspunsul Mustafa : puteți utiliza orice bază pozitivă (în afară de 1!) Și, așa cum schimbarea bazei, va trebui să ajustați constanta Boltzmann $ k_B $ pentru a absorbi factorul multiplicativ de schimbare a bazei.

Dar o privire teoretică a informației asupra numărului de posibile microstate arată alte motive profunde, în afară de cele de mai sus. Dovada teoremei de codare Shannon Noiseless , dă entropiei informaționale (și logaritmică) semnificația sa de lucru: este numărul minim de biți sau numărul de răspunsuri „da-nu” la care trebuie să răspundem pentru a identifica în mod unic un anumit microstat, presupunând că toate sunt la fel de probabile. arborele binar. Vă îndreptați spre arborele binar pentru a găsi un anumit microstat și numărul de ramuri pe care trebuie să le faceți pe drum (p proporțional cu timpul de căutare și recuperare) este $ \ log_2 \ Omega $.Sau, intuitiv, entropia este lungimea celei mai scurte cărți pe care ar trebui să o scrieți pentru a descrie un anumit microstat, având în vedere proprietățile macroscopice ale unui sistem. Aceasta este o carte: dacă adăugăm doar un joule de căldură la un sistem la un grad kelvin (mai rece decât radiația cosmică de microunde de fundal în spațiul adânc), am avea nevoie de carte mai mare decât întregul World Wide Web la sfârșitul anului 2013 pentru a descrie microstatul sistemului!

După cum am spus, puteți utiliza $ \ log_e $ în loc de $ \ log_2 $ ca atâta timp cât țineți evidența schimbării multiplicative a factorului de bază în constantele fizice (definiție de $ k_B $ și $ T $).

Secțiunea 2 (citiți-o cu atenție) și apendicele acestei lucrări:

E. T. Jaynes, „Teoria informației și mecanica statistică” .

oferă, de asemenea, niște motivații solide pentru logaritm și formula entropiei ca fiind dependența unică cu toate următoarele proprietăți:

  1. Este o funcție continuă a probabilităților $ p_i $ ale microstatelor;
  2. Dacă toate microstatele sunt la fel de probabile, este o funcție de creștere monotonă a $ \ Omega $;
  3. Dacă partiționăm setul de microstate în mod arbitrar în subseturi arbitrare și apoi ne gândim la aceste subseturi ca la evenimente individuale într-un nou „spațiu de stare” – o versiune „cu grosier gros” a primului cu în cazul în care noile evenimente în sine au entropii $ H_i $ și probabilități $ p_i $ calculate din spațiul de stare original, apoi se calculează entropia pentru spațiul de stare total ca $ \ sum p_j \, H_j $, atunci vom primi același răspuns pentru entropie, indiferent de modul în care am putea împărți microstatele.

Dacă vă gândiți la asta, ultimul punct (3) este o generalizare puternică a Ideea „multiplicarea devine adăugire” exprimată în răspunsul lui Mustafa .

Răspuns

Entropia a fost întâmpinată pentru prima dată în termodinamica clasică și a fost definită ca

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, de unde $ Q $ provine din prima lege a termodinamicii

$$ \ Delta U = Q- W $$

și $ T $ este temperatura; $ W $ lucru efectuat de sistem.

Odată ce s-a stabilit experimental că materia la nivel micro este discretă, adică este compusă din molecule, comportamentul statistic al materiei a devenit cadrul subiacent din care apare termodinamica clasică.

Primul legea este conservarea energiei, care este, de asemenea, o lege strictă în ansamblurile microsistemului.

S-a stabilit în mecanica statistică că energia cinetică medie a particulelor este legată de temperatură.

Modul în care entropia clasică apare și este identificată cu entropia derivată din mecanica statistică nu este simplu.

Definiția statistică a fost elaborată de Ludwig Boltzmann în anii 1870 prin analiza comportamentului statistic al componentelor microscopice ale sistemului. Boltzmann a arătat că această definiție a entropiei a fost echivalentă cu entropia termodinamică într-un număr constant care a fost cunoscut de atunci drept constantă a lui Boltzmann. În rezumat, definiția termodinamică a entropiei oferă definiția experimentală a entropiei, în timp ce definiția statistică a entropiei extinde conceptul, oferind o explicație și o înțelegere mai profundă a naturii sale.

Această lucrare, de exemplu, demonstrează (ecuația 42) că entropia mecanicii statistice este identificată cu entropia termodinamicii clasice. Dependența logaritmică provine din matematica dovezii echivalenței.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *