Qual è il significato della definizione di Boltzmann di entropia?

Vorrei chiedere se qualcuno conosce il significato fisico della definizione di entropia di Boltzmann. Ovviamente la formula è piuttosto semplice

$$ S = k_b \ ln (Ω) $$

ma che diavolo è il logaritmo naturale dei microstati dei sistemi? Voglio dire cosa esprime?

Commenti

  • È ‘ una misura di quanti microstati produrrebbe lo stesso macrostato, e quindi di quanto sia probabile lo stato. logaritmo non cambia quello (è monotonicamente crescente).
  • sì, ma perché non aumentare lineare piuttosto che esponenziale?

Risposta

Due ovvie caratteristiche desiderabili di questa definizione sono:

  • Quando si mettono due sistemi uno accanto allaltro, considerandoli come un unico sistema, il numero totale di possibili microstati $ \ Omega_t $ è uguale al prodotto di $ \ Omega $ s dei due sistemi, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Ma per t il suo sistema lentropia è la somma delle entropie, indicando la necessità di una definizione esponenziale.
  • La funzione $ \ ln $ ha la proprietà che lentropia di un sistema con un microstato $ (\ Omega = 1 ) $ è zero, il che è desiderabile.

Questa relazione può essere ottenuta dallassunzione di probabilità a priori uguali , cioè che lequilibrio corrisponde al macrostato con il numero massimo di microstati:

Considera due sistemi isolati, separatamente in equilibrio, ciascuno con macrostato $ E_i ^ {(0)}, V_i, N_i $ (energia, volume, numero di particelle). Ciascuno di essi ha un numero totale di $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ possibili microstati.

Ora li portiamo in contatto termico in modo che possano scambiare energia. Dopo questo punto, “avremo $ E_t = E_1” + E_2 “= \ text {constant} $. $ N $ e $ V $ per ogni sistema rimangono invariati. Il numero totale di microstati possibili per ogni sistema sarebbe $ \ Omega_i (N_i, V_i, E_i “) $ e per il sistema composito: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 “) = \ Omega_1 (E_1”) \ Omega_2 (E_2 “) = $$ $$ \ Omega (E_t, E_1) $$

Con lipotesi di equilibrio si verifica nel punto in cui si ha il massimo $ \ Omega $ , troviamo il valore di $ E_1 ^ * $ (e quindi $ E_2 ^ * $) che massimizza $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ left (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ a $$ $$ \ beta_1 = \ left (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Naturalmente ci aspettiamo t queste quantità $ \ beta_1 $ e $ \ beta_2 $ devono essere correlate alle temperature dei sistemi. Dalla termodinamica sappiamo che $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparing $ ( 2) $ e $ (3) $, possiamo concludere che: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ o $$ \ Delta S = k \ ln \ Omega $$ dove $ k $ è una costante.

Commenti

  • Quindi $ \ ln $ è arbitrario, giusto?
  • @jinawee Perché arbitrario? ‘ t $ (1) $ non dà come risultato $ \ ln $?
  • Scordatelo, stavo pensando a Shannon ‘ s entropia: stats.stackexchange.com/a/87210/31711 .

La risposta

Mustafa “s La risposta fornisce una ragione importante per la dipendenza logaritmica: i microstati si moltiplicano, mentre noi “Vorrei che una proprietà estrinseca di un sistema fosse additiva. Quindi abbiamo semplicemente bisogno di un isomorfismo che trasformi la moltiplicazione in addizione. Lunico continuo è l “isomorfismo del regolo calcolatore” noto anche come logaritmo. La base $ e $ è arbitraria come puoi vedere dalla risposta di Mustafa “: puoi usare qualsiasi base positiva (a parte 1!) E, come tu spostamento di base, sarà necessario regolare la costante di Boltzmann $ k_B $ per assorbire il fattore moltiplicativo del cambiamento di base.

Ma uno sguardo teorico dellinformazione al numero di possibili microstati mostra altre ragioni profonde oltre a La dimostrazione del Teorema di codifica senza rumore di Shannon , dà allentropia informativa (anche logaritmica) il suo significato di funzionamento: è il numero minimo di bit, o numero di risposte “sì-no” a cui dobbiamo rispondere per identificare in modo univoco un particolare microstato, assumendo che siano tutte ugualmente probabili. Immagina tutti i possibili microstati disposti in un certo ordine lessicografico e poi immagina di tenerli “su file” in un database organizzato come albero binario. Scendi lungo lalbero binario per trovare un particolare microstato e il numero di rami che devi fare lungo il percorso (p roportional to your seek-and-retrieve time) è $ \ log_2 \ Omega $.Oppure, intuitivamente, lentropia è la lunghezza del libro più breve che avresti bisogno di scrivere per descrivere un particolare microstato date le proprietà macroscopiche di un sistema. Questo è un libro: se aggiungiamo solo un joule di calore a un sistema a un grado kelvin (più freddo della radiazione cosmica di fondo nello spazio profondo), avremmo bisogno di a libro più grande dellintero World Wide Web alla fine del 2013 per descrivere il microstato del sistema!

Come ho detto, puoi usare $ \ log_e $ invece di $ \ log_2 $ come a patto di tenere traccia della variazione moltiplicativa del fattore di base nelle costanti fisiche (definizione di $ k_B $ e $ T $).

Sezione 2 (leggila attentamente) e lappendice di questo articolo:

E. T. Jaynes, “Teoria dellinformazione e meccanica statistica” .

fornisce anche alcune solide motivazioni per il logaritmo e la formula dellentropia come dipendenza unica da tutte le seguenti proprietà:

  1. È una funzione continua delle probabilità $ p_i $ dei microstati;
  2. Se tutti i microstati sono ugualmente probabili, è una funzione monotonicamente crescente di $ \ Omega $;
  3. Se partizioniamo arbitrariamente linsieme di microstati in sottoinsiemi arbitrari e poi pensiamo a questi sottoinsiemi come eventi singoli in un nuovo “spazio degli stati” – una versione “a grana grossa” del primo con dove i nuovi eventi stessi hanno entropie $ H_i $ e probabilità $ p_i $ calcolate dallo spazio degli stati originale, quindi calcolare lentropia di per lo spazio degli stati totale come $ \ sum p_j \, H_j $, allora avremo la stessa risposta per lentropia, non importa come possiamo partizionare i microstati.

Se ci pensi, lultimo punto (3) è una potente generalizzazione di th La “moltiplicazione diventa addizione” espressa nella risposta di Mustafa .

Risposta

Entropia è stata riscontrata per la prima volta nella termodinamica classica ed è stata definita come

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, dove $ Q $ deriva dalla prima legge della termodinamica

$$ \ Delta U = Q- W $$

e $ T $ è la temperatura; $ W $ lavoro svolto dal sistema.

Una volta stabilito sperimentalmente che la materia a livello micro è discreta, cioè è composta da molecole, il comportamento statistico della materia è diventato la struttura sottostante da cui emerge la termodinamica classica.

La prima legge è la conservazione dellenergia, che è anche una legge rigida negli insiemi del microsistema.

È stato stabilito nella meccanica statistica che il lenergia cinetica media delle particelle è collegata alla temperatura.

Il modo in cui lentropia classica emerge e viene identificata con lentropia derivata dalla meccanica statistica non è semplice.

La definizione statistica fu sviluppata da Ludwig Boltzmann negli anni 1870 analizzando il comportamento statistico dei componenti microscopici del sistema. Boltzmann ha mostrato che questa definizione di entropia era equivalente allentropia termodinamica entro un numero costante che è stato poi noto come costante di Boltzmann. In sintesi, la definizione termodinamica di entropia fornisce la definizione sperimentale di entropia, mentre la definizione statistica di entropia estende il concetto, fornendo una spiegazione e una comprensione più profonda della sua natura.

Questo documento, ad esempio, dimostra (equazione 42) che lentropia della meccanica statistica è identificata con lentropia della termodinamica classica. La dipendenza logaritmica proviene dalla matematica della prova di equivalenza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *