Jaký význam má Boltzmannova definice entropie?

Chtěl bych se zeptat, jestli někdo zná fyzický význam Boltzmannovy definice entropie. Vzorec je samozřejmě velmi přímočarý

$$ S = k_b \ ln (Ω) $$

ale co je sakra přirozený logaritmus mikrostavů systémů? Myslím tím, co to vyjadřuje?

Komentáře

  • Je to ‚ měřítko toho, kolik mikrostavů by vyprodukovalo stejný makrostát, a tedy i pravděpodobnost stavu. logaritmus to nezmění (je monotónně rostoucí).
  • ano, ale proč ne lineární nárůst spíše než exponenciální?

odpověď

Dvě zjevné žádoucí vlastnosti této definice jsou:

  • Když umístíte dva systémy vedle sebe a považujete je za jeden systém, celkový počet možných mikrostavů $ \ Omega_t $ se rovná součinu $ \ Omega $ s obou systémů, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Ale pro t jeho systém entropie je součet entropií, což naznačuje nutnost exponenciální definice.
  • Funkce $ \ ln $ má tu vlastnost, že entropie systému s jedním mikrostavem $ (\ Omega = 1 ) $ je nula, což je žádoucí.

Tuto relaci lze získat za předpokladu stejné apriorní pravděpodobnosti , tj. že rovnováha odpovídá makrostátu s maximálním počtem mikrostavů:

Zvažte dva izolované systémy, zvlášť v rovnováze, každý s makrostaty $ E_i ^ {(0)}, V_i, N_i $ (energie, objem, počet částic). Každý z nich má celkový počet $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ možných mikrostavů.

Nyní je přivádíme do tepelného kontaktu, aby si mohli vyměňovat energii. Po tomto bodě „budeme mít $ E_t = E_1“ + E_2 „= \ text {stálý} $. $ N $ a $ V $ pro každý systém zůstanou nezměněny. Celkový počet možných mikrostavů pro každý systém bude $ \ Omega_i (N_i, V_i, E_i „) $ a pro složený systém: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1“) \ times \ Omega_2 (N_2, V_2, E_2 „) = \ Omega_1 (E_1“) \ Omega_2 (E_2 „) = $$ $$ \ Omega (E_t, E_1) $$

Za předpokladu, že rovnováha nastane v okamžiku, kdy bude maximální $ \ Omega $ , najdeme hodnotu $ E_1 ^ * $ (a tedy $ E_2 ^ * $), která maximalizuje $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ doleva (\ frac {\ částečné \ Omega_1 (E_1)} {\ částečné E_1} \ pravé) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ levé (\ frac {\ částečné \ Omega_2 (E_2)} {\ částečné E_2} \ pravé) _ {E_2 = E_2 ^ *} \ frac {\ částečné E_2} {\ částečné E_1} = 0 \ tag {1} $$ $$ \ frac {\ částečné E_2} {\ částečné E_1 } = – 1 \ to $$ $$ \ beta_1 = \ vlevo (\ frac {\ částečné \ ln \ Omega_1 (E_1)} {\ částečné E_1} \ pravé) _ {E_1 = E_1 ^ *} = \ levé (\ frac {\ částečné \ ln \ Omega_2 (E_2)} {\ částečné E_2} \ pravé) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Přirozeně očekáváme Tato množství $ \ beta_1 $ a $ \ beta_2 $ souvisí s teplotami systémů. Z termodynamiky víme, že $$ \ left (\ frac {\ částečné S} {\ částečné E} \ pravé) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Porovnání $ ( 2) $ a $ (3) $, můžeme konstatovat, že: $$ \ frac {\ částečné S} {\ částečné (\ ln \ Omega)} = k $$ nebo $$ \ Delta S = k \ ln \ Omega $$, kde $ k $ je konstanta.

Komentáře

  • Takže $ \ ln $ je libovolné, že?
  • @jinawee Proč svévolně? Výsledkem ‚ t $ (1) $ není $ \ ln $?
  • Zapomeňte na to, přemýšlel jsem o Shannon ‚ s entropie: stats.stackexchange.com/a/87210/31711 .

Odpověď

Mustafova odpověď dává jeden důležitý důvod logaritmické závislosti: mikrostaty se množí, zatímco my „chtěl bych, aby vnější vlastnost systému byla aditivní. Prostě tedy potřebujeme izomorfismus, který promění násobení v sčítání. Jediným spojitým je „izomorfismus pravidla diapozitivu“ alias logaritmus. Základ $ e $ je libovolný, jak vidíte z Mustafovy odpovědi : můžete použít libovolný kladný základ (kromě 1!), A jak základnu posunu, budete muset upravit Boltzmannovu konstantu $ k_B $, abyste absorbovali multiplikativní faktor změny základny.

Ale informačně-teoretický pohled na počet možných mikrostavů ukazuje jiné hluboké důvody kromě výše uvedené. důkaz Shannonovy bezhlučné věty o kódování dává informační entropii (také logaritmické) její pracovní význam: je to minimální počet bitů, nebo počet odpovědí „ano-ne“, abychom mohli jednoznačně identifikovat konkrétní mikrostav, za předpokladu, že jsou všechny stejně pravděpodobné. Představte si všechny možné mikrostavy uspořádané v nějakém lexikografickém pořadí a pak si představte, že je budete „evidovat“ v databázi uspořádané jako binární strom. Binárním stromem se propracujete k nalezení konkrétního mikrostavu a počtu větví, které musíte na cestě vytvořit (str. roportional na váš čas hledání a načítání) je $ \ log_2 \ Omega $.Nebo je intuitivně entropie délkou nejkratší knihy, kterou byste museli napsat, abyste popsali konkrétní mikrostav, který má makroskopické vlastnosti systému. To je nějaká kniha: pokud do systému přidáme pouze jeden joul tepla o jednom stupni kelvinu (chladnější než mikrovlnné záření kosmického pozadí v hlubokém vesmíru), potřebovali bychom a rezervovat větší než celý World Wide Web na konci roku 2013 a popsat systémový microstate!

Jak jsem řekl, můžete použít $ \ log_e $ místo $ \ log_2 $ jako pokud sledujete multiplikativní změnu základního faktoru ve vašich fyzických konstantách (definice $ k_B $ a $ T $).

Část 2 (pozorně si ji přečtěte) a dodatek k tomuto článku:

E. T. Jaynes, „Informační teorie a statistická mechanika“ .

také dávají solidní motivaci pro logaritmus a entropický vzorec jako jedinečná závislost se všemi následující vlastnosti:

  1. Jde o spojitou funkci pravděpodobností $ p_i $ mikrostatů;
  2. Pokud jsou všechny mikrostavy stejně pravděpodobné, jedná se o monotónně narůstající funkci $ \ Omega $;
  3. Pokud libovolně rozdělíme množinu mikrostavů do libovolných podmnožin a pak si tyto podmnožiny představíme jako jednotlivé události v novém „stavovém prostoru“ – „hrubozrnné“ verzi první s kde nové události samy o sobě mají entropie $ H_i $ a pravděpodobnosti $ p_i $ vypočítané z původního stavového prostoru, pak vypočítáme entropii pro celkový stavový prostor jako $ \ sum p_j \, H_j $, pak dostaneme stejnou odpověď pro entropii, bez ohledu na to, jak můžeme rozdělit mikrostavy.

Pokud o tom přemýšlíte, poslední bod (3) je mocným zobecněním Nápad „multiplikace se stává sčítáním“ vyjádřený v Mustafově odpovědi .

Odpověď

Entropie se poprvé setkala s klasickou termodynamikou a byla definována jako

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, kde $ Q $ pochází z prvního termodynamického zákona

$$ \ Delta U = Q-W $$

a $ T $ je teplota; $ W $ práce odvedená systémem.

Jakmile bylo experimentálně zjištěno, že hmota na mikroúrovni je diskrétní, tj. je složena z molekul, stalo se statistické chování hmoty základním rámcem, ze kterého vychází klasická termodynamika.

První zákon je zachování energie, což je také přísný zákon v souborech mikrosystému.

Ve statistické mechanice bylo stanoveno, že průměrná kinetická energie částic je spojena s teplotou.

Způsob, jakým klasická entropie vzniká a je identifikována pomocí entropie odvozené ze statistické mechaniky, není jednoduchý.

Statistickou definici vytvořil Ludwig Boltzmann v 70. letech 19. století analýzou statistického chování mikroskopických komponent systému. Boltzmann ukázal, že tato definice entropie byla ekvivalentní termodynamické entropii s konstantním počtem, který byl od té doby známý jako Boltzmannova konstanta. Stručně řečeno, termodynamická definice entropie poskytuje experimentální definici entropie, zatímco statistická definice entropie rozšiřuje koncept a poskytuje vysvětlení a hlubší pochopení jeho podstaty.

Tento dokument, například dokazuje (rovnice 42), že entropie statistické mechaniky je identifikována s entropií klasické termodynamiky. Logaritmická závislost pochází z matematiky důkazu ekvivalence.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *