Jakie jest znaczenie definicji entropii Boltzmanna?

Chciałbym zapytać, czy ktoś zna fizyczne znaczenie definicji entropii Boltzmanna. Oczywiście wzór jest całkiem prosty

$$ S = k_b \ ln (Ω) $$

ale co to u licha jest logarytm naturalny z mikropaństw systemów?

  • To ' jest miarą tego, ile mikropaństw wyprodukowałoby ten sam makropaństwo, a zatem jak prawdopodobny jest ten stan. logarytm tego nie zmienia (rośnie monotonicznie).
  • tak, ale dlaczego nie liniowe zwiększanie zamiast wykładniczego?

Odpowiedź

Dwie oczywiste pożądane cechy tej definicji to:

  • Kiedy umieścisz dwa systemy obok siebie, traktując je jako jeden system, całkowita liczba możliwych mikropaństw $ \ Omega_t $ jest równe iloczynowi $ \ Omega $ s dwóch systemów, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Ale dla t jego systemie entropia jest sumą entropii, wskazującą na konieczność definicji wykładniczej.
  • Funkcja $ \ ln $ ma tę właściwość, że entropia układu z jedną mikropaństwą $ (\ Omega = 1 ) $ wynosi zero, co jest pożądane.

Relację tę można otrzymać z założenia równych prawdopodobieństw a priori , tj. równowaga odpowiada makrostanowi z maksymalną liczbą mikropaństw:

Rozważmy dwa izolowane systemy, oddzielnie w równowadze, każdy z makrostanami $ E_i ^ {(0)}, V_i, N_i $ (energia, objętość, liczba cząstek). Każdy z nich ma całkowitą liczbę $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ możliwych mikropaństw.

Teraz doprowadzamy je do kontaktu termicznego, aby mogły wymieniać energię. Po tym momencie będziemy mieli $ E_t = E_1 „+ E_2” = \ text {stała} $. $ N $ i $ V $ dla każdego systemu pozostaną niezmienione. Całkowita liczba możliwych mikropaństw dla każdego systemu wyniesie $ \ Omega_i (N_i, V_i, E_i „) $ i dla systemu złożonego: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 „) = \ Omega_1 (E_1”) \ Omega_2 (E_2 „) = $$ $$ \ Omega (E_t, E_1) $$

Przy założeniu równowaga występuje w punkcie, w którym maksimum $ \ Omega $ , znajdujemy wartość $ E_1 ^ * $ (a więc $ E_2 ^ * $), która maksymalizuje $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ part \ Omega_1 (E_1)} {\ częściowy E_1} \ right) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ left (\ frac {\ Partial \ Omega_2 (E_2)} {\ części E_2} \ right) _ {E_2 = E_2 ^ *} \ frac {\ części E_2} {\ części E_1} = 0 \ tag {1} $$ \ frac {\ części E_2} {\ części E_1 } = – 1 \ to $$ $$ \ beta_1 = \ left (\ frac {\ części \ ln \ Omega_1 (E_1)} {\ częściowe E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ części \ ln \ Omega_2 (E_2)} {\ części E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Oczywiście oczekujemy t te ilości $ \ beta_1 $ i $ \ beta_2 $ mają być związane z temperaturami systemów. Z termodynamiki wiemy, że $$ \ left (\ frac {\ części S} {\ części E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Porównanie $ ( 2) $ i $ (3) $, możemy wywnioskować, że: $$ \ frac {\ częściowe S} {\ częściowe (\ ln \ Omega)} = k $$ lub $$ \ Delta S = k \ ln \ Omega $$ gdzie $ k $ jest stałą.

Komentarze

Odpowiedź

Odpowiedź Mustafy podaje jeden ważny powód logarytmicznej zależności: mikropaństwa mnożą się, podczas gdy my jak zewnętrzna właściwość systemu, która ma być addytywna. Potrzebujemy więc po prostu izomorfizmu, który zamienia mnożenie w dodawanie. Jedynym ciągłym jest „izomorfizm suwaka logarytmicznego”, czyli logarytm. Podstawa $ e $ jest dowolna, jak widać na podstawie odpowiedzi Mustafy : możesz użyć dowolnej dodatniej podstawy (oprócz 1!), A jeśli podstawy przesunięcia, będziesz musiał dostosować stałą Boltzmanna $ k_B $, aby wchłonąć multiplikatywny współczynnik zmiany podstawy.

Ale teoretyczne spojrzenie na liczbę możliwych mikrostanów pokazuje inne głębokie przyczyny poza powyższego. dowód twierdzenia Shannona o bezszumowym kodowaniu nadaje entropii informacyjnej (także logarytmicznej) jej znaczenie robocze: jest to minimalna liczba bitów, lub liczba odpowiedzi „tak-nie”, na które musimy odpowiedzieć, aby jednoznacznie zidentyfikować konkretny mikropaństwo, zakładając, że wszystkie są jednakowo prawdopodobne. Wyobraź sobie wszystkie możliwe mikropaństwa ułożone w jakimś leksykograficznym porządku, a następnie wyobraź sobie, że przechowujesz je w bazie drzewo binarne. Schodzisz w dół drzewa binarnego, aby znaleźć konkretną mikropaństwę i liczbę gałęzi, które musisz wykonać po drodze (str. proporcjonalnie do twojego czasu wyszukiwania i pobierania) wynosi $ \ log_2 \ Omega $.Lub, intuicyjnie, entropia jest długością najkrótszej książki, którą trzeba by napisać, aby opisać konkretny mikrostan, biorąc pod uwagę makroskopowe właściwości układu. To jest jakaś książka: jeśli dodamy tylko jeden dżul ciepła do układu o wartości jednego stopnia kelwina (zimniej niż kosmiczne promieniowanie mikrofalowe tła w przestrzeni kosmicznej), potrzebowalibyśmy a książka większa niż cała sieć World Wide Web pod koniec 2013 roku , aby opisać mikropaństwo systemu!

Jak powiedziałem, możesz użyć $ \ log_e $ zamiast $ \ log_2 $ jako pod warunkiem, że śledzisz multiplikatywną zmianę współczynnika podstawowego w swoich stałych fizycznych (definicje $ k_B $ i $ T $).

Sekcja 2 (przeczytaj uważnie) oraz dodatek do tego artykułu:

E. T. Jaynes, „Information Theory and Statistical Mechanics” .

również podają pewne solidne motywacje dla logarytmu i wzoru na entropię jako unikalną zależność ze wszystkimi następujące właściwości:

  1. Jest to ciągła funkcja prawdopodobieństw $ p_i $ mikropaństw;
  2. Jeśli wszystkie mikropaństwa są równie prawdopodobne, jest to monotonicznie rosnąca funkcja $ \ Omega $;
  3. Jeśli podzielimy zbiór mikropaństw arbitralnie na dowolne podzbiory, a następnie pomyślimy o tych podzbiorach jako o pojedynczych zdarzeniach w nowej „przestrzeni stanów” – „gruboziarnistej” wersji pierwszego z gdzie same nowe zdarzenia mają entropie $ H_i $ i prawdopodobieństwa $ p_i $ obliczone z pierwotnej przestrzeni stanów, a następnie oblicz entropię całkowitej przestrzeni stanów jako $ \ sum p_j \, H_j $, wtedy otrzymamy tę samą odpowiedź dla entropii, bez względu na to, jak podzielimy mikropaństwa.

Jeśli się nad tym zastanowić, ostatni punkt (3) jest potężnym uogólnieniem Idea „mnożenie staje się dodawaniem” wyrażona w odpowiedzi Mustafy .

Odpowiedź

Entropia została po raz pierwszy napotkana w klasycznej termodynamice i została zdefiniowana jako

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, gdzie $ Q $ pochodzi z pierwszej zasady termodynamiki

$$ \ Delta U = Q- W $$

a $ T $ to temperatura; $ W $ praca wykonana przez system.

Kiedy ustalono eksperymentalnie, że materia na poziomie mikro jest dyskretna, tj. składa się z cząsteczek, statystyczne zachowanie materii stało się podstawą, z której wyłania się klasyczna termodynamika.

Pierwsza Prawo to zasada zachowania energii, która jest również surowym prawem w zespołach mikrosystemu.

Zostało ustalone w mechanice statystycznej, że Średnia energia kinetyczna cząstek jest związana z temperaturą.

Sposób, w jaki klasyczna entropia wyłania się i jest utożsamiana z entropią wyprowadzoną z mechaniki statystycznej, nie jest prosty.

Definicja statystyczna została opracowana przez Ludwiga Boltzmanna w latach siedemdziesiątych XIX wieku na podstawie analizy statystycznego zachowania mikroskopijnych elementów systemu. Boltzmann wykazał, że ta definicja entropii jest równoważna entropii termodynamicznej w zakresie stałej liczby, która od tamtej pory była znana jako stała Boltzmanna. rozszerza koncepcję, dostarczając wyjaśnienia i głębszego zrozumienia jej natury.

Na przykład ten artykuł dowodzi (równanie 42), że entropia mechaniki statystycznej jest utożsamiana z entropią klasycznej termodynamiki. Zależność logarytmiczna pochodzi z matematyki dowodu równoważności.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *