Quel est le sens de la définition de Boltzmann de l’entropie?

Je voudrais demander si quelquun connaît la signification physique de la définition de Boltzmann de lentropie. Bien sûr, la formule est assez simple

$$ S = k_b \ ln (Ω) $$

mais quest-ce que le logarithme naturel des micro-états des systèmes? Je veux dire quest-ce quil exprime?

Commentaires

  • Il ‘ est une mesure du nombre de micro-états qui produiraient ce même macro-état, et donc de la probabilité de l’état. le logarithme ne change pas cela (il augmente de manière monotone).
  • oui mais pourquoi pas linéaire croissant plutôt quexponentiel?

Réponse

Deux caractéristiques souhaitables évidentes de cette définition sont:

  • Lorsque vous placez deux systèmes lun à côté de lautre, en les considérant comme un seul système, le nombre total de micro-états possibles $ \ Omega_t $ est égal au produit de $ \ Omega $ s des deux systèmes, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Mais pour t son système lentropie est la somme des entropies, indiquant la nécessité dune définition exponentielle.
  • La fonction $ \ ln $ a la propriété que lentropie dun système à un micro-état $ (\ Omega = 1 ) $ vaut zéro, ce qui est souhaitable.

Cette relation peut être obtenue par lhypothèse de probabilités a priori égales , cest-à-dire que léquilibre correspond au macrostate avec le nombre maximum de micro-états:

Considérons deux systèmes isolés, séparément en équilibre, chacun avec des macrostats $ E_i ^ {(0)}, V_i, N_i $ (énergie, volume, nombre de particules). Chacun deux a un nombre total de $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ micro-états possibles.

Maintenant, nous les mettons en contact thermique pour quils puissent échanger de lénergie. Après ce point, nous « aurons $ E_t = E_1 » + E_2 « = \ text {constant} $. $ N $ et $ V $ pour chaque système restent inchangés. Le nombre total de micro-états possibles pour chaque système serait de $ \ Omega_i (N_i, V_i, E_i « ) $ et pour le système composite: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1 ») \ times \ Omega_2 (N_2, V_2, E_2 « ) = \ Omega_1 (E_1 ») \ Omega_2 (E_2 « ) = $$ $$ \ Omega (E_t, E_1) $$

Avec lhypothèse de léquilibre se produit au point davoir un maximum de $ \ Omega $ , on trouve la valeur de $ E_1 ^ * $ (et donc $ E_2 ^ * $) qui maximise $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ partial \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ left (\ frac {\ partial \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} \ frac {\ partial E_2} {\ partial E_1} = 0 \ tag {1} $$ $$ \ frac {\ partial E_2} {\ partial E_1 } = – 1 \ à $$ $$ \ beta_1 = \ left (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ partial E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ partial \ ln \ Omega_2 (E_2)} {\ partial E_2} \ right) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$

Naturellement nous attendons t ces quantités $ \ beta_1 $ et $ \ beta_2 $ doivent être liées aux températures des systèmes. De la thermodynamique, nous savons que $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparaison de $ ( 2) $ et $ (3) $, on peut conclure que: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ ou $$ \ Delta S = k \ ln \ Omega $$ où $ k $ est une constante.

Commentaires

  • Donc le $ \ ln $ est arbitraire, non?
  • @jinawee Pourquoi arbitraire? ‘ t $ (1) $ ne se traduit-il pas par un $ \ ln $?
  • Oubliez ça, je pensais à Shannon ‘ entropie de s: stats.stackexchange.com/a/87210/31711 .

La réponse

La réponse de Mustafa donne une raison importante à la dépendance logarithmique: les micro-états se multiplient, alors que nous « d comme une propriété extrinsèque dun système dêtre additive. Nous avons donc simplement besoin dun isomorphisme qui transforme la multiplication en addition. Le seul continu est « lisomorphisme de règle à calcul » aka le logarithme. La base $ e $ est arbitraire comme vous pouvez le voir à partir de la réponse de Mustafa : vous pouvez utiliser nimporte quelle base positive (à part 1!), Et, comme vous décalage de base, vous devrez ajuster la constante de Boltzmann $ k_B $ pour absorber le facteur multiplicatif de changement de base.

Mais un examen théorique de linformation sur le nombre de micro-états possibles montre dautres raisons profondes en dehors de La preuve du théorème de codage sans bruit de Shannon , donne à lentropie informationnelle (également logarithmique) sa signification de travail: cest le nombre minimum de bits, ou nombre de réponses «oui-non» auxquelles nous devons répondre pour identifier de manière unique un micro-état particulier, en supposant que tous sont également probables. Imaginez tous les micro-états possibles disposés dans un certain ordre lexicographique, puis imaginez les conserver « dans un fichier » dans une base de données organisée comme un arbre binaire. Vous descendez larborescence binaire pour trouver un micro-état particulier et le nombre de branches que vous devez créer en chemin (p proportionnel à votre heure de recherche et de récupération) est $ \ log_2 \ Omega $.Ou, intuitivement, lentropie est la longueur du livre le plus court que vous auriez besoin décrire pour décrire un micro-état particulier étant donné les propriétés macroscopiques dun système. Cest un livre: si nous ajoutons simplement un joule de chaleur à un système à un degré kelvin (plus froid que le rayonnement micro-ondes de fond cosmique dans lespace lointain), nous aurions besoin de a livre plus grand que le World Wide Web fin 2013 pour décrire le micro-état du système!

Comme je lai dit, vous pouvez utiliser $ \ log_e $ au lieu de $ \ log_2 $ comme tant que vous gardez une trace du changement multiplicatif du facteur de base dans vos constantes physiques (définition de $ k_B $ et $ T $).

Section 2 (lisez-la attentivement) et lannexe de cet article:

E. T. Jaynes, « Théorie de linformation et mécanique statistique » .

donne également de solides motivations pour le logarithme et la formule dentropie comme étant la dépendance unique avec toutes les propriétés suivantes:

  1. Cest une fonction continue des probabilités $ p_i $ des micro-états;
  2. Si tous les micro-états sont également vraisemblables, cest une fonction monotone croissante de $ \ Omega $;
  3. Si nous partitionnons arbitrairement lensemble des micro-états en sous-ensembles arbitraires et que nous considérons ces sous-ensembles comme des événements uniques dans un nouvel «espace détats» – une version «à gros grains» du premier avec où les nouveaux événements eux-mêmes ont des entropies $ H_i $ et des probabilités $ p_i $ calculées à partir de lespace détats dorigine, puis calculez lentropie de pour lespace détats total comme $ \ sum p_j \, H_j $, alors nous obtiendrons la même réponse pour lentropie, peu importe comment on peut partitionner les micro-états.

Si vous y réfléchissez, le dernier point (3) est une puissante généralisation de th Lidée « multiplication devient addition » exprimée dans la réponse de Mustafa .

Réponse

Lentropie a été rencontrée pour la première fois en thermodynamique classique et a été définie comme

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, où $ Q $ provient de la première loi de la thermodynamique

$$ \ Delta U = Q- W $$

et $ T $ est la température; $ W $ travail effectué par le système.

Une fois établi expérimentalement que la matière au niveau micro est discrète, cest-à-dire quelle est composée de molécules, le comportement statistique de la matière est devenu le cadre sous-jacent à partir duquel la thermodynamique classique émerge.

Le premier est la conservation de lénergie, qui est aussi une loi stricte dans les ensembles du microsystème.

Il a été établi en mécanique statistique que le lénergie cinétique moyenne des particules est liée à la température.

La manière dont lentropie classique émerge et sidentifie à lentropie dérivée de la mécanique statistique nest pas simple.

La définition statistique a été développée par Ludwig Boltzmann dans les années 1870 en analysant le comportement statistique des composants microscopiques du système. Boltzmann a montré que cette définition de lentropie était équivalente à lentropie thermodynamique à un nombre constant près, qui est depuis connue sous le nom de constante de Boltzmann. En résumé, la définition thermodynamique de lentropie fournit la définition expérimentale de lentropie, tandis que la définition statistique de lentropie étend le concept, en fournissant une explication et une compréhension plus profonde de sa nature.

Cet article, par exemple, prouve (équation 42) que lentropie de la mécanique statistique sidentifie à lentropie de la thermodynamique classique. La dépendance logarithmique provient des mathématiques de la preuve déquivalence.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *