¿Cuál es el significado de la definición de entropía de Boltzmann?

Me gustaría preguntar si alguien conoce el significado físico de la definición de entropía de Boltzmann. Por supuesto, la fórmula es bastante sencilla

$$ S = k_b \ ln (Ω) $$

pero ¿qué diablos es el logaritmo natural de los microestados de los sistemas? Quiero decir, ¿qué expresa?

Comentarios

  • Es ‘ una medida de cuántos microestados producirían ese mismo macroestado y, por lo tanto, qué tan probable es el estado. el logaritmo no cambia eso (aumenta monótonamente).
  • sí, pero ¿por qué no aumenta lineal en lugar de exponencial?

Respuesta

Dos características obvias y deseables de esta definición son:

  • Cuando colocas dos sistemas uno al lado del otro, considerándolos como un sistema, el número total de microestados posibles $ \ Omega_t $ es igual al producto de $ \ Omega $ s de los dos sistemas, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Pero para t Este sistema, la entropía es la suma de las entropías, lo que indica la necesidad de una definición exponencial.
  • La función $ \ ln $ tiene la propiedad de que la entropía de un sistema con un microestado $ (\ Omega = 1 ) $ es cero, lo cual es deseable.

Esta relación se puede obtener partiendo del supuesto de probabilidades iguales a priori , es decir, que el equilibrio corresponde al macroestado con el número máximo de microestados:

Considere dos sistemas aislados, por separado en equilibrio, cada uno con macroestados $ E_i ^ {(0)}, V_i, N_i $ (energía, volumen, número de partículas). Cada uno de ellos tiene un número total de $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ microestados posibles.

Ahora los ponemos en contacto térmico para que intercambien energía. Después de este punto, tendremos $ E_t = E_1 «+ E_2» = \ text {constante} $. $ N $ y $ V $ para cada sistema permanecen sin cambios. El número total de microestados posibles para cada sistema sería $ \ Omega_i (N_i, V_i, E_i «) $ y para el sistema compuesto: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1») \ times \ Omega_2 (N_2, V_2, E_2 «) = \ Omega_1 (E_1») \ Omega_2 (E_2 «) = $$ $$ \ Omega (E_t, E_1) $$

Con el supuesto de el equilibrio ocurre en el punto de tener un máximo de $ \ Omega $ , encontramos el valor de $ E_1 ^ * $ (y por lo tanto $ E_2 ^ * $) que maximiza $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ partial \ Omega_1 (E_1)} {\ parcial E_1} \ derecha) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ izquierda (\ frac {\ parcial \ Omega_2 (E_2)} {\ E_2 parcial} \ derecha) _ {E_2 = E_2 ^ *} \ frac {\ E_2 parcial} {\ E_1} parcial = 0 \ etiqueta {1} $$ $$ \ frac {\ E_2 parcial} {\ E_1 parcial } = – 1 \ a $$ $$ \ beta_1 = \ izquierda (\ frac {\ parcial \ ln \ Omega_1 (E_1)} {\ parcial E_1} \ derecha) _ {E_1 = E_1 ^ *} = \ izquierda (\ frac {\ parcial \ ln \ Omega_2 (E_2)} {\ parcial E_2} \ derecha) _ {E_2 = E_2 ^ *} = \ beta_2 \ etiqueta {2} $$

Naturalmente, esperamos t estas cantidades $ \ beta_1 $ y $ \ beta_2 $ se relacionarán con las temperaturas de los sistemas. De la termodinámica sabemos que $$ \ left (\ frac {\ parcial S} {\ parcial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparando $ ( 2) $ y $ (3) $, podemos concluir que: $$ \ frac {\ parcial S} {\ parcial (\ ln \ Omega)} = k $$ o $$ \ Delta S = k \ ln \ Omega $$ donde $ k $ es una constante.

Comentarios

  • Así que $ \ ln $ es arbitrario, ¿verdad?
  • @jinawee ¿Por qué arbitrario? ¿No ‘ t $ (1) $ resulta en $ \ ln $?
  • Olvídalo, estaba pensando en Shannon ‘ s entropía: stats.stackexchange.com/a/87210/31711 .

La respuesta

La respuesta de Mustafa da una razón importante para la dependencia logarítmica: los microestados se multiplican, mientras que nosotros «Me gustaría que una propiedad extrínseca de un sistema sea aditiva». Entonces simplemente necesitamos un isomorfismo que convierta la multiplicación en suma. El único continuo es el «isomorfismo de la regla de cálculo», también conocido como logaritmo. La base $ e $ es arbitraria, como puede ver en la respuesta de Mustafa : puede usar cualquier base positiva (¡aparte de 1!) Y, como usted base de cambio, necesitará ajustar la constante de Boltzmann $ k_B $ para absorber el factor multiplicativo de cambio de base.

Pero una mirada teórica de la información al número de posibles microestados muestra otras razones profundas además de La prueba del Teorema de codificación silenciosa de Shannon , le da a la entropía informacional (también logarítmica) su significado de trabajo: es el número mínimo de bits, o número de respuestas «sí-no» que debemos responder para identificar de forma única un microestado en particular, asumiendo que todos son igualmente probables. Imagine todos los microestados posibles dispuestos en algún orden lexicográfico y luego imagínese mantenerlos «archivados» en una base de datos organizada como árbol binario. Avanza por el árbol binario para encontrar un microestado particular y la cantidad de ramas que necesita hacer en el camino (p proporcional a su tiempo de búsqueda y recuperación) es $ \ log_2 \ Omega $.O, intuitivamente, la entropía es la longitud del libro más corto que necesitaría escribir para describir un microestado particular dadas las propiedades macroscópicas de un sistema. Eso es un libro: si agregamos simplemente un julio de calor a un sistema a un grado kelvin (más frío que la radiación de microondas de fondo cósmico en el espacio profundo), necesitaríamos a libro más grande que toda la World Wide Web a finales de 2013 para describir el microestado del sistema.

Como dije, puedes usar $ \ log_e $ en lugar de $ \ log_2 $ como siempre y cuando lleve un registro del cambio multiplicativo del factor base en sus constantes físicas (definición de $ k_B $ y $ T $).

Sección 2 (léalo detenidamente) y el apéndice de este documento:

E. T. Jaynes, «Teoría de la información y mecánica estadística» .

también dan algunas motivaciones sólidas para que el logaritmo y la fórmula de entropía sean la dependencia única con todas las las siguientes propiedades:

  1. Es una función continua de las probabilidades $ p_i $ de los microestados;
  2. Si todos los microestados son igualmente probables, es una función monótonamente creciente de $ \ Omega $;
  3. Si dividimos el conjunto de microestados arbitrariamente en subconjuntos arbitrarios y luego pensamos en estos subconjuntos como eventos únicos en un nuevo «espacio de estado», una versión «de grano grueso» del primero con donde los nuevos eventos en sí tienen entropías $ H_i $ y probabilidades $ p_i $ calculadas a partir del espacio de estado original, luego calcula la entropía de para el espacio de estado total como $ \ sum p_j \, H_j $, entonces obtendremos la misma respuesta para la entropía, no importa cómo podamos dividir los microestados.

Si lo piensa, el último punto (3) es una poderosa generalización de th La idea de «la multiplicación se convierte en suma» expresada en la respuesta de Mustafa .

Respuesta

La entropía se conoció por primera vez en la termodinámica clásica y se definió como

$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, donde $ Q $ proviene de la primera ley de la termodinámica

$$ \ Delta U = Q- W $$

y $ T $ es la temperatura; $ W $ trabajo realizado por el sistema.

Una vez que se estableció experimentalmente que la materia en el nivel micro es discreta, es decir, está compuesta de moléculas, el comportamiento estadístico de la materia se convirtió en el marco subyacente del cual emerge la termodinámica clásica.

La primera La ley es la conservación de la energía, que también es una ley estricta en los conjuntos del microsistema.

Se estableció en mecánica estadística que el La energía cinética media de las partículas está relacionada con la temperatura.

La forma en que surge la entropía clásica y se identifica con la entropía derivada de la mecánica estadística no es sencilla.

La definición estadística fue desarrollada por Ludwig Boltzmann en la década de 1870 analizando el comportamiento estadístico de los componentes microscópicos del sistema. Boltzmann demostró que esta definición de entropía era equivalente a la entropía termodinámica dentro de un número constante que desde entonces se conoce como constante de Boltzmann. En resumen, la definición termodinámica de entropía proporciona la definición experimental de entropía, mientras que la definición estadística de entropía amplía el concepto, proporcionando una explicación y una comprensión más profunda de su naturaleza.

Este documento, por ejemplo, prueba (ecuación 42) que la entropía de la mecánica estadística se identifica con la entropía de la termodinámica clásica. La dependencia logarítmica proviene de las matemáticas de la prueba de equivalencia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *