Eu gostaria de perguntar se alguém conhece o significado físico da definição de entropia de Boltzmann. Claro que a fórmula é bastante direta
$$ S = k_b \ ln (Ω) $$
mas o que diabos é o logaritmo natural dos microestados dos sistemas? Quero dizer, o que ele expressa?
Comentários
- É ‘ uma medida de quantos microestados produziriam o mesmo macroestado e, portanto, da probabilidade do estado. o logaritmo não muda isso (está aumentando monotonicamente).
- sim, mas por que não aumentando linear em vez de exponencial?
Resposta
Duas características desejáveis óbvias desta definição são:
- Quando você coloca dois sistemas próximos um do outro, considerando-os como um único sistema, o número total de microestados possíveis $ \ Omega_t $ é igual ao produto de $ \ Omega $ s dos dois sistemas, $ \ Omega_t = \ Omega_1 \ times \ Omega_2 $. Mas para t Neste sistema a entropia é a soma das entropias, indicando a necessidade de uma definição exponencial.
- A função $ \ ln $ tem a propriedade de que a entropia de um sistema com um microestado $ (\ Omega = 1 ) $ é zero, o que é desejável.
Esta relação pode ser obtida a partir da suposição de probabilidades iguais a priori , ou seja, que o equilíbrio corresponde ao macroestado com o número máximo de microestados:
Considere dois sistemas isolados, separadamente em equilíbrio, cada um com macroestados $ E_i ^ {(0)}, V_i, N_i $ (energia, volume, número de partículas). Cada um deles tem um número total de $ \ Omega_i (N_i, V_i, E_i ^ {(0)}) $ microestados possíveis.
Agora os colocamos em contato térmico para que possam trocar energia. Após este ponto, “teremos $ E_t = E_1” + E_2 “= \ text {constant} $. $ N $ e $ V $ para cada sistema permanecerão inalterados. O número total de microestados possíveis para cada sistema seria $ \ Omega_i (N_i, V_i, E_i “) $ e para o sistema composto: $$ \ Omega = \ Omega_1 (N_1, V_1, E_1”) \ times \ Omega_2 (N_2, V_2, E_2 “) = \ Omega_1 (E_1”) \ Omega_2 (E_2 “) = $$ $$ \ Omega (E_t, E_1) $$
Com a suposição de o equilíbrio ocorre no ponto de ter no máximo $ \ Omega $ , encontramos o valor de $ E_1 ^ * $ (e, portanto, $ E_2 ^ * $) que maximiza $ \ Omega (E_t, E_1) $: $$ d \ Omega = 0 \ to \ left (\ frac {\ partial \ Omega_1 (E_1)} {\ parcial E_1} \ direita) _ {E_1 = E_1 ^ *} \ Omega_2 (E_2 ^ *) + \ Omega_1 (E_1 ^ *) \ esquerdo (\ frac {\ parcial \ Omega_2 (E_2)} {\ parcial E_2} \ direita) _ {E_2 = E_2 ^ *} \ frac {\ parcial E_2} {\ parcial E_1} = 0 \ tag {1} $$ $$ \ frac {\ parcial E_2} {\ parcial E_1 } = – 1 \ a $$ $$ \ beta_1 = \ left (\ frac {\ partial \ ln \ Omega_1 (E_1)} {\ parcial E_1} \ right) _ {E_1 = E_1 ^ *} = \ left (\ frac {\ parcial \ ln \ Omega_2 (E_2)} {\ parcial E_2} \ direita) _ {E_2 = E_2 ^ *} = \ beta_2 \ tag {2} $$
Naturalmente, esperamos t essas quantidades $ \ beta_1 $ e $ \ beta_2 $ devem ser relacionadas às temperaturas dos sistemas. Da termodinâmica, sabemos que $$ \ left (\ frac {\ partial S} {\ partial E} \ right) _ {N, V} = \ frac {1} {T} \ tag {3} $$ Comparando $ ( 2) $ e $ (3) $, podemos concluir que: $$ \ frac {\ partial S} {\ partial (\ ln \ Omega)} = k $$ ou $$ \ Delta S = k \ ln \ Omega $$ onde $ k $ é uma constante.
Comentários
- Então $ \ ln $ é arbitrário, certo?
- @jinawee Por que arbitrário? Não ‘ t $ (1) $ resulta em $ \ ln $?
- Esqueça, eu estava pensando em Shannon ‘ s entropia: stats.stackexchange.com/a/87210/31711 .
Resposta
A resposta de Mustafa fornece uma razão importante para a dependência logarítmica: os microestados se multiplicam, enquanto nós “d gostaria que uma propriedade extrínseca de um sistema fosse aditiva. Portanto, simplesmente precisamos de um isomorfismo que transforme multiplicação em adição. O único contínuo é o “isomorfismo de regra de cálculo”, também conhecido como logaritmo. A base $ e $ é arbitrária, como você pode ver na resposta de Mustafa “: você pode usar qualquer base positiva (exceto 1!) E, como você shift base, você precisará ajustar a constante de Boltzmann $ k_B $ para absorver o fator multiplicativo de mudança de base.
Mas um olhar teórico da informação no número de microestados possíveis mostra outras razões profundas além de o acima. A prova do Teorema da Codificação Silenciosa de Shannon , dá à entropia informacional (também logarítmica) seu significado de trabalho: é o número mínimo de bits, ou número de respostas “sim-não” que precisamos responder para identificar exclusivamente um microestado específico, supondo que todas sejam igualmente prováveis. Imagine todos os microestados possíveis organizados em alguma ordem lexicográfica e, em seguida, imagine mantê-los “em arquivo” em um banco de dados organizado como um árvore binária. Você percorre a árvore binária para encontrar um microestado específico e o número de ramos que precisa fazer no caminho (p proporcional ao seu tempo de busca e recuperação) é $ \ log_2 \ Omega $.Ou, intuitivamente, entropia é o comprimento do livro mais curto que você precisa escrever para descrever um microestado específico, dadas as propriedades macroscópicas de um sistema. Isso é um livro: se adicionarmos apenas um joule de calor a um sistema a um grau kelvin (mais frio do que a radiação cósmica de fundo em microondas no espaço profundo), precisaríamos de a livro maior que toda a World Wide Web no final de 2013 para descrever o microestado do sistema!
Como eu disse, você pode usar $ \ log_e $ em vez de $ \ log_2 $ como contanto que você acompanhe a mudança multiplicativa do fator de base em suas constantes físicas (definição de $ k_B $ e $ T $).
Seção 2 (leia com atenção) e o apêndice deste documento:
E. T. Jaynes, “Information Theory and Statistical Mechanics” .
também fornece algumas motivações sólidas para o logaritmo e a fórmula de entropia como sendo a dependência única com todos os seguintes propriedades:
- É uma função contínua das probabilidades $ p_i $ dos microestados;
- Se todos os microestados são igualmente prováveis, é uma função monotonicamente crescente de $ \ Omega $;
- Se particionarmos o conjunto de microestados arbitrariamente em subconjuntos arbitrários e, em seguida, pensarmos nesses subconjuntos como eventos únicos em um novo “espaço de estado” – uma versão “granulada” do primeiro com onde os próprios novos eventos têm entropias $ H_i $ e probabilidades $ p_i $ calculadas a partir do espaço de estado original, então calcule a entropia de para o espaço de estado total como $ \ sum p_j \, H_j $, então teremos a mesma resposta para a entropia, não importa como possamos particionar os microestados.
Se você pensar sobre isso, o último ponto (3) é uma generalização poderosa do A ideia de “multiplicação torna-se adição” expressa na resposta de Mustafa “.
Resposta
Entropia foi encontrada pela primeira vez na termodinâmica clássica e foi definida como
$$ \ mathrm dS = \ frac { \ delta Q} {T} $$, onde $ Q $ vem da primeira lei da termodinâmica
$$ \ Delta U = Q- W $$
e $ T $ são a temperatura; $ W $ trabalho realizado pelo sistema.
Uma vez que foi estabelecido experimentalmente que a matéria no nível micro é discreta, isto é, é composta de moléculas, o comportamento estatístico da matéria se tornou a estrutura subjacente a partir da qual a termodinâmica clássica emerge.
O primeiro lei é a conservação de energia, que também é uma lei estrita nos conjuntos do microssistema.
Foi estabelecido na mecânica estatística que o a energia cinética média das partículas está ligada à temperatura.
A forma como a entropia clássica emerge e é identificada com a entropia derivada da mecânica estatística não é simples.
A definição estatística foi desenvolvida por Ludwig Boltzmann na década de 1870, analisando o comportamento estatístico dos componentes microscópicos do sistema. Boltzmann mostrou que esta definição de entropia era equivalente à entropia termodinâmica dentro de um número constante que desde então era conhecido como constante de Boltzmann. Em resumo, a definição termodinâmica de entropia fornece a definição experimental de entropia, enquanto a definição estatística de entropia estende o conceito, fornecendo uma explicação e um entendimento mais profundo de sua natureza.
Este artigo, por exemplo, prova (equação 42) que a entropia da mecânica estatística é identificada com a entropia da termodinâmica clássica. A dependência logarítmica vem da matemática da prova de equivalência.