Saltar al contenido principal
LibreTexts Español

20.10: Entropía y Equilibrio en un Sistema Aislado

  • Page ID
    74342
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En un sistema aislado, la probabilidad de conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\) es\(W\left(N_i,g_i\right){\rho }_{MS,N,\left\langle E\right\rangle }\), donde\({\rho }_{MS,N,\left\langle E\right\rangle }\) es una constante. De ello se deduce que\(W=W\left(N_i,g_i\right)\) es proporcional a la probabilidad de que el sistema se encuentre en uno de los microestados asociados al conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\). Asimismo,\(W^{\#}=W\left(N^{\#}_i,g_i\right)\) es proporcional a la probabilidad de que el sistema se encuentre en uno de los microestados asociados al conjunto poblacional\(\{N^{\#}_1,N^{\#}_2,\dots N^{\#}_i,\dots \}\). Supongamos que observamos el sistema aislado durante mucho tiempo. \(F\)Sea la fracción del tiempo que el sistema está en microestados de conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\) y\(F^{\#}\) ser la fracción del tiempo que el sistema está en microestados del conjunto poblacional\(\{N^{\#}_1,N^{\#}_2,\dots N^{\#}_i,\dots \}\). El principio de probabilidades iguales a priori implica que encontraríamos

    \[\frac{F^{\#}}{F}=\frac{W^{\#}}{W}\]

    Supongamos que\(W^{\#}\) es mucho más grande que\(W\). Esto significa que hay muchos más microestados para\(\{N^{\#}_1,N^{\#}_2,\dots N^{\#}_i,\dots \}\) que para\(\{N_1,\ N_2,\dots ,N_i,\dots \}\). La fracción del tiempo que el conjunto poblacional\(\{N^{\#}_1,N^{\#}_2,\dots N^{\#}_i,\dots \}\) caracteriza al sistema es mucho mayor que la fracción del tiempo que lo\(\{N_1,\ N_2,\dots ,N_i,\dots \}\) caracteriza. Alternativamente, si examinamos el sistema en un instante arbitrario, es mucho más probable que encontremos el conjunto poblacional\(\{N^{\#}_1,N^{\#}_2,\dots N^{\#}_i,\dots \}\) que el conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\). Cuanto más grande\(W\left(N_1,g_1,\ N_2,g_2,\dots ,N_i,g_i,\dots \right)\), más probable es que el sistema esté en uno de los microestados asociados al conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\). En definitiva,\(W\) predice el estado del sistema; es una medida de la probabilidad de que las propiedades macroscópicas del sistema sean las del conjunto poblacional\(\{N_1,\ N_2,\dots ,N_i,\dots \}\).

    Si un sistema aislado puede sufrir cambios, y lo reexaminamos después de que algunas moléculas se hayan movido a diferentes niveles de energía, esperamos encontrarlo en uno de los microestados de un conjunto poblacional más probable; es decir, en uno de los microestados de un conjunto poblacional para el cual\(W\) es mayor. Aún en tiempos posteriores, esperamos ver una progresión más o menos suave: el sistema se encuentra en microestados de conjuntos poblacionales para los cuales los valores de\(W\) son cada vez más grandes. Esto sólo puede continuar hasta que el sistema ocupe uno de los microestados del conjunto poblacional para el cual\(W\) es un máximo o un microestado de uno de los conjuntos poblacionales cuyas propiedades macroscópicas son esencialmente las mismas que las del conjunto de\(E\) población constante para el cual\(N\)\(V\) \(W\)es un máximo.

    Una vez que esto ocurre, una inspección posterior puede encontrar el sistema en otros microestados, pero es abrumadoramente probable que el nuevo microestado siga siendo uno de los que pertenecen al conjunto de mayor\(W\) población o uno de los que son macroscópicamente indistinguibles de él. Cualquiera de estos microestados pertenecerá a un conjunto poblacional para el cual\(W\) está muy bien aproximado por\(W\left(\ N^{\textrm{⦁}}_1,g_1,\ N^{\textrm{⦁}}_2,g_2,\dots ,N^{\textrm{⦁}}_i,g_i,\dots \right)\). Evidentemente, el conjunto\(W\) poblacional más grande caracteriza el estado de equilibrio del sistema constante o del\(T\) sistema constante—\(N\)\(V\) - -\(E\).\(N\)\(V\) Cualquiera de los sistemas puede sufrir cambios hasta\(W\) alcanzar un máximo. A partir de entonces, está en equilibrio y no puede sufrir más cambios macroscópicamente observables.

    Boltzmann reconoció esta relación entre\(W\) la probabilidad termodinámica y el equilibrio. Señaló que el comportamiento unidireccional de\(W\) en un sistema aislado que experimenta un cambio espontáneo es como el comportamiento que encontramos para la función de entropía. Boltzmann propuso que, para un sistema aislado (energía constante),\(S\) y\(W\) están relacionados por la ecuación\(S=k{ \ln W\ }\), donde\(k\) está la constante de Boltzmann. Esta relación asocia un valor de entropía con cada conjunto poblacional. Para un sistema macroscópico aislado, el equilibrio corresponde a un estado de máxima entropía. En nuestro modelo microscópico, el equilibrio corresponde al conjunto poblacional para el cual\(W\) es máximo. Por el argumento que hacemos en § 6, este conjunto poblacional debe ser bien aproximado por el conjunto poblacional más probable,\(\{N^{\textrm{⦁}}_1,N^{\textrm{⦁}}_2,\dots N^{\textrm{⦁}}_i,.,,,\}\). Es decir, la entropía del estado de equilibrio del sistema macroscópico es

    \[ \begin{align*} S &= k ~ { \ln W_{max}\ } \\[4pt] &=k ~ { \ln \frac{N!}{N^{\textrm{⦁}}_i!N^{\textrm{⦁}}_i!\dots N^{\textrm{⦁}}_i!\dots }\ }+k ~ \sum^{\infty }_{i=1}{N^{\textrm{⦁}}_i{ \ln g_i\ }} \end{align*}\]

    Esta ecuación puede tomarse como la definición de entropía. Claramente, esta definición es diferente de la definición termoquímica,\(S={q^{rev}}/{T}\). Podemos caracterizar —imperfectamente— la situación diciendo que las dos definiciones proporcionan escalas alternativas para medir la misma propiedad física. Como vemos a continuación, nuestra teoría estadística nos permite definir la entropía de aún más formas, todas las cuales demuestran ser funcionalmente equivalentes. Gibbs caracterizó estas alternativas como “análogos de entropía”; es decir, funciones cuyas propiedades son paralelas a las de la entropía termoquímicamente definida.

    Inferimos que el conjunto poblacional más probable caracteriza el estado de equilibrio tanto del sistema de temperatura constante como del sistema de energía constante. Dado que nuestro procedimiento para aislar el sistema de temperatura constante afecta únicamente a la interacción térmica entre el sistema y su entorno, la entropía del sistema de temperatura constante debe ser la misma que la del sistema de energía constante. Utilizando\(N^{\textrm{⦁}}_i=NP_i=Ng_i\rho \left({\epsilon }_i\right)\) y asumiendo que la aproximación\({ \ln N^{\textrm{⦁}}_i!\ }=N^{\textrm{⦁}}_i{ \ln N^{\textrm{⦁}}_i\ }-N^{\textrm{⦁}}_i\) es adecuada para todos los niveles de energía a los que contribuyen significativamente\(S\), la sustitución muestra que la entropía de cualquiera de los sistemas depende únicamente de las probabilidades:

    \[ \begin{align*} S &= kN ~ { \ln N - kN - k\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{\left[NP_i{ \ln \left(NP_i\right)\ } - NP_i\right]}\ } + k\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{NP_i{ \ln g_i\ }} \\[4pt]&= kN ~ { \ln N\ }\mathrm{-kN} -kN\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{\left[P_i{ \ln \left(N\right)\ } + P_i{ \ln P_i\ } - P_i - P_i{ \ln g_i\ }\right]} \\[4pt] &= k ~ \left(N{ \ln N\ } - N\right) - k\left(N{ \ln N\ } - N\right)\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{P_i} - kN\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{P_i}\left[{ \ln P_i - { \ln g_i\ }\ }\right]\mathrm{=-}kN\sum^{\mathrm{\infty }}_{i\mathrm{=1}}{P_i{ \ln \rho \left({\epsilon }_i\right)\ }} \end{align*}\]

    La entropía por molécula,\({S}/{N}\), es proporcional al valor esperado de\({ \ln \rho \left({\epsilon }_i\right)\ }\); la constante de Boltzmann es la constante de proporcionalidad. A temperatura constante,\(\rho \left({\epsilon }_i\right)\) depende sólo de\({\epsilon }_i\). La entropía por molécula depende únicamente de las propiedades del estado cuántico,\(g_i\) y\({\epsilon }_i\).


    This page titled 20.10: Entropía y Equilibrio en un Sistema Aislado is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Paul Ellgen via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.