Saltar al contenido principal
LibreTexts Español

4.1: Postulados de la termodinámica de Swendsen

  • Page ID
    71854
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Observaciones de precaución sobre la entropía

    Buscarás en vano una derivación matemática o clara explicación condensada de la entropía en libros de texto y capítulos de libros de texto sobre termodinámica estadística.. Hay una razón simple para ello: no existe tal derivación o explicación. Siendo la entropía un concepto central, probablemente el concepto central de la teoría, esto puede parecer muy extraño. No obstante, la situación no es tan mala como puede parecer. La teoría y las expresiones que se pueden derivar funcionan bastante bien y tienen poder predictivo. Hay definiciones de entropía en la termodinámica estadística (desafortunadamente, más de una) y tienen algún sentido. De ahí que, si bien puede ser desconcertante que no podamos derivar la función del estado central desde cero, todavía podemos hacer muchas cosas útiles y obtener algo de comprensión.

    Los libros de texto tienden a barrer el problema debajo de la alfombra. No vamos a hacer eso aquí. Tratamos de hacer un intento honesto de aclarar lo que sí sabemos y lo que no sabemos sobre la entropía antes de aceptar una definición de trabajo y basar el resto de la teoría en esta definición. Probablemente sea mejor comenzar con un conjunto de postulados que explique lo que esperamos de la cantidad que queremos definir.

    Postulados de Swendsen

    Los siguientes postulados son introducidos y discutidos en breve en la Sección 9.6 del libro de Swendsen. Copiamos la forma larga de estos postulados textualmente con alteraciones muy pequeñas que mejoran la consistencia o simplifican la expresión.

    1. Existen estados de equilibrio de un sistema macroscópico que se caracterizan únicamente por un pequeño número de variables extensas.
    2. Los valores asumidos en equilibrio por las variables extensas de un sistema aislado en ausencia de restricciones internas son aquellos que maximizan la entropía sobre el conjunto de todos los estados macroscópicos restringidos.
    3. La entropía de un sistema compuesto es aditiva sobre los subsistemas constituyentes.
    4. Para los estados de equilibrio la entropía es una función monótonamente creciente de la energía.
    5. La entropía es una función continua y diferenciable de las variables extensas.

    Hemos omitido el último postulado de Swendsen (La entropía es una función extensa de las variables extensas), porque, estrictamente hablando, es superfluo. Si se cumple el tercer postulado más general de la aditividad, la entropía es necesariamente una propiedad extensa.

    El primer postulado de Swendsen (Estados de equilibrio) establece el formalismo de la termodinámica, mientras que todos los postulados restantes constituyen una lista de deseos para la entropía de cantidad que necesitamos para predecir los estados de equilibrio. Son una lista de deseos en el sentido de que no podemos probar que debe existir una cantidad con todas estas propiedades. Sin embargo, podemos probar cualquier definición propuesta de entropía contra estos postulados.

    Algunos puntos necesitan explicación. En primer lugar, el conjunto de postulados define la entropía como una función de estado, aunque ésta puede estar oculta. El primer postulado implica que en la termodinámica de equilibrio algunas variables extensas son funciones de estado y que un pequeño conjunto de tales funciones de estado especifica completamente todo el conocimiento que podemos tener sobre un sistema macroscópico. Debido a que la entropía a su vez especifica las otras funciones de estado para un sistema aislado en equilibrio, de acuerdo con el segundo postulado (Maximización de Entropía), debe ser una función de estado en sí misma. Debe ser una función estatal extensa por el tercer postulado (Aditividad), pero el tercer postulado requiere más, es decir, que las entropías se puedan sumar no sólo para subsistemas del mismo tipo en un mismo estado, sino también para sistemas completamente diferentes. Esto es necesario si queremos calcular un nuevo estado de equilibrio (o cambio de entropía) después de unificar diferentes sistemas. De lo contrario, el simple experimento de calorimetría de equilibrar una pieza caliente de cobre con un baño de agua más fría ya estaría fuera de nuestra teoría. El cuarto postulado (Monotonicidad) es nuevo en comparación con lo que discutimos en la termodinámica fenomenológica. Para un gas ideal clásico se puede demostrar que este postulado se mantiene. Este postulado es necesario porque asegura que la temperatura sea positiva. El quinto postulado es una cuestión de conveniencia matemática, aunque puede ser una sorpresa en una teoría basada en números enteros de partículas. Suponemos, como en muchos otros puntos, que el sistema es lo suficientemente grande como para descuidar cualquier error que surja de tratar el número de partículas como un número real en lugar de un número entero. En otras palabras, estos errores deben ser menores que la mejor precisión que podamos lograr en los experimentos. Como ya sabemos por la termodinámica fenomenológica, el quinto postulado no se aplica a las transiciones de fase de primer orden, donde la entropía tiene una discontinuidad. Señalamos además que el segundo postulado es una forma alternativa de escribir la Segunda Ley de la Termodinámica. El término 'en ausencia de restricciones internas' en el segundo postulado asegura que todo el espacio estatal (o, para los sistemas completamente descritos por las ecuaciones hamiltonianas de movimiento, todo el espacio de fase) es accesible.

    Entropía en la termodinámica fenomenológica

    Los autores de libros de texto generalmente se sienten mucho más cómodos al discutir la entropía como una función de estado abstracto en la termodinámica fenomenológica que al discutir sus aspectos de termodinámica estadística. Recordamos que el concepto de entropía tampoco es poco problemático en la termodinámica fenomenológica. Habíamos aceptado la definición de entropía de Clausius,

    \[\mathrm{d} s = \frac{\mathrm{d} q_\mathrm{rev}}{T} \ , \label{eq:entropy_phen}\]

    donde\(\mathrm{d} q_\mathrm{rev}\) está el calor intercambiado diferencialmente para un proceso reversible que conduce al mismo cambio diferencial en otras variables de estado que un proceso irreversible bajo consideración y\(T\) es la temperatura. Entonces podríamos mostrar que la entropía es una función de estado (proceso Carnot y su generalización) y relacionar la entropía a través de su diferencial total con otras funciones de estado. Con esta definición podríamos mostrar además que para los sistemas cerrados, que pueden intercambiar calor, pero no el trabajo volumétrico con su entorno (\(\mathrm{d}V = 0\)), la minimización de la energía libre de Helmholtz\(f = u - T s\) proporciona el estado de equilibrio y que para los sistemas cerrados a presión constante (\(\mathrm{d} p = 0\)), minimización de La energía libre de Gibbs\(g = h - T s\) proporciona el estado de equilibrio. La energía libre de Gibbs molar parcial es el potencial químico\(\mu_{k,\mathrm{molar}}\) y vía\(\mu_{k,\mathrm{molecular}} = \mu_{k,\mathrm{molar}}/N_\mathrm{Av}\) ésta se relaciona con términos en la función de partición del gran conjunto canónico, donde hemos abreviado\(\mu_{k,\mathrm{molecular}}\) como\(\mu_k\) (Sección [sección:grand_canónico]).

    En la termodinámica fenomenológica no pudimos demostrar que la definición dada en la Ecuación\ ref {eq:entropy_phen} asegura el cumplimiento de la Segunda Ley. Pudimos dar argumentos de plausibilidad por qué tal cantidad debería aumentar en algunos procesos espontáneos, pero no más.

    Definición de entropía de Boltzmann

    Boltzmann proporcionó la primera definición estadística de entropía, al señalar que es el logaritmo de probabilidad, hasta una constante multiplicativa y una constante aditiva. La fórmula\(s = k \ln W\) de Planck, que expresa la definición de Boltzmann, omite la constante aditiva. Pronto veremos por qué.

    Ahora pasamos a poner a prueba la definición de Boltzmann contra los postulados de Swendsen. A partir de la teoría de probabilidad y consideraciones sobre conjuntos sabemos que para un sistema macroscópico, las distribuciones de densidad de probabilidad para un estado de equilibrio alcanzan un pico brusco en su máximo. En otras palabras, el macroestado con mayor probabilidad es un representante tan bueno para el estado de equilibrio que sirve para predecir variables de estado con mejor precisión que la precisión de las mediciones experimentales. Se deduce estrictamente que cualquier definición de entropía que cumpla los postulados de Swendsen debe hacer\(s\) una función monótonamente creciente de densidad de probabilidad 12 para un sistema aislado.

    ¿Por qué el logaritmo? Expresemos la probabilidad (por el momento discretos otra vez) por la medida de los pesos estadísticos de los macroestados. Consideramos la combinación isotérmica de dos sistemas independientes A con entropías\(s_\mathrm{A}\) y\(s_\mathrm{B}\) a un sistema total con entropía\(s = s_\mathrm{A} + s_\mathrm{B}\). La ecuación para la entropía total es una consecuencia directa del tercer postulado de Swendsen. En combinación, los pesos estadísticos\(\Omega_\mathrm{A}\) y\(\Omega_\mathrm{B}\) multiplican, ya que los subsistemas son independientes. De ahí que con la función monótonamente creciente\(f(\mathrm{\Omega})\) debemos tener

    \[s = f(\Omega) = f(\Omega_\mathrm{A}\cdot\Omega_\mathrm{B}) = f(\Omega_\mathrm{A}) + f(\Omega_\mathrm{B}) \ . \label{eq:s_additivity}\]

    Las únicas soluciones de esta ecuación funcional son las funciones de logaritmo. El logaritmo que escojamos sólo influirá en la constante multiplicativa. De ahí que podamos escribir

    \[s = k \ln \Omega \ , \label{eq:Boltzmann_entropy}\]

    donde, por el momento,\(k\) se desconoce la constante. La posible constante aditiva de Boltzmann debe desaparecer en este punto, porque con tal constante, la ecuación funcional ([eq:s_additivity]), que especifica la aditividad de la entropía, no tendría solución.

    Es tentador equiparar\(\Omega\) en la Ecuación\ ref {eq:Boltzmann_entropía} en el contexto de problemas de espacio de fase con el volumen de espacio de fase ocupado por el sistema. En efecto, este concepto se conoce como entropía de Gibbs (ver Sección [Gibbs_entropía]). Es plausible, ya que el volumen del espacio de fase especifica un peso estadístico para un problema continuo. No surge ningún problema si la entropía de Gibbs se usa para estados de equilibrio ya que luego coincide con la entropía de Boltzmann. Existe un problema conceptual, sin embargo, si consideramos el acercamiento al equilibrio. El teorema de Liouville (ver Sección [Liouville]) establece que el volumen en el espacio de fase ocupado por un sistema es una constante de movimiento. 13. De ahí que la entropía de Gibbs sea una constante de movimiento para un sistema aislado y el estado de equilibrio sería imposible de alcanzar desde cualquier estado de no equilibrio, lo que necesariamente ocuparía un volumen de espacio de fase más pequeño. Esto lleva a la siguiente observación de precaución:

    La termodinámica estadística, tal como la introducimos en este texto, no describe dinámicas que conducen desde estados de no equilibrio a estados de equilibrio. Se pueden comparar diferentes estados de equilibrio y se puede determinar el estado de equilibrio, pero hemos hecho una serie de suposiciones que no nos permiten aplicar nuestras expresiones y conceptos a estados de no equilibrio sin pensarlo más. La termodinámica estadística de no equilibrio está explícitamente fuera del alcance de la teoría que aquí presentamos.

    Una complicación conceptual con la definición de Boltzmann es que uno podría\(s\) esperar ser máximo en equilibrio para un sistema cerrado, también, no solo para un sistema aislado. En la termodinámica clásica hemos visto, sin embargo, que la condición de equilibrio para un sistema cerrado está relacionada con la energía libre. En términos generales, podríamos decir que para un sistema cerrado se debe maximizar la probabilidad para el sistema y su entorno juntos. Desafortunadamente, esto no se puede hacer matemáticamente ya que el entorno es muy grande (de hecho, para fines matemáticos infinito). La solución a este problema radica en el tratamiento del conjunto canónico (Sección [section_canonical]). En ese tratamiento hemos visto que la energía entra en el problema de maximización a través de la condición límite de energía total constante del sistema que especifica qué se entiende exactamente por contacto térmico entre el sistema y su entorno. Podemos, por lo tanto, concluir que la definición de entropía de Boltzmann, como se especifica en la ecuación\ ref {eq:Boltzmann_entropía}, cumple con los postulados de Swendsen que ya hemos probado y que la idea central detrás de ella, la maximización de probabilidad (densidad) en equilibrio es consistente con nuestra derivación de la función de partición para un conjunto canónico en equilibrio térmico. Podemos así fijar\(k\) en la ecuación\ ref {eq:boltzmann_entropía})\(s\) derivando de la función de partición.


    This page titled 4.1: Postulados de la termodinámica de Swendsen is shared under a CC BY-NC 3.0 license and was authored, remixed, and/or curated by Gunnar Jeschke via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.