Saltar al contenido principal
LibreTexts Español

13.4: La segunda ley y la entropía

  • Page ID
    128038
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La segunda ley de la termodinámica es realmente poco más que una declaración formal de la observación de que el calor siempre fluye espontáneamente de un objeto más cálido a uno más frío, y nunca a la inversa.

    Más precisamente, considere dos sistemas, a diferentes temperaturas, que puedan intercambiar calor entre sí pero que por lo demás están aislados del resto del mundo. La segunda ley establece que bajo esas condiciones el calor sólo fluirá del más cálido al más frío.

    El cierre del sistema —su aislamiento de cualquier fuente de energía— es importante en el enunciado anterior. Ciertamente es posible construir dispositivos que eliminen el calor de un lugar relativamente frío (como el interior de su casa en un caluroso día de verano) y lo agoten a un ambiente más cálido. Estos dispositivos se llaman refrigeradores o bombas de calor, y lo principal de ellos es que necesitan ser enchufados para funcionar: es decir, requieren de una fuente de energía externa.

    Si tienes una fuente de energía, entonces, puedes mover el calor de un objeto más frío a uno más cálido. Para evitar complicaciones innecesarias y lagunas (¿y si la fuente de energía es una batería que está físicamente dentro de su sistema “cerrado”?) una formulación alternativa del principio básico, debido a Clausius, va de la siguiente manera:

    No es posible ningún proceso cuyo único resultado sea la transferencia de calor de un enfriador a un cuerpo más caliente.

    Las palabras “único resultado” pretenden implicar que para lograr esta transferencia “antinatural” de calor se debe extraer energía de alguna fuente, y por lo tanto debe estar, de alguna manera, agotando esa fuente (la batería, por ejemplo). Por otro lado, para el proceso inverso, “espontáneo” —el flujo de más caliente a más frío— no es necesaria tal fuente de energía.

    Una forma matemática de formular la segunda ley sería la siguiente. Considera dos sistemas, en equilibrio térmico a temperaturas\(T_1\) y\(T_2\), que coloques en contacto para que puedan intercambiar calor. Por simplicidad, supongamos que el intercambio de calor es todo lo que sucede; no se realiza ningún trabajo ni por los sistemas ni en ellos, y tampoco se transfiere calor hacia o desde el mundo exterior. Entonces, si\(Q_1\) y\(Q_2\) son las cantidades de calor que gana cada sistema, debemos tener, por la conservación de la energía\(Q_2 = −Q_1\), por lo que una de ellas es positiva y la otra negativa, y, por la segunda ley, el sistema con lo positivo\(Q\) (el que gana energía térmica) debe ser el uno más frío. Esto está garantizado por la siguiente desigualdad:

    \[ Q_{1}\left(T_{2}-T_{1}\right) \geq 0 \label{eq:13.9} .\]

    Entonces, si\(T_2 > T_1\),\(Q_1\) debe ser positivo, y si\(T_1 > T_2\),\(Q_1\) debe ser negativo. (El signo igual está ahí para permitir el caso en el que\(T_1 = T_2\), en cuyo caso los dos sistemas ya están inicialmente en equilibrio térmico, y no se produce ninguna transferencia de calor).

    La ecuación (\ ref {eq:13.9}) es válida independientemente de la escala de temperatura. Si usamos la escala Kelvin, en la que todas las temperaturas son positivas 3, podemos reescribirla dividiendo ambas caras por el producto\(T_1T_2\), y usando\(Q_2 = −Q_1\), como

    \[ \frac{Q_{1}}{T_{1}}+\frac{Q_{2}}{T_{2}} \geq 0 \label{eq:13.10} .\]

    Esta declaración más simétrica de la segunda ley es un buen punto de partida desde el que introducir el concepto de entropía, que procederé a hacer a continuación.


    3 Durante un tiempo en la década de 1970 algunas personas estaban muy entusiasmadas por el concepto de temperaturas absolutas negativas, pero eso es sobre todo un artificio artificial utilizado para describir sistemas que de todos modos no están realmente en equilibrio térmico.


    Entropía

    En Ecuaciones (\ ref {eq:13.9}) y (\ ref {eq:13.10}), hemos tomado\(T_1\) y\(T_2\) ser las temperaturas iniciales de los dos sistemas, pero en general, por supuesto, estas temperaturas cambiarán durante el proceso de transferencia de calor. Es útil considerar una transferencia de calor “infinitesimal”\(dQ\), tan pequeña que conduce a un cambio de temperatura insignificante, y luego definir el cambio en la entropía del sistema mediante

    \[ d S=\frac{d Q}{T} \label{eq:13.11} .\]

    Aquí,\(S\) denota una nueva variable de sistema, la entropía, que está implícitamente definida por la Ecuación (\ ref {eq:13.11}). Es decir, supongamos que se lleva un sistema de un estado inicial a otro agregando o eliminando una serie de cantidades infinitesimales de calor. Tomamos el cambio en la entropía a lo largo de todo el proceso para ser

    \[ \Delta S=S_{f}-S_{i}=\int_{i}^{f} \frac{d Q}{T} \label{eq:13.12} .\]

    Partiendo de un estado arbitrario, podríamos usar esto para encontrar la entropía para cualquier otro estado, al menos hasta una constante (probablemente) sin importancia (un poco como lo que sucede con la energía: el valor absoluto de la energía no suele importar, son solo las diferencias energéticas las que son significativas). Sin embargo, esto puede ser más fácil decirlo que hacerlo; no hay garantía a priori de que dos estados arbitrarios cualesquiera de un sistema puedan estar conectados por un proceso para el cual se pueda calcular (\ ref {eq:13.12}), y a la inversa, también podría suceder que dos estados pudieran estar conectados por varios procesos posibles, y la integral en (\ ref {eq:13.12}) tendría valores diferentes para todos esos. En otras palabras, no hay garantía de que la entropía así definida sea una función de estado verdadero, algo que está determinado únicamente por las otras variables que caracterizan el estado de un sistema en equilibrio térmico.

    Sin embargo, resulta que es posible demostrar que la integral (\ ref {eq:13.12}) es efectivamente independiente de la “ruta” que conecta los estados inicial y final, al menos siempre que los procesos físicos considerados sean “reversibles” (restricción que básicamente equivale al requisito de que el calor sea intercambiado, y trabajo realizado, sólo en pequeños incrementos a la vez, de manera que el sistema nunca se aleja demasiado de un estado de equilibrio térmico). No voy a intentar aquí la prueba, sino meramente señalar que esto proporciona la siguiente formulación alternativa de la segunda ley de la termodinámica:

    Por cada sistema en equilibrio térmico, existe una función de estado, la entropía, con la propiedad de que nunca podrá disminuir para un sistema cerrado.

    Se puede ver como esto abarca el caso considerado en el apartado anterior, de dos objetos, 1 y 2, en contacto térmico entre sí pero aislados del resto del mundo. Si el objeto 1 absorbe algo de calor\(dQ_1\) mientras que a temperatura\(T_1\) su cambio en la entropía será\(dS_1 = dQ_1/T_1\), y de manera similar para el objeto 2. El cambio total en la entropía del sistema cerrado formado por los dos objetos será entonces

    \[ d S_{\text {total }}=d S_{1}+d S_{2}=\frac{d Q_{1}}{T_{1}}+\frac{d Q_{2}}{T_{2}} \label{eq:13.13} \]

    y el requisito de que esto no pueda ser negativo (es decir, no\(S_{total}\) debe disminuir) es exactamente lo mismo que Ecuación (\ ref {eq:13.10}), en forma diferencial.

    Una vez más, esto simplemente significa que el objeto más caliente desprende el calor y el más frío lo absorbe, pero cuando lo miras en términos de entropía es un poco más interesante que eso. Se puede ver que la entropía del objeto más caliente disminuye (negativa\(dQ\)), y la del más frío aumenta (positiva\(dQ\)), pero en una cantidad diferente: de hecho, aumenta tanto que hace que el cambio total en la entropía para el sistema sea positivo. Esto demuestra que la entropía es bastante diferente de la energía (que simplemente se conserva en el proceso). Siempre se puede hacer que aumente simplemente dejando que un proceso “siga su curso normal” —en este caso, simplemente dejando que el calor fluya del objeto más cálido al más frío hasta que alcancen el equilibrio térmico entre sí (momento en el que, por supuesto, la entropía dejará de aumentar, ya que es una función del estado y el estado ya no cambiará).

    Aunque no inmediatamente evidente de lo anterior, la escala de temperatura absoluta (o Kelvin) juega un papel esencial en la definición de la entropía, en el sentido de que sólo en dicha escala (u otra escala linealmente proporcional a ella) es la entropía, tal como se define por la Ecuación (\ ref {eq:13.12}), un estado variable; es decir, solo cuando se usa dicha escala de temperatura es la integral (\ ref {eq:13.12}) independiente de la ruta. La prueba de esto (que es demasiado complicada para siquiera esbozar aquí) se basa esencialmente en el principio Carnot, que se discutirá a continuación.

    La eficiencia de los motores térmicos

    A principios del siglo XIX, en Inglaterra estaba en marcha una revolución industrial, debido principalmente a las mejoras en la eficiencia de las máquinas de vapor que habían tenido lugar unas décadas antes. Era natural preguntarse cuánto podría aumentarse en última instancia esta eficiencia, y en 1824, un ingeniero francés, Nicolas Sadi Carnot, escribió una monografía que dio respuesta a esta pregunta.

    Carnot modeló un “motor térmico” como una máquina abstracta que funcionaba en un ciclo. En el transcurso de cada ciclo, el motor tomaría una cantidad de calor\(Q_h\) de un “depósito caliente”, emitiría (o “expulsaría”) una cantidad de calor |\(Q_c\) | a un “depósito frío”, y produciría una cantidad de trabajo |\(W\) |. (Estoy usando barras de valor absoluto aquí porque, desde el punto de vista del motor,\(Q_c\) y\(W\) deben ser cantidades negativas.) Al final del ciclo, el motor debe volver a su estado inicial, entonces\(\Delta E_{engine} = 0\). Se suponía que los reservorios fríos y calientes eran sistemas con capacidades caloríficas muy grandes, por lo que el cambio en sus temperaturas a medida que absorbían o emitían el calor desde o hacia el motor sería insignificante.

    Si\(\Delta E_{engine} = 0\), debemos tener

    \[ \Delta E_{\text {engine }}=Q_{h}+Q_{c}+W=Q_{h}-\left|Q_{c}\right|-|W|=0 \label{eq:13.14} \]

    es decir, el trabajo producido por el motor debe ser

    \[ |W|=Q_{h}-\left|Q_{c}\right| \label{eq:13.15} .\]

    El aporte de energía al motor es\(Q_h\), por lo que es natural definir la eficiencia como\(\epsilon=|W| / Q_{h}\); es decir, los Julios de trabajo realizado por Joule de calor absorbido. Un valor de\(\epsilon = 1\) significaría una eficiencia del 100%, es decir, la conversión completa de la energía térmica en trabajo macroscópico. Por Ecuación (\ ref {eq:13.15}), tenemos

    \[ \epsilon=\frac{|W|}{Q_{h}}=\frac{Q_{h}-\left|Q_{c}\right|}{Q_{h}}=1-\frac{\left|Q_{c}\right|}{Q_{h}} \label{eq:13.16} \]

    lo que demuestra que siempre\(\epsilon\) será menor a 1 siempre y cuando el calor que se agote al reservorio frío,\(Q_c\), sea distinto de cero. Este es siempre necesariamente el caso de las máquinas de vapor: el vapor debe enfriarse al final del ciclo, por lo que un nuevo ciclo puede comenzar de nuevo.

    Carnot consideró un hipotético motor “reversible” (a veces llamado máquina Carnot), que podría funcionar hacia atrás, mientras interactuaba con los mismos dos depósitos. En modo hacia atrás, la máquina funcionaría como refrigerador o bomba de calor. Tomaría una cantidad de trabajo\(W\) por ciclo (de alguna fuente externa) y lo usaría para absorber la cantidad de calor |\(Q_c\) | del reservorio frío y volcar la cantidad\(Q_h\) al reservorio caliente. Carnot argumentó que ningún motor térmico podría tener una mayor eficiencia que uno reversible trabajando entre los mismos depósitos de calor y, en consecuencia, que todos los motores reversibles, independientemente de su composición, tendrían la misma eficiencia al trabajar entre las mismas temperaturas . Su argumento se basó en la observación de que un motor hipotético con una mayor eficiencia que el reversible podría utilizarse para impulsar uno reversible en modo refrigerador, para producir como único resultado la transferencia de alguna cantidad neta de calor del frío al depósito caliente 4, algo que argumentamos en la Sección 1 debería ser imposible.

    Lo que hace que este resultado sea más que una curiosidad teórica es el hecho de que un gas ideal, de hecho, proporcionaría una sustancia de trabajo adecuada para una máquina Carnot, si pasa por el siguiente ciclo (el llamado “ciclo Carnot”): una expansión isotérmica, seguida de una expansión adiabática, luego una isotérmica compresión, y finalmente una compresión adiabática. Lo que hace que esto sea idealmente reversible es el hecho de que el calor se intercambia con cada reservorio solo cuando el gas está a (casi) la misma temperatura que el propio reservorio, por lo que con solo “empujar” la temperatura hacia arriba o hacia abajo un poco se puede conseguir que el intercambio vaya de cualquier manera. Cuando se utilizan las leyes de gas ideales para calcular la eficiencia de una máquina de este tipo, el resultado (la eficiencia de Carnot) es

    \[ \epsilon_{C}=1-\frac{T_{c}}{T_{h}} \label{eq:13.17} \]

    donde las temperaturas deben medirse en grados Kelvin, la escala de temperatura natural para un gas ideal.

    En realidad es fácil ver la conexión entre este resultado y la formulación entrópica de la segunda ley presentada anteriormente. Supongamos por un momento que el principio de Carnot no se sostiene, es decir, que podemos construir un motor con\(\epsilon > \epsilon_C = 1 − T_c/T_h\). Dado que (\ ref {eq:13.16}) debe sostenerse en todo caso (debido a la conservación de la energía), encontramos que esto implicaría

    \[ 1-\frac{\left|Q_{c}\right|}{Q_{h}}>1-\frac{T_{c}}{T_{h}} \label{eq:13.18} \]

    y luego algunos álgebra muy simple demuestra que

    \[ -\frac{Q_{h}}{T_{h}}+\frac{\left|Q_{c}\right|}{T_{c}}<0 \label{eq:13.19} .\]

    Pero ahora consideremos la entropía total del sistema formado por el motor y los dos depósitos. La entropía del motor no cambia (porque funciona en un ciclo); la entropía del depósito caliente baja en una cantidad\(−Q_h/T_h\); y la entropía del reservorio frío sube en una cantidad\(|Q_c|/T_c\). Entonces el lado izquierdo de la Ecuación (\ ref {eq:13.19}) en realidad es igual al cambio total en la entropía, y la Ecuación (\ ref {eq:13.19}) nos dice que este cambio es negativo (la entropía total baja) durante el funcionamiento de este hipotético motor térmico cuya eficiencia es mayor que el límite de Carnot (\ ref {eq:13.17}). Dado que esto es imposible (la entropía total de un sistema cerrado nunca puede disminuir), concluimos que el límite de Carnot debe mantenerse siempre.

    Como pueden ver, la observación aparentemente trivial con la que inicié esta sección (es decir, que el calor siempre fluye espontáneamente de un objeto más caliente a un objeto más frío, y nunca a la inversa) resulta tener profundas consecuencias. En particular, significa que la conversión completa de la energía térmica en trabajo macroscópico es esencialmente imposible 5, razón por la cual tratamos la energía mecánica como “perdida” una vez que se convierte en energía térmica. Según el teorema de Carnot, para convertir parte de esa energía térmica de nuevo al trabajo necesitaríamos introducir un reservorio más frío (y aprovechar, por así decirlo, el flujo natural de calor de más caliente a más frío), y luego solo obtendríamos una eficiencia de conversión relativamente pequeña, a menos que el reservorio frío esté realmente en un temperatura Kelvin muy baja (y para crear un reservorio tan frío normalmente requeriría refrigeración, que nuevamente consume energía). Es fácil ver que las eficiencias de Carnot para embalses cercanos a la temperatura ambiente son bastante lamentables. Por ejemplo, si\(T_h\) = 300 K y\(T_c\) = 273 K, la mejor eficiencia de conversión que podrías obtener sería 0.09, o 9%.


    4 El motor de mayor eficiencia podría producir la misma cantidad de trabajo que el reversible mientras absorbe menos calor del depósito caliente y descarga menos calor al frío. Si toda la salida de trabajo de este motor se utilizara para impulsar el reversible en modo refrigerador, el resultado sería, por lo tanto, un flujo neto de calor fuera del frío y un flujo neto de calor hacia el caliente.

    5 Al menos es imposible hacer usando un dispositivo que funcione en un ciclo. Para un solo uso, podrías hacer algo como bombear calor a un gas y permitir que se expanda, haciendo el trabajo como lo hace, pero eventualmente te quedarás sin espacio para hacer tu expansión a...


    Pero ¿qué es la entropía, de todas formas?

    La existencia de esta cantidad, la entropía, que puede medirse o computarse (hasta una constante de referencia arbitraria) para cualquier sistema en equilibrio térmico, es uno de los grandes descubrimientos de la física del siglo XIX. Hay tablas de entropías que se pueden poner a muchos usos (por ejemplo, en química, para averiguar qué reacciones ocurrirán espontáneamente y cuáles no), y ciertamente se podría tomar el punto de vista de que esas tablas, más la visión básica de que la entropía total nunca puede disminuir para un cerrado sistema, son todo lo que uno necesita saber al respecto. Desde esta perspectiva, la entropía no es más que un número conveniente que podemos asignar a cualquier estado de equilibrio de cualquier sistema, lo que nos da una idea de qué camino es probable que vaya si se perturbe el equilibrio.

    No obstante, es natural que un físico pregunte a qué corresponde exactamente este número? ¿Qué propiedad del estado de equilibrio es realmente capturada por esta cantidad? Especialmente, en el contexto de una descripción microscópica, ya que es así, en general, como los físicos siempre han estado tratando de explicar las cosas, dividiéndolas en pedacitos, y averiguando qué estaban haciendo las piezas. ¿Qué hacen las moléculas o átomos de un sistema en un estado de alta entropía que es diferente de un estado de baja entropía?

    La respuesta a esta pregunta la proporciona la rama de la física conocida como Mecánica Estadística, que hoy en día se basa principalmente en el cuántico (ya que se necesita la mecánica cuántica para describir la mayoría de lo que hacen los átomos o moléculas, de todos modos), pero que comenzó en el contexto de la mecánica clásica pura a mediados y finales de los 1800 y , a pesar de este hándicap, en realidad pudo hacer avances sorprendentes por un tiempo.

    Desde esta perspectiva microscópica, pero aún clásica, (que se aplica, por ejemplo, moderadamente bien a un gas ideal), la entropía puede verse como una medida de la propagación en las velocidades y posiciones de las moléculas que conforman el sistema. Si piensas en una distribución de probabilidad, ésta tiene un valor medio y una desviación estándar. En la mecánica estadística, las moléculas que componen el sistema se describen estadísticamente, dando la probabilidad de que puedan tener cierta velocidad o estar en algún momento u otro. Estas distribuciones de probabilidad pueden ser muy estrechas (pequeña desviación estándar), si estás bastante seguro de las posiciones o las velocidades, o muy amplias, si no estás muy seguro en absoluto, o más bien esperas que las velocidades y posiciones reales se distribuyan en un rango considerable de valores. Un estado de entropía grande corresponde a una distribución amplia, y un estado de entropía pequeña a una estrecha.

    Para un gas ideal, la temperatura determina tanto la velocidad molecular promedio como la dispersión de la distribución de la velocidad. Esto se debe a que la velocidad promedio es cero (ya que es igual de probable que sea positiva o negativa), por lo que la única manera de hacer que la velocidad promedio (o velocidad media cuadrática) sea grande es tener una distribución amplia de velocidades, lo que hace que las velocidades grandes sean comparativamente más probables. Entonces, a medida que aumenta la temperatura, también lo hace el rango de velocidades disponibles para las moléculas, y correspondientemente la entropía. De manera similar (pero más simple), para una temperatura dada, un gas que ocupe un volumen menor tendrá una entropía menor, ya que el rango de posiciones disponibles para las moléculas será menor.

    Estas consideraciones pueden ayudarnos a comprender una propiedad importante de la entropía, que es que aumenta en todos los procesos irreversibles. Para empezar, señalar que esto tiene sentido, ya que, por definición, se trata de procesos que no se “revierten” espontáneamente. Si un proceso implica un incremento en la entropía total de un sistema cerrado, entonces no ocurrirá el proceso inverso, porque requeriría una disminución espontánea de la entropía, lo que prohíbe la segunda ley. Pero, además, podemos ver el incremento de la entropía directamente en muchos de los procesos irreversibles que hemos considerado este semestre, como los que involucran fricción. Como acabo de señalar anteriormente, en general, podemos esperar que al aumentar la temperatura de un objeto se incremente su entropía (siendo iguales otras cosas), independientemente de cómo se produzca el aumento de temperatura. Ahora, cuando se pierde energía mecánica debido a la fricción, la temperatura de ambos objetos (superficies) involucrados aumenta, por lo que la entropía total también aumentará. Eso marca el proceso como irreversible.

    Otro ejemplo de un proceso irreversible podría ser la mezcla de dos gases (o de dos líquidos, como crema y café). Comience con todas las moléculas “marrones” a la izquierda de una partición, y todas las moléculas “blancas” a la derecha. Después de quitar la partición, el sistema alcanzará un estado de equilibrio en el que el rango de posiciones disponibles tanto para las moléculas marrones como blancas ha aumentado de manera sustancial y esto es, según nuestra imagen microscópica, un estado de mayor entropía (otras cosas, como las velocidades moleculares promedio, siendo igual 6).

    Para los sistemas mecánicos cuánticos, donde la posición y la velocidad no son simultáneamente variables bien definidas, se utiliza el concepto más abstracto de “estado” para describir lo que está haciendo cada molécula. La entropía de un sistema en equilibrio térmico se define entonces como una medida del número total de estados disponibles para sus componentes microscópicos, compatible con las restricciones que determinan el estado macroscópico (como, nuevamente, energía total, número de partículas y volumen).


    6 En el caso de la crema y el café, las velocidades moleculares promedio no serán iguales —la crema estará fría y el café caliente— pero el intercambio de calor resultante es justamente el tipo de proceso que describí al principio del capítulo, y hemos visto que, también, resulta en un incremento en el total entropía.


    This page titled 13.4: La segunda ley y la entropía is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Julio Gea-Banacloche (University of Arkansas Libraries) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.