Saltar al contenido principal
LibreTexts Español

7.4: Los conjuntos gibbsianos

  • Page ID
    125677
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    La distribución que se obtuvo en la Ecuación 7.17 da el número más probable de partículas con momentum\(p\) as\(n_p = \text{exp}(−β(\epsilon_p − µ))\). Esto se obtuvo considerando el número de formas en que las partículas libres pueden distribuirse entre posibles valores de momento sujetos a las restricciones del número total fijo de partículas y la energía total. Queremos considerar algunas generalizaciones de esto ahora. En primer lugar, uno puede preguntarse si se mantiene una fórmula similar si tenemos un potencial externo. La fórmula barométrica (2.13) tiene una forma similar ya que\(mgh\) es la energía potencial de una molécula o átomo en ese contexto. Entonces, para potenciales externos, uno puede hacer un argumento similar.

    Las fuerzas interatómicas o intermoleculares no son tan sencillas. En principio, si tenemos fuerzas intermoleculares, los valores de energía de una sola partícula no se identifican fácilmente. Además, en algunos casos, incluso se pueden tener nuevas moléculas formadas por combinaciones o estados unidos de las antiguas. ¿Deberían contarse como una partícula o dos o más? Entonces, se necesita entender la distribución desde una perspectiva más general. La idea es considerar el sistema físico de interés como parte de un sistema más grande, con intercambio de energía con el sistema más grande. Esto ciertamente está más cerca de lo que realmente se obtiene en la mayoría de las situaciones. Cuando estudiamos o hacemos experimentos con un gas a alguna temperatura dada, se mantiene a esta temperatura al ser parte de un sistema más grande con el que puede intercambiar energía. Asimismo, también se podría considerar un caso en el que sea posible el intercambio de partículas. El punto importante es que, si se mantiene el equilibrio, el intercambio de energía o partículas con un sistema más grande no cambiará significativamente la distribución en el sistema en estudio. Imagine que partículas de alta energía se dispersan en el volumen de gas bajo estudio del medio ambiente. Esto puede elevar ligeramente la temperatura. Pero también habrá aproximadamente el mismo número de partículas de energía similar dispersadas fuera del volumen en estudio. Así, si bien tendremos fluctuaciones en energía y número de partículas, éstas serán muy pequeñas en comparación con los valores promedio, en el límite de grandes números de partículas. Por lo que este enfoque debería ser una buena manera de analizar estadísticamente los sistemas.

    Argumentando en esta línea se pueden definir tres conjuntos estándar para la mecánica estadística: el microcanónico, el canónico y el gran conjunto canónico. El conjunto canónico es el caso en el que consideramos el sistema en estudio (de volumen fijo\(V\)) como uno de un gran número de sistemas similares que están todos en equilibrio con sistemas más grandes con libre intercambio de energía posible. Para el gran conjunto canónico, también permitimos el libre intercambio de partículas, de manera que solo se fija el valor promedio del número de partículas en el sistema en estudio. El conjunto microcanónico es el caso donde consideramos un sistema con energía fija y número fijo de partículas. (También se podría considerar fijar los valores de otras cantidades conservadas, ya sea en el nivel promedio (para el gran caso canónico) o como valores rígidamente fijos (para el caso microcanónico)).

    Todavía necesitamos una fórmula para la probabilidad de una distribución dada de partículas en varios estados. De acuerdo con el supuesto de probabilidades iguales a priori, se espera que la probabilidad sea proporcional al número de estados\(\mathcal{N}\) disponibles para el sistema sujeto a las restricciones sobre las cantidades conservadas. En la mecánica clásica, el conjunto de trayectorias posibles para un sistema de partículas viene dado por el espacio de fase ya que este último constituye el conjunto de posibles datos iniciales. Así, el número de estados para un sistema de\(N\) partículas sería proporcional al volumen del subespacio del espacio de fase definido por las cantidades conservadas. En mecánica cuántica, el número de estados se daría en términos de la dimensión del espacio Hilbert. La fórmula semiclásica para el conteo de estados es entonces

    \[ d \mathcal{N}=\prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3}\]

    En otras palabras, una celda de volumen\((2 \pi h)^{3N}\) en el espacio de fase corresponde a un estado en la teoría cuántica. (Esto se sostiene para un gran número de estados; en otras palabras, es semiclásico). Esto le da un significado más preciso al conteo de estados a través del volumen de fase. En el conjunto microcanónico, el número total de estados con energía total entre\(E\) y\(E + \delta E\) sería

    \[ \mathcal{N}= \int_{H=E}^{H=E+ \delta E} \prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \equiv W(E) \]

    donde\(H(\{ x \}, \{ p \})\) está el Hamiltoniano del sistema\(N\) de partículas. La entropía se define entonces por la fórmula de Boltzmann como\(S(E) = k \log W(E)\). Para un hamiltoniano\(H = \sum_i \frac{p_i^2}{2m}\), esto puede calcularse explícitamente y lleva a las fórmulas que ya hemos obtenido. Sin embargo, como se explicó anteriormente, esto no es fácil de hacer explícitamente cuando las partículas están interactuando. Sin embargo, la idea clave es que el volumen de fase requerido es proporcional al exponencial de la entropía,

    \[\text{Probability} \propto \text{exp} \left( \frac{S}{k} \right) \]

    Esta idea puede trasladarse a los conjuntos canónicos y grandiosos canónicos.

    En el conjunto canónico, consideramos al sistema de interés como parte de un sistema mucho mayor, con, digamos,\(N + M\) partículas. El número total de estados disponibles es entonces

    \[ d \mathcal{N}=\prod_{i=1}^{N+M} \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3}\]

    La idea es entonces considerar la integración sobre las\(M\) partículas para obtener el volumen de fase para el resto, visto como un subsistema. Nos referimos a este subsistema de interés como sistema 1 mientras que las\(M\) partículas que se integran se llamarán sistema 2. Si la energía total es\(E\), tomamos el sistema 1 para tener energía\(E_1\), con el sistema 2 teniendo energía\(E − E_1\). Por supuesto, no\(E_1\) es fijo, sino que puede variar ya que puede haber cierta cantidad de intercambio de energía entre los dos sistemas. Integrar el sistema 2 lleva a

    \[ \delta \mathcal{N}=\prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} W(E-E_1)=\prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} e^{\frac{S(E-E_1)}{k}}\]

    Luego nos expandimos\(S(E)\) como

    \ [\ comenzar {ecuación}
    \ comenzar {dividir}
    S (E − E-1) & = S (E) − E-1\ izquierda (\ frac {S} {E}\ derecha) _ {V, N}\; +\;...\ [0.125in]
    & = S (E) −\ frac {1} {T} E-1\; +\;...\ [0.125in]
    & = S (E) −\ frac {H_N} {T}\; +\;...
    \ end {split}
    \ end {ecuación}\ label {7.4.6}\]

    donde han utilizado la fórmula termodinámica para la temperatura. La temperatura es la misma para el sistema 1 y el sistema más grande (sistema 1 + sistema 2) del que forma parte. \(H_N\)es el hamiltoniano de las\(N\) partículas en el sistema 1. Esto demuestra que, en lo que respecta al sistema en estudio, podemos tomar la probabilidad como

    \[ \text{Probability} = C \prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \text{exp} \left( -\frac{H_n(x,p)}{T} \right) \label{7.4.7} \]

    Aquí C es un factor de proporcionalidad que puede ser establecido por el requisito de normalización de que la probabilidad total (después de la integración sobre todas las variables restantes) es 1. (El factor\(e^\frac{S(E)}{k}\) de la Ecuación\ ref {7.4.6} puede ser absorbido en la normalización ya que es una constante independiente de las variables de espacio de fase para las partículas en el sistema 1. Además, el subíndice 1 que hace referencia al sistema en estudio es ahora redundante y se ha eliminado).

    Hay potencias superiores en la expansión de Taylor en la Ecuación\ ref {7.4.6} las cuales han sido desatendidas. La idea es que estos son muy pequeños ya que\(E_1\) es pequeño en comparación con la energía del sistema total. Al hacer la integración sobre las variables de espacio de fase restantes, en principio, se podrían tener regiones con\(H_N\) comparables a\(E\), y el descuido de términos de orden\(E_1^2\) puede no parecer justificado. Sin embargo, la fórmula\ ref {7.4.7} en términos de la energía alcanza un pico bruscamente alrededor de un cierto valor promedio siendo las fluctuaciones muy pequeñas, de modo que las regiones con\(E_1\) comparable a\(E\) tendrán probabilidad de fuga exponencial. Esta es la justificación última para descuidar los términos superiores en la expansión de la Ecuación\ ref {7.4.6}. Podemos verificar esto a posteriori calculando la fluctuación cuadrática media en el valor energético que viene dada por la distribución de probabilidad en la Ecuación\ ref {7.4.7}. Esto se retomará en breve.

    Volviendo al gran caso canónico, cuando también permitimos el intercambio de partículas, obtenemos

    \ [\ comenzar {ecuación}
    \ comenzar {dividir}
    S (E- E-1, (N + M) − N)) & = S (E, N+M) − E-1\ izquierda (\ frac {S} {U}\ derecha) _ {V, N+M} - N\ izquierda (\ frac {S} {N}\ derecha) _ {U, V}\ +\;...\\ [0.125in]
    & = S (E, N+M) −\ frac {1} {T} E-1 +\ frac {\ mu} {T} N\; +\;...\\ [0.125in]
    & = S (E, N+M) −\ frac {1} {T} (H_N -\ mu_n)\; +\;...
    \ end {split}
    \ end {ecuación}\ label {7.4.8}\]

    Por un razonamiento similar al del conjunto canónico, encontramos, para el gran conjunto canónico,

    \[ \text{Probability} \equiv dp_N = C \prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \text{exp} \left( -\frac{H(x,p)- \mu_N}{kT} \right) \label{7.4.9} \]

    De manera más general, denotemos por\(\mathcal{O}_α\) un número cuántico conservado aditivamente u observable distinto de la energía. La fórmula general para la distribución de probabilidad es entonces

    \[ dp_N = C \prod_{i=1}^N \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \text{exp} \left( -\frac{H(x,p)- \sum_{\alpha} \mu_\alpha \mathcal{O}_α}{kT} \right) \]

    A pesar de que escribimos la expresión para\(N\) partículas, hay que tener en cuenta que los promedios\(N\) también implican una suma sobre. Así, el promedio de algunos observables\(B(x, p)\) viene dado por

    \[ \langle B \rangle = \sum_{N=0}^{\infty} \int dp_N\;B_N(x,p) \]

    Dado que el factor de normalización\(C\) se fija por el requisito de que la probabilidad total sea 1, es conveniente definir la “función de partición”. En el caso canónico, viene dado por

    \[Q_N = \int \frac{1}{N!} \prod_{i=1}^N \left[ \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \right] \text{exp} \left( -\frac{H(x,p)}{kT} \right) \label{7.4.12} \]

    Hemos introducido un factor extra de\(\frac{1}{N!}\). Este es el factor Gibbs necesario para resolver la paradoja de Gibbs; es natural en el conteo cuántico de estados. Efectivamente, debido a que las partículas son idénticas, la permutación de partículas no debe contarse como una nueva configuración, por lo que el volumen de fase debe dividirse por\(N!\) para obtener el conteo “correcto” de estados. Veremos que incluso esto no es del todo adecuado cuando se toman en cuenta los efectos cuánticos completos. En el gran caso canónico, la función de partición se define por

    \[Z = \sum_N \int \frac{1}{N!} \prod_{i=1}^N \left[ \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \right] \text{exp} \left( -\frac{H(x,p)- \sum_{\alpha} \mu_\alpha \mathcal{O}_α}{kT} \right) \label{7.4.13} \]

    Usando las funciones de partición en lugar de\(\frac{1}{C}\), e incluyendo el factor Gibbs, encontramos la probabilidad de una configuración dada como

    \[dp_N = \frac{1}{Q_N} \frac{1}{N!} \prod_{i=1}^N \left[ \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \right] \text{exp} \left( -\frac{H(x,p)}{kT} \right) \]

    mientras que para el gran caso canónico tenemos

    \[dp_N = \frac{1}{Z} \frac{1}{N!} \prod_{i=1}^N \left[ \frac{d^3x_i d^3p_i}{(2 \pi ħ)^3} \right] \text{exp} \left( -\frac{H(x,p)- \sum_{\alpha} \mu_\alpha \mathcal{O}_α}{kT} \right) \]

    La función de partición contiene información sobre las cantidades termodinámicas. Obsérvese que, en particular,

    \[ \frac{1}{\beta} \frac{\partial}{\partial \mu_{\alpha}} \log Z = \langle \mathcal{O}_{\alpha} \rangle \\ -\frac{\partial}{\partial \beta} \log Z = \langle H - \sum_{\alpha} \mu_{\alpha} \mathcal{O}_{\alpha} \rangle = U - \sum_{\alpha} \mu_{\alpha} \langle \mathcal{O}_{\alpha} \rangle \label{7.4.16}\]

    También podemos definir el valor promedio de la entropía (no la entropía de la configuración correspondiente a una forma particular de distribuir partículas entre estados, sino el promedio sobre la distribución) como

    \[\bar{S} = k \left[ \log Z + \beta (U - \sum_{\alpha} \mu_{\alpha} \langle \mathcal{O}_{\alpha} \rangle ) \right] \label{7.4.17} \]

    Mientras que los promedios\(U = \langle H \rangle\) y\(\langle \mathcal{O}_{\alpha} \rangle\) no dependen de los factores de\(N!\) y\((2 \pi h)^{3N}\), la entropía sí. Es por ello que elegimos los factores de normalización en la Ecuación\ ref {7.4.12} para que sean lo que son.

    Consideremos el caso cuando solo tenemos una cantidad conservada, el número de partículas, además de la energía. En este caso, la Ecuación\ ref {7.4.17} puede escribirse como

    \[µ N = U − T S + kT \log Z\]

    Comparando esto con la definición de la energía libre de Gibbs en la Ecuación 5.6 y su expresión\(µ\) en términos de la Ecuación 5.16, encontramos que podemos identificar

    \[ p V = kT \log Z \label{7.4.19} \]

    Esto da la ecuación de estado en términos de la función de partición.

    Estas ecuaciones (\ ref {7.4.13}), (\ ref {7.4.16} -\ ref {7.4.19}) son muy poderosas. Casi toda la termodinámica que hemos discutido antes está contenida en ellas. Además, se pueden utilizar para calcular diversas cantidades, incluyendo correcciones debidas a interacciones entre partículas, etc. Como ejemplo, podemos considerar el cálculo de correcciones a la ecuación de estado en términos del potencial intermolecular.


    This page titled 7.4: Los conjuntos gibbsianos is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by V. Parameswaran Nair.