Saltar al contenido principal
LibreTexts Español

7.2: Maxwell-Boltzmann Estadísticas

  • Page ID
    125689
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Ahora podemos ver cómo se aplica todo esto a las partículas en un gas. El análogo de cabezas o colas sería el momento y otros números que caracterizan las propiedades de las partículas. Así, podemos considerar\(N\) partículas distribuidas en diferentes células, representando cada una de las células una colección de observables o números cuánticos que pueden caracterizar la partícula. El número de formas en que\(N\) las partículas pueden distribuirse en estas celdas, digamos\(K\) de ellas, estaría dado por la Ecuación 7.1.8. La pregunta es entonces sobre las probabilidades a priori. La suposición básica que se hace es que no hay nada que prefiera un conjunto de valores de observables sobre otro, por lo que asumimos probabilidades iguales a priori. Esta es una suposición clave de la mecánica estadística. Así que queremos encontrar la distribución de partículas en diferentes valores posibles de momenta u otros observables maximizando la probabilidad

    \[p({n_i}) \;=\; C\;N_i\prod_i^K \frac{1}{n_i!}\]

    Aquí\(C\) hay una constante de normalización dada por\(C = P \sum_{\{n_i\}} W\), el análogo de\(2^N\) en la Ecuación 7.1.2. Ahora la maximización tiene que hacerse obviamente teniendo en cuenta eso\(\sum_i n_i = N\), ya que tenemos un total de\(N\) partículas. Pero esta no es la única condición. Por ejemplo, la energía es una cantidad conservada y si tenemos un sistema con cierta energía\(U\), no importa cómo distribuyamos las partículas en diferentes elecciones de momenta y así sucesivamente, la energía debería ser la misma. Por lo tanto, la maximización de la probabilidad debe hacerse sujeta a esta condición. También debe conservarse cualquier otra cantidad conservada. Por lo tanto, nuestra condición para la distribución de equilibrio debe ser

    \[ \delta_{n_i}p(\{n_i\}) \;=\;0,\;\;\;\;\;subject \;to\; \sum_i n_iO^{(\alpha)}_i\;=\;fixed \]

    donde\(O^{(\alpha)}\) (para diversos valores de\(\alpha\)) dan las cantidades conservadas, siendo el número total de partículas y la energía dos de tales observables.

    La maximización de la probabilidad se parece mucho a lo que da la segunda ley de la termodinámica, en donde el equilibrio se caracteriza por la maximización de la entropía. De hecho esto sugiere que podemos definir la entropía en términos de probabilidad o\(W\), de manera que la condición de maximización de probabilidad sea la misma que la condición de maximización de la entropía. Esta identificación fue realizada por Boltzmann quien definió la entropía correspondiente a una distribución\(\{n_i\}\) de partículas entre diversos valores de momenta y otros observables por

    \[S \;=\; k \log W(\{n_i\})\]

    donde\(k\) está la constante de Boltzmann. Para dos sistemas completamente independientes\(A\)\(B\),, necesitamos\(S = S_A +S_B\), mientras\(W = W_A W_B\). Por lo tanto, la relación debe ser en términos de\(\log W\). Esta ecuación es una de las fórmulas más importantes en física. Es cierto incluso para las estadísticas cuánticas, donde el conteo del número de formas de distribuir partículas es diferente de lo que viene dado por la Ecuación 7.1.8. Calcularemos la entropía usando esto y demostraremos que concuerda con las propiedades termodinámicas esperadas de la entropía. Podemos reafirmar la hipótesis de Boltzmann como

    \[p(\{n_i\}) = C \;W(\{n_i\}) = C e^{\frac{S}{k}}\]

    Con esta identificación, podemos escribir

    \[\begin{align} S &= k \log \left[ N_i\prod_i \frac{1}{n_i!} \right] \\[4pt] &\approx \; k \left[ N \log N - N - \sum_i (n_i \log n_i -n_i) \right] \end{align}\]

    Consideraremos un caso simple donde los valores de energía de una sola partícula son\( \epsilon_i\) (donde se\(i\) puede interpretar como etiqueta de impulso) y solo tenemos dos cantidades conservadas para mantener fijas, el número de partículas y la energía. Para llevar a cabo la variación sujeta a las condiciones que queremos imponer, podemos utilizar multiplicadores Lagrange. Agregamos términos\(λ( \sum_i n_i − N) − β( \sum_i n_i \epsilon_i − U)\), y variamos los parámetros (o multiplicadores)\(β\),\(λ\) para obtener las dos condiciones

    \[ \sum_i n_i=N,\;\;\;\; \sum_i n_i \epsilon_i =U \label{7.2.6}\]

    Dado que éstas se obtienen de todas formas como condiciones variacionales, podemos variar\(n_i\) libremente sin preocuparnos por las restricciones, cuando tratamos de maximizar la entropía. Por lo general usamos\(µ\) en lugar de\(λ\)\(λ = βµ\), donde, así usaremos esta forma de escribir el multiplicador de Lagrange. La condición de equilibrio ahora se convierte en

    \[ \delta \left[ \frac{S}{k}- \beta(\sum_i n_i \epsilon_i -U)+λ(\sum_i n_i -N) \right] =0 \]

    Esto simplifica a

    \[ \sum_i \delta n_i (\log n_i + \beta \epsilon_i -\beta \mu) =0\]

    Dado que no\(n_i\) están restringidos, esto significa que la cantidad entre paréntesis debe desaparecer, dando la solución

    \[ n_i\;=\;e^{- \beta (\epsilon_i - \mu)} \label{7.2.9} \]

    Este es el valor en el que la probabilidad y la entropía son máximas. Se le conoce como la distribución Maxwell-Boltzmann. Como en el caso de la distribución binomial, la variación alrededor de este valor es muy muy pequeña para valores grandes de\(n_i\)), por lo que los valores observables se pueden obtener usando solo la solución en la Ecuación\ ref {7.2.9}. Todavía tenemos las condiciones de la Ecuación\ ref {7.2.6} obtenidas como condiciones de maximización (para variación de\(β\),\(λ\)), lo que significa que

    \[ \sum_i e^{- \beta (\epsilon_i - \mu)}\;=\;N \\ \sum_i \epsilon_i e^{- \beta (\epsilon_i - \mu)} = U \label{7.2.10}\]

    La primera de estas condiciones determinará\(\mu\) en términos de\(N\) y la segunda determinará\(β\) en términos de la energía total\(U\).

    Para completar el cálculo, necesitamos identificar la suma sobre el índice\(i\). Esto debería abarcar todos los estados posibles de cada partícula. Para una partícula libre, esto incluiría todos los momentos y todas las posiciones posibles. Esto significa que podemos sustituir la suma por una integración sobre\(d^3p\; d^3x\). Además, la energía de una sola partícula viene dada por

    \[ \epsilon\;=\;\frac{p^2}{2m} \]

    Desde

    \[ \int d^3x\; d^3p \exp \left( -\frac{\beta p^2}{2m} \right) \;=\; V\left( \frac{2 \pi m}{\beta} \right)^{\frac{3}{2}} \label{7.2.12}\]

    encontramos desde\ ref {7.2.10}

    \[ \beta\;=\; \frac{3N}{2U} \\ \beta \mu \;=\; \log \left[ \frac{N}{V} \left( \frac{\beta}{2 \pi m} \right)^{\frac{3}{2}} \right] \;=\; \log \left[ \frac{N}{V} \left( \frac{3N}{4 \pi m U} \right)^{\frac{3}{2}} \right]\]

    El valor de la entropía al máximo ahora se puede expresar como

    \[ S\;=\;k \left[ \frac{5}{2}N - N \log N + N \log V - \frac{3}{2}N \log \left( \frac{3N}{4 \pi m U} \right) \right] \label{7.2.14}\]

    A partir de esto, encontramos las relaciones

    \[ \begin{align} \left( \frac{\partial S}{\partial U} \right)_{V,N} &= k \frac{3N}{2U} = k\; \beta \\[4pt] \left( \frac{\partial S}{\partial N} \right)_{V,U} &= - \log \left[ \frac{N}{V} \left( \frac{3N}{4 \pi m U} \right)^{\frac{3}{2}} \right] \;=\; -k\;\beta \mu \\[4pt] \left( \frac{\partial S}{\partial V} \right)_{U,N} &= k \frac{N}{V} \label{7.2.17} \end{align}\]

    Comparando estos con

    \[dU = T \;dS − p \;dV + µ \;dN\]

    que es lo mismo que la Ecuación 5.1.8, identificamos

    \[ \beta \;=\; \frac{1}{kT} \label{7.2.19}\]

    Además,\(µ\) es el potencial químico y\(U\) es la energía interna. La última relación en la Ecuación\ ref {7.2.17} nos dice que

    \[ p\;=\;\frac{N\;k\;T}{V} \]

    que es la ecuación de estado de gas ideal.

    Una vez que tenemos la identificación de la Ecuación\ ref {7.2.19}, también podemos expresar el potencial químico y la energía interna como funciones de la temperatura:

    \[ \mu\;=\;kT \log \left[ \frac{N}{V} \left( \frac{1}{2 \pi m kT} \right)^{\frac{3}{2}} \right] \\ U\;=\;\frac{3}{2}NkT \]

    La última relación también da los calores específicos para un gas ideal monatómico como

    \[ C_v=\frac{3}{2}Nk,\;\;\;\; C_p=\frac{5}{2}Nk \]

    Estos calores específicos no desaparecen como\(T → 0\), por lo que claramente no somos congruentes con la tercera ley de la termodinámica. Esto se debe a las estadísticas clásicas que hemos utilizado. La tercera ley es consecuencia de la dinámica cuántica. Entonces, aparte de la tercera ley, vemos que con la identificación de Boltzmann de la entropía como\(S = k \log W\), obtenemos todas las relaciones termodinámicas esperadas y fórmulas explícitas para las cantidades termodinámicas.

    Hasta el momento no hemos abordado cuidadosamente la normalización de la entropía. Hay dos factores de importancia. Al llegar a la Ecuación\ ref {7.2.14}, omitimos el\(N!\) in\(W\), usando\(\frac{W}{N!}\) en la fórmula de Boltzmann en lugar de a\(W\) sí misma. Esta división por\(N!\) se llama el factor Gibbs y ayuda a evitar una paradoja sobre la entropía de la mezcla, como se explica a continuación. Además, el número de estados no puede ser simplemente dado por\(d^3x\; d^3p\) ya que se trata, entre otras razones, de una cantidad dimensionada. La correcta prescripción proviene de la mecánica cuántica que da la fórmula semiclásica para el número de estados como

    \[ \text{Number of states} \;=\; \frac{d^3xd^3p}{(2 \pi h)^3} \]

    donde\(h\) está la constante de Planck. Incluyendo este factor, la entropía puede expresarse como

    \[ S\;=\;N\;k\;\left[ \frac{5}{2} + \log \left( \frac{V}{N} \right) + \frac{3}{2}\log \left( \frac{U}{N} \right) + \frac{3}{2}\log \left( \frac{4 \pi m}{3(2 \pi ħ)^2} \right) \right] \label{7.2.25}\]

    Esto se conoce como la fórmula de Sackur-Tetrode para la entropía de un gas ideal clásico.

    Paradoja de Gibbs

    Nuestra expresión para entropía ha omitido el factor\(N!\). La fórmula original para la entropía en términos de\(W\) incluye el factor de\(N!\) in\(W\). Esto corresponde a un factor adicional de\(N \log N − N\) en la fórmula de la Ecuación\ ref {7.2.24}. La cuestión de si debemos conservarla o no se consideró inmaterial ya que la entropía contenía un término aditivo indeterminado de todos modos. No obstante, Gibbs señaló una paradoja que surge con tal resultado. Considera dos gases ideales a la misma temperatura, originalmente con volúmenes\(V_1\) y\(V_2\) y número de partículas\(N_1\) y\(N_2\). Supongamos que se mezclan, esto crea alguna entropía adicional que se puede calcular como\(S − S_1 − S_2\). Ya que\(U = \frac{3}{2}N kT\), si usamos la fórmula de Ecuación\ ref {7.2.24} sin los factores debidos a\(\frac{1}{N!}\) (lo que significa con un adicional\(N \log N − N\)), encontramos

    \[S − S_1 − S_2 = k [N \log V − N_1 \log V_1 − N_2 \log V_2]\]

    (También hemos ignorado las constantes dependiendo de\(m\) por ahora.) Esta entropía de mezcla se puede probar experimentalmente y de hecho es correcta para gases monatómicos casi ideales. La paradoja surge cuando pensamos en hacer los gases cada vez más similares, tomando un límite cuando son idénticos. En este caso, no debemos obtener ninguna entropía de mezcla, pero la fórmula anterior da

    \[S − S_1 − S_2 = k \left[N_1 \log \left( \frac{V}{V_1} \right) + N_2 \log \left( \frac{V}{V_2} \right) \right]\]

    (En este límite, las constantes que dependen\(m\) son las mismas, razón por la cual no tuvimos que preocuparnos por ello al plantear esta pregunta). Esta es la paradoja. Gibbs sugirió dividir el factor de\(N!\), lo que lleva a la fórmula en la Ecuación\ ref {7.2.24}. Si usamos esa fórmula, no hay cambio para gases idénticos porque el volumen específico\(\frac{V}{N}\) es el mismo antes y después de la mezcla. Para gases disímiles, todavía se obtiene la fórmula de mezcla. El factor Gibbs de\(N!\) surge naturalmente en la estadística cuántica.

    Equipartición

    La fórmula para la energía de una sola partícula viene dada por

    \[ \epsilon = \frac{p^2}{2m} = \frac{p_1^2 + p_2^2+ p_3^2}{2m} \]

    Si consideramos la integral en la Ecuación\ ref {7.2.12} para cada dirección de\(p\), tenemos

    \[ \int dx\;dp\; \exp \left( -\frac{\beta p_1^2}{2m} \right) \;=\; L_1 \left( \frac{2 \pi m}{\beta} \right)^{\frac{1}{2}}\]

    El aporte correspondiente a la energía interna es\(\frac{1}{2} kT\), de manera que para los tres grados de libertad que obtenemos\(\frac{3}{2} kT\), por partícula. Hemos considerado los grados de libertad traslacionales correspondientes al movimiento de la partícula en el espacio tridimensional. Para moléculas más complicadas, hay que incluir grados de libertad rotacional y vibracional. En general, en la mecánica estadística clásica, encontraremos que por cada grado de libertad que obtenemos\(\frac{1}{2} kT\). Esto se conoce como el teorema de equipartición. El calor específico es así dado por

    \[ C_v = \frac{1}{2}k \;\times\; \text{number of degrees of freedom} \]

    Quantum mecánicamente, la equipartición no se sostiene, al menos en esta forma simple, que es como debería ser, ya que sabemos que los calores específicos deben ir a cero como\(T → 0\).


    This page titled 7.2: Maxwell-Boltzmann Estadísticas is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by V. Parameswaran Nair.