Saltar al contenido principal
LibreTexts Español

2.8: Sistemas de Partículas Independientes

  • Page ID
    130117
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Ahora apliquemos las distribuciones estadísticas generales discutidas anteriormente a un caso sencillo pero muy importante cuando el sistema que estamos considerando consiste en muchas partículas similares cuya interacción explícita (“directa”) es despreciable. Como resultado, cada valor\(E_{m,N}\) de energía particular de un sistema de este tipo puede representarse como una suma de energías\(\varepsilon_k\) de las partículas, donde el índice\(k\) numera estados de una sola partícula — en lugar de los de todo el sistema, como\(m\) lo hace el índice.

    Empecemos por el límite clásico. En la mecánica clásica, los efectos de cuantificación de energía son insignificantes, es decir, hay un número formalmente infinito de estados cuánticos\(k\) dentro de cada intervalo de energía finito. No obstante, es conveniente mantener, por el momento, el lenguaje discreto-estatal, en el entendimiento de que el número promedio\(\langle N_k \rangle\) de partículas en cada uno de estos estados, generalmente llamado ocupación estatal, es muy pequeño. En este caso, podemos aplicar la distribución de Gibbs al conjunto canónico de partículas individuales, y por lo tanto utilizarla con la sustitución\(E_m \rightarrow \varepsilon_k\), de manera que Equation (\(2.4.7\)) se convierta

    Distribución de Boltzmann:

    \[\boxed{ \langle N_k \rangle = c \text{ exp} \left\{ - \frac{\varepsilon_k}{T}\right\} <<1, } \label{111}\]

    donde se\(c\) debe encontrar la constante a partir de la condición de normalización:

    \[\sum_k \langle N_k \rangle = 1.\]

    Esta es la famosa distribución de Boltzmann. 63 A pesar de su similitud formal con la distribución de Gibbs (\(2.4.7\)), permítanme enfatizar la diferencia conceptual entre estas dos fórmulas importantes. La distribución de Gibbs describe la probabilidad de encontrar todo el sistema en uno de sus estados con energía\(E_m\), y siempre es válida —más exactamente, para un conjunto canónico de sistemas en equilibrio termodinámico. Por otro lado, la distribución de Boltzmann describe la ocupación de un nivel de energía de una sola partícula, y, como veremos en tan solo un minuto, es válida para partículas cuánticas solo en el límite clásico\(\langle N_k \rangle << 1\), aunque no interactúen directamente.

    El último hecho puede ser sorprendente, porque puede parecer que tan pronto como las partículas del sistema son independientes, nada nos impide usar la distribución de Gibbs para derivar la Ecuación (\ ref {111}), independientemente del valor de\(\langle N_k \rangle \). Esto es cierto si las partículas son distinguibles, es decir, pueden distinguirse entre sí —digamos por sus posiciones espaciales fijas, o por los estados de ciertos grados internos de libertad (digamos, giro), o por cualquier otra “marca de lápiz”. Sin embargo, es un hecho experimental que las partículas elementales de cada tipo particular (digamos, electrones) son idénticas entre sí, es decir, no pueden ser “marcadas con lápiz”. 64 Para tales partículas hay que tener más cuidado: aunque no interactúen explícitamente, todavía hay alguna dependencia implícita en su comportamiento, lo que es especialmente evidente para los llamados fermiones (partículas elementales con espín semientero): ellas obedecer el principio de exclusión Pauli que prohíbe que dos partículas idénticas estén en el mismo estado cuántico, aunque no interactúen explícitamente. 65

    Tenga en cuenta que el término “el mismo estado cuántico” lleva aquí una carga de significado pesada. Por ejemplo, si dos partículas están confinadas para permanecer en diferentes posiciones espaciales (digamos, bloqueadas de manera confiable en diferentes cajas), son distinguibles incluso si son internamente idénticas. Así, el principio Pauli, así como otros efectos de identidad de partículas como la condensación de Bose-Einstein que se discutirá en el siguiente capítulo, son importantes solo cuando partículas idénticas pueden moverse en la misma región espacial. Para enfatizar este hecho, es común usar, en lugar de “idéntico”, un adjetivo más preciso (aunque gramaticalmente bastante desagradable) indistinguible.

    Para tener en cuenta estos efectos, examinemos las propiedades estadísticas de un sistema de muchas partículas no interactuantes pero indistinguibles (en la primera etapa de cálculo, ya sea fermiones o bosones) en equilibrio, aplicando la gran distribución canónica (\(2.7.8\)) a una gran conjunto canónico: un subconjunto de partículas en el mismo estado cuántico\(k\) (Figura\(\PageIndex{1}\)).

    fig-ch01_patchfile_01.jpg
    Figura\(\PageIndex{1}\): El gran conjunto canónico de partículas en el mismo estado cuántico con energía\(\varepsilon_k\) —esquemáticamente.

    En este conjunto, el papel del ambiente puede ser jugado solo por el conjunto de partículas en todos los demás estados\(k’ \neq k\), ya que debido a interacciones infinitesimales, las partículas pueden cambiar gradualmente sus estados. En el equilibrio resultante, el potencial químico\(\mu \) y la temperatura\(T\) del sistema no deben depender del número de estado\(k\), aunque el gran potencial termodinámico\(\Omega_k\) del subconjunto de partículas elegido puede. Reemplazar\(N\) con\(N_k\) — lo particular (¡no promedio!) número de partículas en el\(k^{th}\) estado seleccionado, y el valor de energía particular\(E_{m,N}\) con\(\varepsilon_k N_k\), reducimos la forma final de la ecuación (\(2.7.8\)) a

    \[\Omega_{k}=-T \ln \left(\sum_{N_{k}} \exp \left\{\frac{\mu N_{k}-\varepsilon_{k} N_{k}}{T}\right\}\right) \equiv-T \ln \left[\sum_{N_{k}}\left(\exp \left\{\frac{\mu-\varepsilon_{k}}{T}\right\}\right)^{N_{k}}\right] , \label{113}\]

    donde la suma debe llevarse a cabo sobre todos los valores posibles de\(N_k\). Para el cálculo final de esta suma, el tipo de partícula elemental es esencial.

    Por un lado, para los fermiones, obedeciendo el principio Pauli, los números\(N_k\) en la Ecuación (\ ref {113}) pueden tomar solo dos valores, ya sea 0 (el estado\(k\) está desocupado) o 1 (el estado está ocupado), y la suma da

    \[\Omega_{k}=-T \ln \left[\sum_{N_{k}=0,1}\left(\exp \left\{\frac{\mu-\varepsilon_{k}}{T}\right\}\right)^{N_{k}}\right] \equiv-T \ln \left(1+\exp \left\{\frac{\mu-\varepsilon_{k}}{T}\right\}\right). \label{114}\]

    Ahora la ocupación estatal puede calcularse a partir de la última de las Eqs. (\(1.5.13\)) — en este caso, con el (promedio)\(N\) sustituido por\(\langle N_k\rangle \):

    Distribución Fermi-Dirac:

    \[\boxed{\langle N_k \rangle = - \left(\frac{\partial \Omega_k}{\partial \mu} \right)_{T, V} = \frac{1}{e^{(\varepsilon_k - \mu)/T} +1}. } \label{115}\]

    Se trata de la famosa distribución Fermi-Dirac, derivada en 1926 de forma independiente por Enrico Fermi y Paul Dirac.

    Por otro lado, los bosones no obedecen al principio Pauli, y para ellos los números\(N_k\) pueden tomar cualquier valor entero no negativo. En este caso, la Ecuación (\ ref {113}) se convierte en la siguiente igualdad:

    \[\Omega_{k}=-T \ln \left[\sum_{N_{k}=0}^{\infty}\left(\exp \left\{\frac{\mu-\varepsilon_{k}}{T}\right\}\right)^{N_{k}}\right] \equiv-T \ln \sum_{N_{k}=0}^{\infty} \lambda^{N_{k}}, \text { with } \lambda \equiv \exp \left\{\frac{\mu-\varepsilon_{k}}{T}\right\}. \label{116}\]

    Esta suma es solo la serie geométrica habitual, que converge si\(\lambda < 1\), dando

    \[\Omega_k = -T \ln \frac{1}{1-\lambda} \equiv T \ln \left(1-\text{exp}\left\{\frac{\mu - \varepsilon_k}{T}\right\}\right), \quad \text{ for } \mu < \varepsilon_k. \label{117}\]

    En este caso, la ocupación promedio, nuevamente calculada usando la Ecuación (\(1.5.13\)) con\(N\) reemplazada por\(\langle N_k \rangle \), obedece a la distribución de Bose-Einstein,

    Distribución de Bose-Einstein:

    \[\boxed{ \langle N_k \rangle = - \left(\frac{\partial \Omega_k}{\partial \mu }\right)_{T,V} = \frac{1}{e^{\varepsilon_k - \mu)/T}-1}, \quad \text{ for } \mu < \varepsilon_k,} \label{118}\]

    que fue derivado en 1924 por Satyendra Nath Bose (para el caso particular\(\mu = 0\)) y generalizado en 1925 por Albert Einstein por un potencial químico arbitrario. En particular, comparando la Ecuación (\ ref {118}) con la Ecuación (\(2.5.15\)), vemos que las excitaciones del oscilador armónico, 66 cada una con energía\(\hbar \omega \), pueden considerarse como bosones, con el potencial químico igual a cero. Como recordatorio, ya hemos obtenido esta igualdad (\(\mu = 0\)) de una manera diferente — ver Ecuación (\(2.6.14\)). Su interpretación física es que las excitaciones del oscilador pueden ser creadas dentro del sistema, de manera que no hay costo\(\mu\) de energía por moverlas al sistema bajo consideración desde su entorno.

    La forma simple de las Eqs. (\ ref {115}) y (\ ref {118}), y su similitud (además de “solo” la diferencia de los signos ante la unidad en sus denominadores), es uno de los resultados más bellos de la física. Esta similitud, sin embargo, no debe disimular el hecho de que las dependencias energéticas de las ocupaciones\(\langle N_k\rangle\) dadas por estas dos fórmulas son muy diferentes —ver sus parcelas lineales y semilogarítmicas en la Figura\(\PageIndex{2}\).

    En las estadísticas de Fermi-Dirac, el nivel de ocupación no sólo es finito, sino inferior a 1 a cualquier energía, mientras que en el Bose-Einstein puede estar por encima de 1, y diverge a\(\varepsilon_k \rightarrow \mu \).. Sin embargo, a medida que aumenta la temperatura, eventualmente se vuelve mucho mayor que la diferencia (\(\varepsilon_k – \mu \)). En este límite,\(\langle N_k\rangle << 1\), ambas distribuciones cuánticas coinciden entre sí, así como con la distribución clásica de Boltzmann (\ ref {111}) con\(c = \text{exp} \{\mu /T\}\):

    Distribución de Boltzmann: partículas idénticas

    \[\boxed{\langle N_k \rangle \rightarrow \text{exp}\left\{\frac{\mu - \varepsilon_k}{T}\right\}, \quad \text{ for } \langle N_k \rangle \rightarrow 0. } \label{119}\]

    Esta distribución (también mostrada en la Figura\(\PageIndex{2}\)) puede ser, por lo tanto, entendida también como el límite de alta temperatura para partículas indistinguibles de ambos tipos.

    fig-ch01_patchfile_01.jpg
    Figura\(\PageIndex{2}\): Las distribuciones Fermi-Dirac (línea azul), Bose-Einstein (línea roja) y Boltzmann (línea discontinua) para partículas cuánticas indistinguibles. (La última distribución es válida sólo asintóticamente, at\(\langle N_k \rangle << 1\).)

    Una pregunta natural ahora es cómo encontrar el potencial químico\(\mu\) que participa en las Eqs. (\ ref {115}), (\ ref {118}), y (\ ref {119}). En el gran conjunto canónico como tal (Figura\(2.7.1\)), con la variable número de partículas, el valor de\(\mu\) es impuesto por el entorno del sistema. Sin embargo, tanto las distribuciones Fermi-Dirac como Bose-Einstein también son aproximadamente aplicables (en equilibrio térmico) a sistemas con un número fijo pero muy grande\(N\) de partículas. En estas condiciones, el papel del ambiente para algún subconjunto de\(N’ << N\) partículas lo juegan esencialmente\(N – N’\) las partículas restantes. En este caso, se\(\mu\) puede encontrar por el cálculo de\(\langle N\rangle\) a partir de la distribución de probabilidad correspondiente, y luego requiriendo que sea igual al número genuino de partículas en el sistema. En la siguiente sección, realizaremos dichos cálculos para varios sistemas particulares.

    Para esa y otras aplicaciones, nos será conveniente tener fórmulas listas para la entropía\(S\) de un estado general (es decir, no necesariamente de equilibrio) de sistemas de partículas independientes de Fermi o Bose, expresadas no en función\(W_m\) de todo el sistema, como en la Ecuación (\(2.2.11\)), sino a través de los números de ocupación\(\langle N_k \rangle \). Para ello, consideremos un conjunto de sistemas compuestos, cada uno consistente en sistemas componentes\(M >> 1\) similares pero distintos, numerados por índice\(m = 1, 2, ... M\), con partículas independientes (es decir, que no interactúan directamente). Supondremos que aunque en cada uno de los sistemas\(M\) componentes el número\(N_k^{(m)}\) de partículas en su estado\(k^{th}\) cuántico puede ser diferente (Figura\(\PageIndex{3}\)), su número total\(N_k^{(\Sigma )}\) en el sistema compuesto es fijo. Como resultado, la energía total del sistema compuesto también es fija,

    \[ \sum^M_{m=1} N_k^{(m)} = N_k^{(\Sigma)} = const, \quad E_k = \sum^M_{m=1} N_k^{(m)} \varepsilon_k = N_k^{(\Sigma)} \varepsilon_k = const, \label{120}\]

    de manera que un conjunto de muchos de esos sistemas compuestos (con el mismo\(k\)), en equilibrio, es microcanónico.

    fig-ch01_patchfile_01.jpg
    Figura\(\PageIndex{3}\): Un sistema compuesto de\(N_k^{(\Sigma )}\) partículas en estado\(k^{th}\) cuántico, distribuidas entre sistemas\(M\) componentes.

    De acuerdo con la ecuación (\(2.2.5\)), la entropía promedio\(S_k\) por sistema de componentes en este conjunto microcanónico puede calcularse como

    \[S_k = \lim_{M\to \infty} \frac{\ln M_k}{M}, \label{121}\]

    donde\(M_k\) es el número de posibles maneras diferentes de implementar dicho sistema compuesto (con fijo\(N_k^{(\Sigma )}\)). Comencemos el cálculo de\(M_k\) para las partículas de Fermi —para las cuales es válido el principio Pauli. Aquí las ocupaciones de nivel\(N_k^{(m)}\) pueden ser solo iguales a 0 o 1, de manera que el problema de distribución es solucionable solo si\(N_k^{(\Sigma )} \leq M\), y evidentemente equivalente a la elección de\(N_k^{(\Sigma )}\) bolas (en orden arbitrario) a partir del número total de bolas\(M\) distintas. Comparando esta formulación con la definición del coeficiente binomial, 67 obtenemos inmediatamente

    \[M_k =^M C_{N_k^{(\Sigma)}} = \frac{M!}{(M-N_k^{(\Sigma)})!N_k^{(\Sigma)}!}. \label{122}\]

    A partir de aquí, usando la fórmula de Stirling (nuevamente, en su forma más simple (\(2.2.9\))), obtenemos

    Fermiones: entropía

    \[\boxed{S_k = - \langle N_k \rangle \ln \langle N_k \rangle - (1- \langle N_k \rangle) \ln (1- \langle N_k \rangle), } \label{123}\]

    donde

    \[\langle N_k \rangle \equiv \lim_{M\to \infty} \frac{N_k^{(\Sigma)}}{M}\label{124}\]

    es exactamente la ocupación promedio del estado de\(k^{th}\) partícula única en cada sistema, lo que se discutió anteriormente en esta sección. Ya que para un sistema Fermi, siempre\(\langle N_k \rangle\) está en algún lugar entre 0 y 1, su entropía (\ ref {123}) siempre es positiva.

    \[M_{k}=^{M+N_{k}-1} C_{M-1}=\frac{\left(M-1+N_{k}^{(\Sigma)}\right) !}{(M-1) ! N_{k}^{(\Sigma)} !}. \label{125}\]

    Aplicando nuevamente la fórmula de Stirling (\(2.2.9\)), obtenemos el siguiente resultado,

    Bosones: entropía

    \[\boxed{S_k = -\langle N_k \rangle \ln \langle N_k \rangle + (1+\langle N_k \rangle) \ln (1+ \langle N_k \rangle), } \label{126}\]

    que de nuevo difiere del caso Fermi (\ ref {123}) “sólo” por los signos en el segundo término, y es válido para cualquier positivo\(\langle N_k\rangle \).

    Las expresiones (\ ref {123}) y (\ ref {126}) son válidas para un caso arbitrario (posiblemente de no equilibrio); también pueden ser utilizadas para una derivación alternativa de las distribuciones Fermi-Dirac (\ ref {115}) y Bose-Einstein (\ ref {118}), las cuales son válidas solo en equilibrio. Para ello, podemos utilizar el método de multiplicadores Lagrange, requiriendo (tal como se hizo en la Sec. 2) la entropía total de un sistema de partículas\(N\) independientes, similares,

    \[S = \sum_k S_k, \label{127}\]

    considerado como una función de las ocupaciones estatales\(\langle N_k\rangle \), para alcanzar su máximo, bajo las condiciones del número total fijo de partículas\(N\) y energía total\(E\):

    \[\sum_k \langle N_k \rangle = N = const, \quad \sum_k \langle N_k \rangle \varepsilon_k = E = const. \label{128}\]

    La finalización de este cálculo se deja para el ejercicio del lector.

    En el límite clásico, cuando las ocupaciones medias\(\langle N_k \rangle\) de todos los estados son pequeñas, las expresiones Fermi y Bose\(S_k\) tienden al mismo límite

    Entropía de Boltzmann:

    \[\boxed{S_k = - \langle N_k \rangle \ln \langle N_k \rangle, \quad \text{ for } \langle N_k \rangle << 1.} \label{129}\]

    Esta expresión, frecuentemente denominada entropía de Boltzmann (o “clásica”), también podría obtenerse, por arbitrario\(\langle N_k \rangle \), directamente a partir de la ecuación funcionalmente similar (\(2.2.11\)), considerando un conjunto de sistemas, cada uno constituido por una sola partícula clásica, para que\(E_m \rightarrow \varepsilon_k\) y\(W_m \rightarrow \langle N_k \rangle \). Permítanme recalcar nuevamente que para las partículas indistinguibles, dicha identificación es generalmente (es decir, at\(\langle N_k \rangle \sim 1\)) ilegítima aunque las partículas no interactúen explícitamente. Como veremos en el próximo capítulo, la indistinguibilidad puede afectar las propiedades estadísticas de partículas idénticas incluso en el límite clásico.


    This page titled 2.8: Sistemas de Partículas Independientes is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Konstantin K. Likharev via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.