Saltar al contenido principal
LibreTexts Español

8.5: Aplicaciones de la Distribución Fermi-Dirac

  • Page ID
    125796
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Consideramos ahora algunas aplicaciones de la distribución Fermi-Dirac (8.2.5). Es útil comenzar examinando el comportamiento de esta función ya que la temperatura va a cero. Esto viene dado por

    \ [n\ fila derecha\ comenzar {casos}
    1 &\;\;\;\;\;\;\;\;\ épsilon<\ mu\\
    0 &\;\;\;\;\;\;\;\;\ épsilon>\ mu\
    \ final {casos}\ etiqueta {8.4.1}\]

    Así, todos los estados por debajo de un cierto valor, que es el valor de temperatura cero del potencial químico, se llenan con un fermión cada uno. Todos los estados por encima de este valor están vacíos. Este es un estado altamente cuántico. El valor de\( \epsilon \) para el estado más alto llenado se llama el nivel Fermi. Dado el comportamiento en la Ecuación\ ref {8.4.1}, es fácil calcular el nivel de Fermi en términos del número de partículas. Dejar\(p_F\) corresponder a la magnitud del impulso del nivel más alto llenado. Entonces

    \[N = g_s \int^p_F \frac{d^3x d^3p}{(2 \pi ħ)^3} = g_s V \frac{p_F^3}{6 \pi^2 ħ^3} \]

    donde\(g_s\) esta el numero de polarizaciones para spin,\(g_s = 2s + 1\). Denotando\(\frac{N}{V}\) =\(\bar{n}\), el nivel de Fermi viene así dado por

    \[\epsilon_F = \frac{p_F^2}{2m} = \frac{ħ^2}{2m} \left( \frac{6 \pi^2 \bar{n}}{g_s} \right)^{\frac{2}{3}} \label{8.4.3} \]

    La energía del estado fundamental viene dada por

    \ [\ begin {ecuación}
    \ begin {split}
    U & = g_s\ int^P_F\ frac {d^3x d^3p} {(2\ pi) ^3}\ frac {p^2} {2m}\\ [0.125in]
    & = V g_s\ frac {p_f^5} {20\ pi^2 m ^3} = {3} {10}\ frac {h^2} {2m}\ izquierda (\ frac {6\ pi^2} {g_s}\ derecha) ^ {\ frac {2} {3}}\ frac {N^ {\ frac {5} {3}}} {V^ {\ frac { 2} {3}}}
    \ end {split}
    \ end {ecuación}\ label {8.4.4}\]

    \ [\ begin {ecuación}
    \ begin {split}
    \;\;\;\;\;\;\; & = V\ frac {3} {5}\ epsilon_f\ bar {n}
    \ end {split}
    \ end {ecuación}\ label {8.4.5}\]

    La presión se calcula fácilmente como

    \[p = \frac{h^2}{5m} \left( \frac{6 \pi^2}{g_s} \right)^{\frac{2}{3}} \bar{n}^{\frac{5}{3}} \label{8.4.6}\]

    (Ya que\(\epsilon_F\) depende de\(\bar{n}\), es más fácil usar la Ecuación\ ref {8.4.4} para esto.) Aquí se dice que el estado multipartícula es altamente degenerado ya que las partículas intentan pasar al estado cuántico único de la energía más baja posible sujeto a las restricciones del principio de exclusión. La presión de la Ecuación\ ref {8.4.6} se conoce como la presión de degeneración. Dado que los fermiones intentan excluirse entre sí, es como si hubiera alguna repulsión entre ellos y esta es la razón de esta presión. Es enteramente de origen mecánico cuántico, debido a la necesaria correlación entre los electrones. Como veremos, juega un papel importante en la astrofísica.

    La energía Fermi\(\epsilon_F\) determina qué temperaturas pueden considerarse altas o bajas. Para los electrones en un metal,\(\epsilon_F\) es del orden de\(eV\), correspondiente a temperaturas alrededor\(10^4\)\(K\). Así, para la mayoría de las consideraciones físicas, los electrones en un metal están a bajas temperaturas. Para los gases atómicos, el nivel de Fermi es mucho menor debido al\(\frac{1}{m}\) factor en la Ecuación\ ref {8.4.3}, y la temperatura ambiente es alta en comparación con\(\epsilon_F\). Primero consideraremos el caso de alta temperatura, donde esperamos pequeñas desviaciones de la física clásica.

    La expresión para\(N\), dada por la condición de normalización (8.2.6) es

    \ [\ begin {ecuación}
    \ begin {split}
    \ bar {n} =\ frac {N} {V} & = g_s\ int\ frac {d^3k} {(2\ pi) ^3}\ frac {1} {e^ {\ beta (\ épsilon -\ mu)} +1} = g_s\ int\ frac {d^3k} {(\ pi) ^3}\ frac {ze^ {\ beta\ épsilon}} {1+ze^ {\ beta\ épsilon}}\\ [0.125in]
    & = g_s\ frac {4} {\ lambda^3\ sqrt {\ pi}}\ int_0^ {\ infty} du\; u^2\; e^ {-u}\ izquierda [z - z^2 e^ {-u^2} z^3 e^ {-2u^2} + · · ·\ derecha]\\ [0.125in] & =\ frac {g_s} {\ lambda^3}\ izquierda (-\ text Li} _ {\ frac {3} {2}} (-z)\ derecha)
    \ end {split}
    \ end {ecuación}\ label {8.4.7}\]

    donde\(λ\) es la longitud de onda térmica, definida como antes, por\(λ = \sqrt{ \frac{2π ħ^2}{mkT}}\). La función de partición\(Z\), de (8.2.7), viene dada por

    \[\log Z = g_s \int \frac{d^3x d^3p}{(2π ħ)^3} \log \left( 1+ e^{-\beta (\epsilon - \mu)} \right) \]

    Este siendo\ frac {pV} {kT}, la ecuación de estado viene dada por

    \ [\ begin {ecuación}
    \ begin {split}
    \ frac {p} {kT} & =\ frac {g_s} {V}\ int\ frac {d^3x d^3p} {(2π) ^3}\ log\ left (1+ e^ {-\ beta (\ épsilon -\ mu)}\ derecha)\\ [0.125in]
    & =\ frac {g_s} {\ lambda^3}\ left (-\ text {Li} _ {\ frac {5} {2}} (-z)\ derecha)
    \ end {split}
    \ end {ecuación}\ etiqueta {8.4.9}\]

    A bajas densidades y altas temperaturas, vemos a partir de la expansión de la serie de potencias de los polilogaritmos que es consistente tomar\(z\) para ser pequeños. Manteniendo los términos al orden cuadrático en\(z\), obtenemos

    \ [\ begin {ecuación}
    \ begin {split}
    z &\ approx\ frac {\ bar {n} λ^3} {g_s} +\ frac {1} {2^ {\ frac {3} {2}}}\ izquierda (\ frac {\ bar {n} λ^3} {g_s}\ derecha) ^2 + · · ·\\ [0.125in]
    \ frac {p} {kT} & =\ bar {n}\ izquierda [1 +\ bar {n}\ frac {λ^3} {g_s 2^ {\ frac {5} {2}}} + · · ·\ derecha]
    \ end {split}
    \ end {ecuación}\ label {8.4.10}\]

    Entonces, como en el caso bosónico, no estamos lejos de la ley ideal del gas. La corrección puede identificarse en términos del segundo coeficiente virial como

    \[B_2 = \frac{λ^3}{g_s 2^{\frac{5}{2}}} \]

    Esto es positivo; entonces, a diferencia del caso bosónico, necesitaríamos un potencial repulsivo entre partículas clásicas para imitar este efecto a través de la expresión clásica (8.3.27) para\(B2\).

    8.4.1: Electrones en un Metal

    Consideremos un sistema de dos estados en la mecánica cuántica y, para empezar, tomamos los estados para que sean degenerados. Así el hamiltoniano es sólo una\(2 \times 2\) matriz diagonal,

    \ [H_0 =\ begin {pmatrix}
    E_0 & 0\\
    0 & E_0
    \ end {pmatrix}\]

    Si consideramos una perturbación a este sistema tal que el hamiltoniano se vuelve

    \ [H = H_0 + V = H_0 +\ begin {pmatrix}
    0 & v\\
    v & 0
    \ end {pmatrix} =\ begin {pmatrix}
    E_0 & v\\
    v & E_0
    \ end {pmatrix}\]

    entonces se levanta la degeneración entre los dos autoestados de\(H_0\) y tenemos dos autoestados con autovalores

    \[E_{\pm} = E_0 \pm v \]

    Consideremos ahora un sistema con\(N\) estados, con el hamiltoniano como\(N \times N\) matriz. Comenzando con todos los estados degenerados, una perturbación dividiría los niveles por una cantidad dependiendo del término perturbador. Todavía tendríamos N propios estados, de diferentes energías que estarán cerca entre sí si la perturbación no es grande. A medida que\(N\) se vuelve muy grande, los valores propios serán casi continuos; obtenemos una banda de estados como los nuevos autoestados. Esto es básicamente lo que sucede en un sólido. Considera los\(N\) átomos en una celosía. Los estados electrónicos, para cada átomo por sí mismo, son idénticos a los estados electrónicos de cualquier otro átomo por sí mismo. Así tenemos un hamiltoniano con una degeneración muy grande para cualquiera de los niveles atómicos. Las fuerzas interatómicas actúan como perturbación a estos niveles. El resultado es que, en lugar de cada nivel atómico, el sólido tiene una banda de niveles de energía correspondientes a cada estado no perturbado de un solo átomo. Dado que normalmente\(N ∼\) el número de Avogadro, es una muy buena aproximación para tratar la banda como teniendo valores propios de energía continua entre dos valores fijos. Hay brechas entre diferentes bandas, reflejando las brechas de energía en el caso de un solo átomo. Así, la estructura de los estados electrónicos en un sólido es una serie de bandas bien separadas con los niveles de energía dentro de cada banda tan cercanos como para ser prácticamente continuos. Muchos de estos autoestados tendrán funciones de onda localizadas alrededor de núcleos individuales. Estos corresponden a los estados energéticos originales de un solo átomo que no son perturbados mucho por los átomos vecinos. Típicamente, los electrones de la capa interna en un átomo de múltiples electrones residirían en tales estados. Sin embargo, para los electrones de la capa externa, las perturbaciones pueden ser lo suficientemente significativas como para que puedan saltar de un núcleo atómico a un vecino, a otro vecino, y así sucesivamente, dando esencialmente electrones libres sujetos a un potencial periódico debido a los núcleos. De hecho, para el cálculo de estas bandas, es una mejor aproximación partir de electrones libres en un potencial periódico en lugar de perturbar estados atómicos individuales. Estas bandas no localizadas son cruciales para la conductividad eléctrica. El cálculo real de la estructura de bandas de un sólido es un problema formidable, pero para entender muchos fenómenos físicos, solo necesitamos la estructura general.

    Consideremos ahora un sólido con los estados electrónicos siendo un conjunto de bandas. Consideramos entonces rellenar estas bandas con los electrones disponibles. Supongamos que el número de electrones es tal que un cierto número de bandas están completamente llenas, a temperatura cero. Tal material es un aislante, porque si se aplica un campo eléctrico, entonces los electrones no pueden responder al campo por el principio de exclusión, ya que no hay estados desocupados de energía cercana.

    Cuadro 8.4.1: Algunos niveles de Fermi de muestra
    Metal \(\epsilon_F\;\text{in}\; eV\) Metal \(\epsilon_F\;\text{in}\; eV\)
    Oro 5.53 Aluminio 11.7
    Plata 5.49 Hierro 11.1
    Cobre 7.00 Zinc 9.47

    Los únicos estados desocupados disponibles están en la siguiente banda superior separados por una brecha de energía. Como resultado, la conductividad eléctrica es cero. Si el campo es lo suficientemente fuerte como para superar la brecha, entonces, por supuesto, puede haber conducción; esto equivale a una ruptura dieléctrica.

    Sin embargo, cuando todos los electrones disponibles han sido asignados a estados, si hay una banda de estados no localizados que no está completamente llena, significaría que hay estados desocupados muy cercanos a los ocupados. Los electrones pueden entrar en estos cuando se aplica un campo eléctrico, incluso si la cantidad de energía dada por el potencial es muy pequeña. Esto conducirá a una conductividad eléctrica distinta de cero. Este es el caso de los conductores; tienen bandas que no están completamente llenas. Tales bandas se llaman bandas conductoras, mientras que las rellenas se llaman bandas de valencia.

    Los estados no localizados de la banda conductora pueden ser etiquetados por el momento de los electrones\(\vec{k}\) con energía\(\epsilon(k)\). Este último es, en general, no una función simple como\(\frac{ħ^2k^2}{2m}\), debido a las interacciones con la red de átomos y entre electrones. En general, tampoco es isotrópico sino que dependerá de la simetría cristalina de la red. Pero para la mayoría de los metales, podemos aproximarlo por la forma simple

    \[\epsilon = \frac{ħ^2k^2}{2m^*} \]

    El efecto de las interacciones puede ser absorbido en una masa electrónica efectiva\(m^∗\). (Demostrar que esto en realidad se puede hacer es una tarea bastante complicada; se conoce con el nombre de teoría líquida fermi, originalmente adivinada, con argumentos de apoyo, por Landau y probada en cierta medida por Migdal, Luttinger y otros. No lo consideraremos aquí.) A temperatura cero, cuando tenemos una banda parcialmente llena, el nivel de energía ocupado más alto dentro de la banda es el nivel Fermi\(\epsilon_F\). El valor de se\(\epsilon_F\) puede calcular a partir de (\ ref {8.4.3})\(\bar{n}\), conociendo, el número de electrones (no unidos a sitios); esto se muestra en la Tabla 8.4.1. Dado que\(1\;eV\) es del orden\(10^4\;K\) en términos de temperatura, vemos que, para fenómenos a temperaturas normales, debemos considerar el régimen de baja temperatura de la distribución Fermi-Dirac. La fugacidad\(z = e^{βµ}\) es muy grande y necesitamos una gran expansión asintótica de fugacidad para varios promedios. Esto se hace usando un método debido a Sommerfeld.

    Consideremos la expresión for\(\bar{n}\) from (\ ref {8.4.7}), que podemos escribir como

    \ [\ begin {ecuación}
    \ begin {split}
    \ bar {n} & = g_s\ int\ frac {d^3k} {(2\ pi) ^3}\ frac {1} {e^ {\ beta (\ épsilon -\ mu)} +1}\\ [0.125in]
    & =\ frac {g_s} {\ lambda^3}\ frac {4} {\ sqrt {\ pi}}\ int_0^ {\ infty} du\ frac {u^2} {e^ {u^2 -\ beta\ mu} + 1} =\ frac {g_s} {\ lambda^3}\ frac {2} {\ sqrt {\ pi}}\ int_0^ {\ infty} dw\ frac {\ sqrt {w}} {e^ {w -\ beta\ mu} + 1}
    \ end {split}
    \ end {ecuación}\ label {8.4.16}\]

    dónde\(u = k \sqrt{\frac{ħ^2}{2mkT}}\) y\(w = u^2\). La idea es cambiar la variable de integración a\(w − βµ\). El límite inferior de integración será entonces\(−βµ\), que podrá ser sustituido por\(−∞\) como primera aproximación. Pero al hacerlo, tenemos que asegurarnos de que el integrand se desvanezca en\(−∞\). Para esto hay que hacer primero una integración parcial. De manera explícita, reescribimos la ecuación\ ref {8.4.16} como

    \ [\ begin {ecuación}
    \ begin {split}
    \ frac {\ bar {n} λ^3} {g_s} & =\ frac {4} {3\ sqrt {\ pi}}\ int_ {-\ beta\ mu} ^ {\ infty} dw\ frac {(w +\ beta\ mu) ^ {\ frac {3} {2}} {eew ^w + 1) (e^ {-w} + 1)}\\ [0.125in]
    & =\ frac {4} {3\ sqrt {\ pi}}\ int_ {-\ infty} ^ {\ infty} dw\ frac {(w +\ beta\ mu) ^ {\ frac {3} {2}}} {(e^w + 1) (e^ {-w} + 1)} +\ mathcal {O} (e^ {-\ beta\ mu})
    \ end {split}
    \ end {ecuación}\ label {8.4.17}\]

    En la primera línea, hemos hecho una integración parcial de la expresión de Ecuación\ ref {8.4.16}; en la segunda línea, reemplazamos el límite inferior por\(−∞\). La discrepancia en hacer esto es al menos de orden\(e^{−βµ}\) debido al\(e^{−w}\) en el denominador del integrando. Es por ello que necesitábamos una integración parcial. Ahora podemos expandirnos\((w + βµ)^{\frac{3}{2}}\) en poderes de\(w\); la contribución de grandes valores de\(|w|\) será pequeña porque el denominador asegura que el integrando alcance su pico bruscamente alrededor\(w = 0\). Poderes impares de w dan cero ya que integrand sería impar bajo\(w → −w\). Así

    \ [\ begin {ecuación}
    \ begin {split}
    \ int_ {-\ infty} ^ {\ infty} dw\ frac {(w +\ beta\ mu) ^ {\ frac {3} {2}}} {(e^w + 1) (e^ {-w} + 1)} & =\ int_ {-\ infty} ^ {\ infty}\ frac {dw} {(e^w + 1) (e^ {-w} + 1)}\ izquierda [(βµ) ^ {\ frac {3} {2}} +\ frac {3} {8} (βµ) ^ {-\ frac {1} {2}} w^2 + · · ·\ derecha]\\ [0.125in]
    & = (βµ) ^ {\ frac {3} {2}} + (βµ) ^ {-\ frac {1} {2}}\ frac {\ pi^2} {8} + · · ·
    \ end {split}
    \ end {ecuación}\ label {8.4.18}\]

    Esto nos da la ecuación para\(µ\) como

    \[ \frac{\bar{n} λ^3 3 \sqrt{\pi}}{4\;g_s} = (βµ)^{\frac{3}{2}} + \frac{\pi^2}{8} (βµ)^{-\frac{1}{2}} \]

    Por escrito\(µ = µ_0 + µ_1 + · · ·\), podemos resolver esto a primer orden como

    \[ βµ ≈ β \epsilon_F \left[ 1 - \frac{\pi^2}{12} \left( \frac{kT}{\epsilon_F} \right)^2 + · · · \right] \label{8.4.20} \]

    donde hemos utilizado la expresión para\(\epsilon_F\) en términos de\(\bar{n}\). Como se esperaba, el valor de\(µ\) a temperatura cero es\(\epsilon_F\). Volviendo a la energía interna, por un procedimiento similar, encontramos

    \ [\ begin {ecuación}
    \ begin {split}
    \ frac {U} {V} & = g_s kT\ frac {4} {5\ sqrt {\ pi}}\ int_ {-\ infty} ^ {\ infty} dw\ frac {(w +\ beta\ mu) ^ {\ frac {5} {2}}} {(e^w + 1) (e^ {-w} + 1)} +\ mathcal {O} (e^ {-\ beta\ mu})\\ [0.125in]
    & = g_s kT\ frac {4} {5\ sqrt {\ pi}}\ left [(βµ) ^ {\ frac {5} {2}} +\ frac {5\;\ pi^2} {8} (βµ) ^ {\ frac {1} {2}} + · · ·\ derecha]
    \ end {split}
    \ end {ecuación}\ label {8.4.21}\]

    Usando el resultado (\ ref {8.4.20}) para\(µ\), esto se convierte en

    \[\frac{U}{V} = \frac{3}{5} \epsilon_F \bar{n} \left[ 1 + \frac{5 \pi^2}{12} \left( \frac{kT}{\epsilon_F} \right)^2 + · · · \right] \]

    El resultado más interesante de este cálculo es que existe una contribución electrónica al calor específico que, a bajas temperaturas, viene dada por

    \[C_v = N\;k \frac{\pi^2}{2} \frac{kT}{\epsilon_F} + \mathcal{O}(T^3) \]

    Como se esperaba de la tercera ley, esta también se desvanece como\(T → 0\).

    8.4.2: Estrellas Enanas Blancas

    Un gas de fermiones que es degenerado también es importante en muchos otros fenómenos físicos, incluyendo la astrofísica. Aquí consideraremos brevemente su papel en las estrellas enanas blancas.

    La magnitud absoluta de una estrella que es proporcional a su luminosidad o salida total de energía por unidad de tiempo está relacionada con su característica espectral, la cual a su vez está relacionada con la temperatura de su fotosfera. Así, una gráfica de luminosidad versus clasificación espectral, conocida como diagrama de Hertsprung-Russell, es una guía útil para clasificar estrellas. Generalmente, las estrellas más azules o las estrellas más calientes tienen una mayor luminosidad en comparación con las estrellas en la parte roja del espectro. Caen aproximadamente en una curva bastante bien definida. Las estrellas de esta categoría se denominan estrellas de secuencia principal. Nuestra propia estrella, el Sol, es una estrella de secuencia principal. Hay dos excepciones principales, las enanas blancas que tienden a tener baja luminosidad a pesar de que son gigantes blancos y rojos que tienen una luminosidad mayor que la esperada para la parte roja del espectro. Las enanas blancas tienen menor luminosidad porque básicamente tienen una corriente de hidrógeno para la fusión y, por lo general, no son lo suficientemente masivas como para pasar el umbral de fusión de núcleos superiores. Por lo tanto, en su mayoría están hechos de helio. La radiación proviene principalmente de la contracción gravitacional. (Los gigantes rojos son estrellas de baja masa que han agotado el hidrógeno en sus núcleos. Pero luego los núcleos se contraen, el hidrógeno de las capas externas se introduce algo y se comprime lo suficiente como para sostener la fusión fuera del núcleo. Debido a que la estrella tiene un radio grande, la salida total es muy alta a pesar de que la fotosfera no está muy caliente, solo alrededor de 4000\(K\).)

    Volviendo a las enanas blancas, lo que les evita colapsar por completo es la presión de degeneración debida a los electrones. Las estrellas están lo suficientemente calientes para que la mayor parte del helio sea ionizado y así hay un gas de electrones. El nivel de Fermi está alrededor\(20\;MeV\) o así, mientras que la temperatura en el núcleo es del orden de\(10^7\; K ∼ 10^3\;eV\). Así el gas de electrones es degenerado y la presión debida a esto es importante para mantener el equilibrio. Siendo la masa de electrones\(∼0.5\; MeV\), el gas es relativista. Si utilizamos la fórmula relativista extrema, la relación energía-impulso es

    \[\epsilon ∼ c |\vec{p}| \]

    Calculando el nivel de Fermi y la densidad energética, encontramos

    \ [\ begin {ecuación}
    \ begin {split}
    \ frac {N} {V} ≡\ bar {n} & = g_s\ int_ {0} ^ {k_f} dw\ frac {d^3k} {(2\ pi) ^3} = g_s\ frac {k_f^3} {6\ pi^2}\\ [0.125in]\ frac {6\ pi^2}
    \\ [0.125in]\ frac ac {U} {V} & = g_s hc\ int_ {0} ^ {k_F} dw\ frac {d^3k} {(2\ pi) ^3} k =\ frac {g_s hc} {8\ pi^2}\ izquierda (\ frac {6\ pi^2\ bar {n}} {g_s}\ derecha) ^ {\ frac {4} {3}} ≡ K\;\ bar {n} ^ {\ frac {4} {3}}\\ [0.125in]
    p & =\ frac {K} {3}\ bar {n} ^ {\ frac {4} {3}}
    \ end {split}
    \ end {ecuación}\ etiqueta 8.4.25}\]

    Para la condición de equilibrio hidrostático, considere una concha esférica de material en la estrella, de espesor\(dr\) a un radio\(r\) desde el centro. Si la densidad (que es una función del radio) es\(ρ(r)\), entonces la masa de este caparazón es\(ρ 4πr^2dr\). La fuerza atractiva que tira de esto hacia el centro es\(−(\frac{Gmρ}{r^2}) 4πr^2dr\), donde\(m(r)\) está la masa encerrada dentro de la esfera de radio\(r\). La diferencia de presión entre el interior y el exterior del caparazón en consideración es\(p(r) − p(r + dr)\), con una fuerza externa.\((\frac{dp}{dr})4πr^2dr\) Así, el equilibrio requiere

    \[\frac{dp}{dr} = -\frac{G\;m\;ρ}{r^2} \]

    Además, la masa encerrada puede escribirse como

    \[m(r) = \int_0^r dr 4 \pi r^2 ρ \]

    Estas dos ecuaciones, junto con la ecuación de estado, dan una ecuación de segundo orden para\(ρ(r)\). El radio R de la estrella se define por\(p(R) = 0\).

    ¿Qué contribuye a la presión? Este es el tema clave para resolver estas ecuaciones. Para una estrella de secuencia principal que todavía está quemando hidrógeno, contribuyen la presión cinética (debido a los movimientos aleatorios de las partículas del material) y la presión de radiación. Para una enana blanca, es básicamente la presión degenerativa. Así debemos resolver estas ecuaciones, utilizando la presión de la Ecuación\ ref {8.4.25}. El resultado es entonces llamativo. Si la masa de la estrella está más allá de cierto valor, entonces la presión de degeneración electrónica no es suficiente para contrarrestarla, y de ahí que la estrella no pueda continuar como una enana blanca. Este límite superior sobre la masa de una enana blanca es aproximadamente 1.4 veces la masa del Sol. Este límite se conoce como el límite de Chandrasekhar.

    ¿Qué pasa con las enanas blancas con masas más altas? Pueden colapsar y encender otros procesos de fusión, generalmente dando como resultado una supernova. Podrían terminar como una estrella de neutrones, donde los electrones, a pesar de la presión de degeneración, han sido apretados hasta un punto en el que se combinan con los protones y obtenemos una estrella hecha de neutrones. Esta estrella (muy densa) es sostenida por la presión de degeneración de neutrones. (El remanente de la explosión de la supernova de la Nebulosa Cangrejo es una estrella de neutrones.) También hay un límite superior para la masa de estrellas de neutrones, por razonamiento muy similar a lo que llevó al límite de Chandrasekhar; esto se conoce como el límite Tolman-Oppenheimer-Volkov. ¿Qué pasa con las masas más altas? Pueden convertirse en estrellas de quark, y para masas aún más altas, más allá del límite de estabilidad de las estrellas de quark, pueden colapsar completamente para formar un agujero negro.

    8.4.3: Diamagnetismo y Paramagnetismo

    El diamagnetismo y el paramagnetismo se refieren a la respuesta de un sistema material a un campo magnético externo\(B_i\). Para cuantificar esto, observamos la energía interna\(U\) del material, considerada como una función del campo magnético. La magnetización\(M_i\) del material se define entonces por

    \[M_i = \frac{1}{V} \left( -\frac{\partial U}{\partial B_i} \right)_{S,V,N} \label{8.4.28}\]

    La magnetización es el momento dipolar magnético promedio (por unidad de volumen) que el material desarrolla en respuesta al campo y, en general, es en sí misma una función del campo\(B_i\). Para los materiales ferromagnéticos, la magnetización puede ser distinta de cero incluso cuando apagamos el campo externo, pero para otros materiales, para valores pequeños del campo, podemos esperar una expansión en serie en potencias de\(B_i\), de manera que

    \[M_i = χ_{ij} B_j + \mathcal{O}(B^2) \label{8.4.29}\]

    \(χ_{ij}\)es la susceptibilidad magnética del material. En los casos en que la aproximación lineal (\ ref {8.4.29}) no es adecuada, definimos

    \[χ_{ij} = \left(\frac{\partial M_i}{\partial B_j} \right) = \left( -\frac{1}{V} \right) \left(\frac{\partial^2 U}{\partial B_i \partial B_j} \right)_{S,V,N} \]

    En general\(χ_{ij}\) es un tensor, pero para materiales que son isotrópicos a una buena aproximación, podemos tomar\(χ_{ij} = χ δ_{ij} \), definiendo una susceptibilidad escalar\(χ\). Materiales para\(χ < 0\) los que se dice que son diamagnéticos mientras que los materiales para\(χ > 0\) los que se dice que son paramagnéticos. El campo\(\vec{H}\), que aparece en la ecuación de Maxwell que tiene la corriente libre\(\vec{J}\) como fuente, está relacionado con el campo\(\vec{B}\) por\(\vec{H} = \vec{B} (1 − χ) = \frac{\vec{B}}{µ}\);\(µ\) es la permeabilidad magnética.

    En cuanto a la magnetización y susceptibilidad, existe un teorema muy simple pero profundo en sus implicaciones. Originalmente se debe a Niels Bohr y posteriormente redescubierta por H.J. van Leeuwen. El teorema se puede reformular de la siguiente manera.

    Teorema\(\PageIndex{1}\) — Bohr-van Leeuwen Theorem

    La función de partición de equilibrio de un sistema de partículas cargadas obedeciendo estadísticas clásicas en un campo magnético externo es independiente del campo magnético.

    Es muy fácil probar este teorema. Considerar el hamiltoniano de un sistema de partículas\(N\) cargadas en un campo magnético externo. Está dado por

    \[H = \sum_{α = 1}^{N} \frac{(p_{αi} − q_αA_i(x_{αi}))}{2\;m_α} + V(x) \label{8.4.31} \]

    donde\(α\) se refiere a la partícula\(i = 1, 2, 3\), como de costumbre, y\(V\) es la energía potencial. Podría incluir la energía potencial electrostática para las partículas así como la contribución de cualquier otra fuente. \(A_i(x_{αi})\)es el potencial del vector que se evalúa en la posición de la\(α\) -ésima partícula. La función clásica de partición canónica viene dada por

    \[Q_N = \frac{1}{N!} \int \prod_α \frac{d^3x_α d^3p_α}{2 \pi ħ^3} e^{-\beta H} \]

    La estrategia es cambiar las variables de integración a

    \[ \Pi_{\alpha i} = p_{\alpha i} - q_α A_i (x_{\alpha i}) \label{8.4.33}\]

    El hamiltoniano se convierte

    \[H = \sum_{α = 1}^{N} \frac{\Pi_{αi} \Pi_{αi}}{2\;m_α} + V(x) \label{8.4.34} \]

    Si bien esto elimina el potencial externo\(A_i\) del hamiltoniano, hay que tener cuidado con el jacobiano de la transformación. Pero en este caso, podemos ver que el jacobiano es 1. Para las variables de espacio de fase de una partícula, encontramos

    \ [\ begin {pmatrix}
    d\ pi_i\\
    d x_i
    \ end {pmatrix} =\ begin {bmatrix}
    δ_ {ij} & -q\ frac {\ parcial a_i} {\ parcial x_j}\\
    0 & δ_ {ij}
    \ end {bmatrix}
    \ begin {pmatrix}
    d p_j\
    d x _j
    \ end {pmatrix}\]

    El determinante de la matriz en esta ecuación es fácilmente verificado como la identidad y el argumento generaliza a\(N\) partículas. De ahí

    \[Q_N = \frac{1}{N!} \int \prod_α \frac{d^3x_α d^3 \Pi_α}{2 \pi ħ^3} e^{-\beta H(\{\Pi,x\})} \]

    Vemos que\(A_i\) ha desaparecido de la integral, demostrando el teorema. Observe que cualquier unión mutua de las partículas a través de interacciones electrostáticas, que está contenida en\(V(x)\), no cambia esta conclusión. El argumento se extiende a la gran partición canónica ya que es\(\sum_n z^nQ_N\).

    Nota

    Para los cognoscenti, lo que estamos diciendo es que se puede describir la dinámica de las partículas cargadas en un campo magnético de dos maneras. Podemos usar la hamiltoniana (\ ref {8.4.31}) con la forma simpléctica\(ω = dp_i ∧ dx_i\) o se puede usar la hamiltoniana (\ ref {8.4.34}) con la forma simpléctica\(Ω = dΠ_i ∧ dx_i +q \frac{∂A_j}{∂x_i} dx_i ∧ dx_j\). Las ecuaciones de movimiento serán idénticas. Pero en la segunda forma, el hamiltoniano no involucra el potencial vector. El volumen de fase definido por también\(Ω\) es independiente de\(A_i\). Por lo tanto, la función de partición es independiente de\(A_i\).

    Este teorema muestra que la explicación del diamagnetismo y paramagnetismo debe provenir de la teoría cuántica. Los consideraremos brevemente, comenzando por el diamagnetismo. El tratamiento completo de un material real debe tener en cuenta las funciones de onda adecuadas de las partículas cargadas involucradas, tanto para los estados localizados como para los estados extendidos. Consideraremos un gas de partículas cargadas, cada una de carga\(e\) y masa\(m\), por simplicidad. Tomamos el campo magnético para estar a lo largo del tercer eje. Los estados propios de energía de una partícula cargada en un campo magnético uniforme externo son los llamados niveles de Landau, y estos están etiquetados por\(p, k, λ\). Los valores propios de la energía son

    \[E_{k,p} = \frac{p^2}{2m} + ħ \omega (k + \frac{1}{2}),\;\;\;\;\;\; k = 0,1, · · · \]

    donde\(ω = \frac{eB}{m}\). \(p\)es el impulso a lo largo del tercer eje y\(k\) etiqueta el nivel Landau. Cada uno de estos niveles tiene una degeneración igual a

    \[\text{Degeneracy } = \frac{eB}{(2 \pi ħ)} \times \text{ Area of Sample} \]

    Los estados con el mismo valor propio de energía están etiquetados por\(λ\). Las partículas son fermiones (electrones) y de ahí que el número de ocupación de cada estado pueda ser cero o uno. Por lo tanto, la función de partición\(Z\) viene dada por

    \ [\ begin {ecuación}
    \ begin {split}
    \ log Z & =\ sum_ {λ, k, p}\ log\ left (1 + e^ {-\ beta E_ {k, p} +\ beta\ mu}\ derecha)\\ [0.125in]
    & =\ int d^2 x\ frac {eB} {(2\ pi)}\ frac {dp\; dx_3} {(2\ pi)}\ suma_k\ log\ izquierda (1 + ze^ {-\ beta E_ {k, p}}\ derecha)
    \ fin {dividir}
    \ final {ecuación}\ etiqueta {8.4.39}\]

    donde\(z\) esta la fugacidad como de costumbre. Para altas temperaturas, podemos considerar una pequeña\(z\) expansión. Conservando sólo el término principal,

    \[\log Z = V \frac{eB}{(2 \pi ħ)^2} (2 \pi mkT)^{\frac{1}{2}} z \frac{e^{-\frac{x}{2}}}{1 - e^{-x}} + · · ·,\;\;\;\;\;\;x = \frac{ħ \omega}{kT} \]

    Para altas temperaturas, también podemos usar una pequeña\(x\) expansión,

    \[ \frac{e^{-\frac{x}{2}}}{1 - e^{-x}} \approx \frac{1}{x} \left( 1 - \frac{x^2}{24} + · · · \right) \]

    Esto lleva a

    \[\log Z = V \left( \frac{2 \pi mkT}{(2 \pi ħ)^2} \right)^{\frac{3}{2}} z \left( 1 - \frac{x^2}{24} + · · · \right) \]

    La definición (\ ref {8.4.28}) es equivalente a\(dU = T dS −pdV +µdN −MV dB\). De\(pV = kT \log Z\), tenemos\(G − F = µN − F = kT \log Z\), para que

    \[d (kT\; \log Z) = dG − dF = N dµ + SdT + pdV + MV dB \label{8.4.43}\]

    lo que demuestra que

    \[M = \frac{kT}{V} \left( \frac{\partial \log Z}{\partial B} \right)_{T,V,\mu} = \frac{kT}{V} \left( \frac{\partial \log Z}{\partial B} \right)_{T,V,z} \label{8.4.44} \]

    Usando la ecuación (\ ref {8.4.28}) y (\ ref {8.4.43}), vemos que

    \[M = \left( \frac{2 \pi mkT}{(2 \pi ħ)^2} \right)^{\frac{3}{2}} z \left[ -\frac{1}{12} \left( \frac{eħ}{m} \right)^2 \frac{B}{kT} + · · · \right] \label{8.4.45} \]

    Además, el número promedio de partículas viene dado por

    \[N ≡ z \left( \frac{\partial \log Z}{\partial z} \right)_{T,V,B} = V \left( \frac{2 \pi mkT}{(2 \pi ħ)^2} \right)^{\frac{3}{2}} z \left( 1 - \frac{x^2}{24} + · · · \right) \]

    Usando esto para eliminar\(z\), encontramos a partir de la Ecuación\ ref {8.4.45},

    \ [\ begin {ecuación}
    \ begin {split}
    M & =\ frac {N} {V}\ izquierda [-\ frac {1} {12}\ izquierda (\ frac {e} {m}\ derecha) ^2\ frac {B} {kT} + · · ·\ derecha]\ izquierda (1 -\ frac {x^2} {24}\ derecha) ^ {-1}\\ [0.125in]
    &\ approx\ frac {N} {V}\ izquierda [-\ frac {1} {12}\ izquierda (\ frac {ede} {m}\ derecha) ^2\ frac {B} {kT}\ derecha]
    \ end {split}
    \ end {ecuación}\ label {8.4.47}\]

    La susceptibilidad diamagnética es así

    \[χ ≈ -\frac{N}{V} \left( \frac{eħ}{m} \right)^2 \frac{1}{12kT} \]

    Si bien la fórmula mecánica cuántica para los niveles de energía es importante en esta derivación, realmente no hemos utilizado la distribución Fermi-Dirac, ya que solo se consideró el caso de alta temperatura. A bajas temperaturas, la distribución de Fermi-Dirac será importante. El problema también se vincula estrechamente con el efecto Hall cuántico, que está algo fuera del alcance de lo que queremos discutir aquí. Por lo que aquí no consideraremos el caso de baja temperatura para el diamagnetismo. En su lugar, pasaremos a una discusión de paramagnetismo.

    El paramagnetismo puede surgir para el momento magnético de espín del electrón. Por lo tanto, esto también es en gran medida un efecto cuántico. El hamiltoniano para una partícula de punto cargado que incluye el acoplamiento de campo magnético de giro es

    \[H = \frac{(p − eA)^2}{2\;m} − \frac{e}{2\;m}γ \vec{S} \cdot \vec{B} \label{8.4.49} \]

    Aquí\(\vec{S}\) está el vector de espín y\(γ\) está la relación giromagnética. Para el electrón\(\vec{S} = \frac{ħ}{2} \vec{σ}\),\(\vec{σ}\) siendo las matrices Pauli, y\(γ\) está muy cerca de 2; vamos a tomar\(γ = 2\). Dado que queremos mostrar cómo un positivo\(χ\) puede surgir del momento magnético de giro, ignoraremos, para este argumento, el potencial vectorial\(A\) en el primer término del hamiltoniano. Los valores propios de la energía son así

    \[E_{p, \pm} = \frac{p^2}{2m} \mp \mu_0B,\;\;\;\;\;\; \mu_0 = \frac{eħ}{2m} \]

    Por lo tanto, la\(Z\) función de partición viene dada por

    \[\log Z = \int \frac{d^3x d^3p}{(2 \pi ħ)^3} \left[ \log \left( 1 + z_+ e^{-\frac{\beta p^2}{2m}} \right) + \log \left( 1 + z_- e^{-\frac{\beta p^2}{2m}} \right) \right] \]

    donde\(Z_{\pm} = \text{exp}(\beta \mu_{\pm})\) con

    \[\mu_{\pm} = \mu \pm \mu_0 B \label{8.4.52} \]

    De\(\log Z\), obtenemos

    \ [\ begin {ecuación}
    \ begin {split}
    M & =\ frac {1} {V} (kT)\ izquierda (\ frac {\ parcial\ log Z} {\ parcial B}\ derecha) _z =\ mu_0 (n_+ - n_-)\\ [0.125in]
    n_ {\ pm} & =\ int\ frac {d^3p} {(2\ pi) ^3}\ frac {1} {e^ {\ beta (\ frac {p^2} {2m} -\ mu_ {\ pm})} + 1}
    \ end { dividir}
    \ final {ecuación}\ etiqueta {8.4.53}\]

    Al tomar\(z(\frac{∂ \log Z}{∂z})\), vemos que la densidad numérica de electrones para ambos estados de espín juntos es\(n = n_+ + n_−\). Para altas temperaturas, podemos aproximar la integral en la Ecuación\ ref {8.4.53} por

    \[n_{\pm} \approx \int \frac{d^3p}{(2 \pi ħ)^3} e^{-\beta \frac{p^2}{2m}} e^{\beta \mu_{\pm}} = \left[ \frac{2 \pi mkT}{(2 \pi ħ)^2} \right]^{\frac{3}{2}} e^{\beta \mu_{\pm}} \label{8.4.54} \]

    Usando esto, la magnetización se convierte,

    \ [\ begin {ecuación}
    \ begin {split}
    M & =\ mu_0\; n\;\ text {tanh}\ left (\ frac {\ mu_0 B} {kT}\ derecha)\\ [0.125in]
    &\ approx\ frac {\ mu_0^2n} {kT} B,\;\;\;\;\;\;\ texto {para}\ mu_0b << kT
    \ end {split}
    \ end {ecuación}\ label {8.4.55} \]

    La susceptibilidad a altas temperaturas se da así como

    \[χ = \frac{\mu_0^2n}{kT} \label{8.4.56} \]

    Volviendo a las bajas temperaturas, observe que ya hemos obtenido la expansión requerida para la integral en la Ecuación\ ref {8.4.53}; esto es lo que hemos hecho siguiendo la Ecuación\ ref {8.4.16}, así podemos usar la fórmula Ecuación\ ref {8.4.20} para\(µ\), junto con la Ecuación\ ref {8.4.3} para el nivel Fermi en términos de\(\bar{n}\), aplicados en el presente caso a\(µ_±\) separadamente. Así

    \ [\ begin {ecuación}
    \ begin {split}
    µ_± & =\ Epsilon_F (n_±)\ left [1 -\ frac {\ pi^2} {12}\ left (\ frac {kT} {\ Epsilon_F (n_±)}\ derecha) ^2 + · · ·\ derecha]\\ [0.125in]
    \ Epsilon_f (n_±) (n_±) _±) & =\ frac {Ħ^2} {2m} (6\ pi^2 n_±) ^ {\ frac {2} {3}}
    \ end {split}
    \ end {ecuación}\ etiqueta {8.4.57}\]

    Definiendo\(∆ = n_+ − n_−\), podemos escribir

    \[ \epsilon_F (n_±) = \epsilon_F (n) \bigg]_{n=(1 \pm \frac{\Delta}{n}) } ,\;\;\;\;\;\; \epsilon_F = \frac{ħ^2}{2m} (3 \pi^2 n)^{\frac{2}{3}} \]

    El hecho\(µ_+ − µ_− = 2µ_0B\) de que a partir de la ecuación\ ref {8.4.52} ahora se puede escribir como

    \[2µ_0B = \epsilon_F \left[ \left( 1 + \frac{\Delta}{n} \right)^{\frac{2}{3}} - \left( 1 - \frac{\Delta}{n} \right)^{\frac{2}{3}} \right] - \frac{\pi^2}{12} \left( \frac{kT}{\epsilon_F} \right)^2 \left[ \frac{1}{\left( 1 + \frac{\Delta}{n} \right)^{\frac{2}{3}}} - \frac{1}{\left( 1 - \frac{\Delta}{n} \right)^{\frac{2}{3}}} \right] + · · · \label{8.4.59} \]

    Después de resolver esto para\(\frac{∆}{n}\), podemos obtener la magnetización como\(M = µ_0∆ \text{ or } χ = \frac{µ_0∆}{B}\). Ya que\(∆ = 0\) para\(B = 0\), al orden lineal en el campo magnético, encontramos

    \[\frac{\Delta}{n} = \frac{3}{2} \frac{\mu_0 B}{\epsilon_F} \left[ 1 - \frac{\pi^2}{12} \left( \frac{kT}{\epsilon_F} \right)^2 + · · · \right] \]

    La susceptibilidad a bajas temperaturas es entonces

    \[χ = \frac{3}{2} \frac{\mu_0 n}{\epsilon_F} \left[ 1 - \frac{\pi^2}{12} \left( \frac{kT}{\epsilon_F} \right)^2 + · · · \right] \label{8.4.61} \]

    La susceptibilidad del momento magnético de espín muestra un comportamiento paramagnético tanto a altas como bajas temperaturas, como se ve en la Ecuación\ ref {8.4.56} y\ ref {8.4.61}.


    This page titled 8.5: Aplicaciones de la Distribución Fermi-Dirac is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by V. Parameswaran Nair.