Saltar al contenido principal
LibreTexts Español

7.1: Sistemas abiertos y la matriz de densidad

  • Page ID
    130891
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Todo el camino hasta la última parte del capítulo anterior, hemos discutido los sistemas cuánticos aislados de su entorno. En efecto, desde el principio, hemos asumido que estamos tratando con conjuntos estadísticos de sistemas tan similares entre sí como solo lo permiten las leyes de la mecánica cuántica. Cada miembro de dicho conjunto, llamado puro o coherente, puede ser descrito por el mismo vector\(|\alpha\rangle\) de estado, en el caso de la mecánica de onda, por la misma función de onda\(\Psi_{\alpha}\). Incluso la discusión al final del último capítulo, en la que un sistema de componentes (en la Fig. 6.13, sistema\(b\)) puede ser utilizado como modelo del entorno de su contraparte (sistema\(a\)), todavía se basó en el supuesto de un estado inicial puro (6.143) del compuesto sistema. Si la interacción de los dos componentes de dicho sistema es descrita por un determinado hamiltoniano (el dado por la ecuación (6.145) por ejemplo), y el espectro de energía de cada sistema componente es discreto, para el estado\(\alpha\) del sistema compuesto en un instante arbitrario podemos escribir\[|\alpha\rangle=\sum_{n} \alpha_{n}|n\rangle=\sum_{n} \alpha_{n}\left|n_{a}\right\rangle \otimes\left|n_{b}\right\rangle,\] con una correspondencia única entre los propios estados\(n_{a}\) y\(n_{b}\).

    Sin embargo, en muchos casos importantes, nuestro conocimiento del estado de un sistema cuántico es aún menos completo. \(^{2}\)Estos casos se agrupan en dos categorías. El primer caso es cuando un sistema cuántico relativamente simple\(s\) de nuestro interés (digamos, un electrón o un átomo) se encuentra en un contacto débil\(^{3}\) pero sustancial con su entorno\(e\) -aquí entendido en el sentido más general, digamos, como todo el Universo menos sistema\(s\) - ver Fig. 1. Entonces prácticamente no hay posibilidad de hacer dos o más experimentos con exactamente el mismo sistema compuesto porque eso implicaría una preparación repetida de todo el entorno (incluido el experimentador: -) en cierto estado cuántico -una tarea bastante desafiante, por decirlo suavemente. Entonces tiene mucho más sentido considerar un conjunto estadístico de otro tipo -un conjunto mixto, con estados aleatorios del entorno, aunque posiblemente con sus parámetros macroscópicos (e.g., temperatura, presión, etc.) conocidos con alta precisión. Dichos conjuntos serán el foco del análisis en este capítulo

    Gran parte de este análisis se referirá también a otra categoría de casos -cuando el sistema de nuestro interés esté aislado de su entorno, en la actualidad, con una precisión aceptable, pero nuestro conocimiento de su estado aún está incompleto por alguna otra razón. Por lo general, el sistema podría estar en contacto con su entorno en épocas anteriores, y su reducción a un estado puro es impracticable. Entonces, esta segunda categoría de casos puede considerarse como un caso particular del primero, y puede ser descrita por los resultados de su análisis, con ciertas simplificaciones -que se detallarán en los lugares apropiados de mi narrativa-.

    Screen Shot 2022-01-24 a las 9.41.14 PM.pngFig. 7.1. Un sistema cuántico y su entorno (MUY esquemáticamente: -).

    En la física clásica, el análisis de conjuntos estadísticos mixtos se basa en la noción de la probabilidad\(W\) (o densidad de probabilidad\(w\)) de cada estado detallado (“microscópico”) del sistema de interés. \({ }^{4}\)Veamos cómo tal conjunto puede describirse en la mecánica cuántica. En el caso de que el acoplamiento entre el sistema de nuestro interés y su entorno sea tan débil que puedan estar claramente separados, todavía podemos usar vectores de estado de sus estados, definidos en espacios Hilbert completamente diferentes. Entonces el estado cuántico más general de todo el Universo, aún asumido como puro,\({ }^{5}\) puede describirse como la siguiente superposición lineal:\[|\alpha\rangle=\sum_{j, k} \alpha_{j k}\left|s_{j}\right\rangle \otimes\left|e_{k}\right\rangle .\] La “única” diferencia de tal estado con respecto a la superposición descrita por la Ec. (1), es que no hay correspondencia uno a uno entre los estados de nuestro sistema y su entorno. Es decir, un cierto estado cuántico\(s_{j}\) del sistema de interés puede coexistir con diferentes estados\(e_{k}\) de su entorno. Esta es exactamente la descripción cuántico-mecánica de un estado mixto del sistema\(s\).

    Por supuesto, el enorme tamaño del espacio Hilbert del entorno, es decir, del número de los\(\left|e_{k}\right\rangle\) factores en la superposición (2), nos quita cualquier oportunidad práctica de hacer cálculos directos utilizando esa suma. Por ejemplo, de acuerdo con la ecuación básica (4.125), para encontrar el valor de expectativa de un arbitrario observable\(A\) en el estado (2), necesitaríamos calcular el paréntesis largo\[\langle A\rangle=\langle\alpha|\hat{A}| \alpha\rangle \equiv \sum_{j, j^{\prime} ; k, k^{\prime}} \alpha^{*} \alpha_{j k^{\prime}}\left\langle e_{k}\left|\otimes\left\langle s_{j}|\hat{A}| s_{j^{\prime}}\right\rangle \otimes\right| e_{k^{\prime}}\right\rangle .\] Incluso si asumimos que cada uno de los conjuntos\(\{s\}\) y\(\{e\}\) está lleno y ortonormal, la Ec. (3) todavía incluye una suma doble sobre el enorme conjunto de estados base del entorno!

    Sin embargo, consideremos un subconjunto limitado, pero el más importante de operadores, los de observables intrínsecos, que dependen únicamente de los grados de libertad del sistema de nuestro interés\((s)\). Estos operadores no actúan sobre los grados de libertad del entorno y, por lo tanto, en la Ecuación (3), podemos mover los bra-vectores del entorno\(\left\langle e_{k}\right|\) por todo el camino a los vectores ket-vectores\(\left|e_{k^{\prime}}\right\rangle\). Suponiendo, nuevamente, que el conjunto de autoestados ambientales está lleno y ortonormal, la ecuación (3) ahora se reduce a

    \[\langle A\rangle=\sum_{j, j^{\prime} ; k, k^{\prime}} \alpha_{j k}^{*} \alpha_{j^{\prime} k^{\prime}}\left\langle s_{j}|\hat{A}| s_{j^{\prime}}\right\rangle\left\langle e_{k} \mid e_{k^{\prime}}\right\rangle=\sum_{i j^{\prime}} A_{i j^{\prime}} \sum_{k} \alpha_{j k}^{*} \alpha_{j^{\prime} k} .\]Esto ya es un gran alivio porque tenemos “sólo” una sola suma por encima\(k\), pero el truco principal sigue por delante. Después de la suma sobre\(k\), la segunda suma en la última forma de la Ec. (4) es alguna función\(w\) de los índices\(j\) y\(j\) ', de manera que, de acuerdo con la Ec. (4.96), esta relación se puede representar como\[\langle A\rangle=\sum_{i j^{\prime}} A_{j j^{\prime}} w_{j^{\prime} j} \equiv \operatorname{Tr}(\mathrm{Aw}),\] donde la matriz w, con los elementos\[w_{j j} \equiv \sum_{k} \alpha_{j k}^{*} \alpha_{j^{\prime} k}, \quad \text { i.e. } w_{j j^{\prime}} \equiv \sum_{k} \alpha_{j k} \alpha_{j^{\prime} k}^{*},\] se llama la matriz de densidad del sistema. \({ }^{6}\)Lo más importante, la Ec. (5) muestra que el conocimiento de esta matriz permite calcular el valor de expectativa de cualquier intrínseco observable\(A\) (y, de acuerdo con las ecuaciones generales (1.33) - (1.34), su fluctuación r.m.s. también, si es necesario), incluso para los muy generales estado (2). Es por ello que echemos un buen vistazo a la matriz de densidad.

    En primer lugar, sabemos por la discusión general en el Capítulo 4, totalmente aplicable al estado puro (2), los coeficientes de expansión en las superposiciones de este tipo pueden expresarse siempre como corchetes cortos del tipo (4.40); en nuestro caso actual, podemos escribir\[\alpha_{j k}=\left(\left\langle e_{k}\left|\otimes\left\langle s_{j}\right|\right) \mid \alpha\right\rangle .\right.\] Conectando esta expresión en la Ec. (6), nosotros get\[w_{i j^{\prime}} \equiv \sum_{k} \alpha_{j k} \alpha_{j^{\prime} k}^{*}=\left\langle s_{j}\left|\otimes\left(\sum_{k}\left\langle e_{k} \mid \alpha\right\rangle\left\langle\alpha \mid e_{k}\right\rangle\right) \otimes\right| s_{j^{\prime}}\right\rangle=\left\langle s_{j}|\hat{w}| s_{j^{\prime}}\right\rangle .\] Vemos que desde el punto de nuestro sistema (es decir, en su espacio Hilbert cuyos estados de base pueden ser numerados\(j\) solo por el índice), la matriz de densidad es de hecho solo la matriz de algún constructo,\({ }^{7}\)\[\hat{w} \equiv \sum_{k}\left\langle e_{k} \mid \alpha\right\rangle\left\langle\alpha \mid e_{k}\right\rangle,\] que se llama la densidad (o “estadística”) operador. Como se desprende de la definición (9), en contraste con la matriz de densidad este operador no depende de la elección de una base\(s_{j}\) particular, tal como todos los operadores lineales considerados anteriormente en este curso. Sin embargo, a diferencia de ellos, el operador de densidad depende del estado del sistema compuesto\(\alpha\), incluyendo\(s\) también el estado del sistema. Aún así, en el\(j\) -espacio es matemáticamente solo un operador cuyos elementos matriciales obedecen a todas las relaciones del formalismo bra-ket. En particular, debido a su definición (6), el operador de densidad es hermitiano: de\[w_{i j^{\prime}}^{*}=\sum_{k} \alpha_{j k}^{*} \alpha_{j k}=\sum_{k} \alpha_{j k} \alpha_{j k}^{*}=w_{j j}\] manera que según el análisis general de la Sec. 4.3, en el Hilbert espacio del sistema\(s\), debe haber una cierta base\(\{w\}\) en que la matriz de este operador es diagonal:\[w_{i j^{\prime}} \text { in } w=w_{j} \delta_{j j^{\prime}} \text {. }\] Dado que cualquier operador, en cualquier base, puede estar representado en la forma (4.59), en la base\(\{w\}\) podemos escribir\[\hat{w}=\sum_{j}\left|w_{j}\right\rangle w_{j}\left\langle w_{j}\right|\] Esto expresión recuerda, pero no es equivalente a la Ec. (4.44) para el operador de identidad, que se ha utilizado tantas veces en este curso, y en la base\(w_{j}\) tiene la forma\[\hat{I}=\sum_{j}\left|w_{j}\right\rangle\left\langle w_{j}\right| \text {. }\] Para comprender el significado de los coeficientes que\(w_{j}\) participan en la Ec. (12), vamos usamos la Eq. (5) para calcular el valor de expectativa de cualquier observable\(A\) cuyos autoestados coincidan con los de la base especial\(\{w\}\), y cuya matriz es, por lo tanto, diagonal en esta base:\[\langle A\rangle=\operatorname{Tr}(\mathrm{Aw})=\sum_{i j^{\prime}} A_{j j^{\prime}} w_{j} \delta_{j j^{\prime}}=\sum_{j} A_{j} w_{j},\] donde\(A_{j}\) está solo el valor de expectativa de lo observable\(A\) en el estado\(w_{j}\). De ahí que para cumplir con la Ec. general (1.37), el\(c\) número real\(w_{j}\) debe tener el sentido físico de la probabilidad\(W_{j}\) de encontrar el sistema en el estado\(j\). Como resultado, podemos reescribir la Eq. (12) en la forma\[\hat{w}=\sum_{j}\left|w_{j}\right\rangle W_{j}\left\langle w_{j}\right| \text {. }\] En el último caso cuando solo una de las probabilidades (digamos,\(W_{j^{\prime \prime}}\)) es diferente de cero,\[W_{j}=\delta_{j j^{\prime \prime}},\] el sistema está en un estado coherente (puro)\(w_{j} "\). De hecho, está completamente descrito por un vector de\(\left|w_{j} "\right\rangle\) ket-y podemos usar la regla general (4.86) para representarlo en otra base (arbitraria)\(\{s\}\) como una superposición coherente

    \[\ \left|w_{j^{\prime \prime}}\right\rangle=\sum_{j^{\prime}} U_{j^{\prime \prime} i^\prime}^{\dagger}\left|s_{j^{\prime}}\right\rangle=\sum_{j^{\prime}} U_{j^{\prime} j^{\prime \prime}}^{*}\left|s_{j^{\prime}}\right\rangle,\]

    donde\(\mathrm{U}\) está la matriz unitaria de transformar de la base\(\{w\}\) a la base\(\{s\}\). Según las ecuaciones (11) y (16), en un estado tan puro la matriz de densidad es diagonal en la\(\{w\}\) base,\[w_{i j^{\prime}} \mid \text { in } w=\delta_{j, j^{\prime \prime}} \delta_{j^{\prime}, j^{\prime \prime}},\] pero no en una base arbitraria. En efecto, usando la regla general (4.92), obtenemos\[w_{i j^{\prime} \mid \text { ins }}=\sum_{l, l^{\prime}} U_{j l^{\prime}}^{\dagger} w_{l l^{\prime}} \text { in } w_{l j^{\prime}}=U_{i j^{\prime \prime}}^{\dagger} U_{j^{\prime \prime \prime}{ }^{\prime}}=U_{j^{\prime \prime} j}^{*} U_{j^{\prime \prime} \prime^{\prime}} .\] Para que este resultado sea más transparente, denotemos los elementos de la matriz\(U_{j^{\prime \prime} j} \equiv\left\langle w_{j}{ }^{\prime \prime} \mid s_{j}\right\rangle\) (que, para un fijo\(j\) “, dependen de un solo índice\(j\)) por\(\alpha_{j}\);\[\left.w_{i j^{\prime}}\right|_{\text {in } s}=\alpha_{j}^{*} \alpha_{j^{\prime}},\] entonces para que \(N^{2}\)elementos de toda la\(N \times N\) matriz está determinada por una sola cadena de\(N c\) -números\(\alpha_{j}\). Por ejemplo, para un sistema de dos niveles\((N=2)\),\[\left.\mathrm{w}\right|_{\text {in } s}=\left(\begin{array}{ll} \alpha_{1} \alpha_{1}^{*} & \alpha_{2} \alpha_{1}^{*} \\ \alpha_{1} \alpha_{2}^{*} & \alpha_{2} \alpha_{2}^{*} \end{array}\right)\] vemos que los términos fuera de diagonal son, coloquialmente, “tan grandes como los diagonales”, en el siguiente sentido:\[w_{12} w_{21}=w_{11} w_{22} .\] Dado que los términos diagonales tienen el sentido de las probabilidades de\(W_{1,2}\) encontrar el sistema en el estado correspondiente, podemos representar la Ec. (20) en la forma\[\left.\mathrm{w}\right|_{\text {pure state }}=\left(\begin{array}{cc} W_{1} & \left(W_{1} W_{2}\right)^{1 / 2} e^{i \varphi} \\ \left(W_{1} W_{2}\right)^{1 / 2} e^{-i \varphi} & W_{2} \end{array}\right) .\] El sentido físico de la constante (real)\(\varphi\) es el desplazamiento de fase entre los coeficientes en la superposición lineal (17), que representa el estado puro\(w_{j}\) "en la base \(\left\{s_{1,2}\right\}\).

    Ahora consideremos un conjunto estadístico diferente de sistemas de dos niveles, que incluya a los estados miembros idénticos en todos los aspectos (incluyendo probabilidades similares\(W_{1,2}\) en una misma base\(s_{1,2}\)), además de que los desplazamientos de fase\(\varphi\) son aleatorios, con la fase probabilidad distribuida uniformemente sobre el círculo trigonométrico. Entonces el promedio del conjunto es equivalente al promedio sobre\(\varphi\) de 0 a\(2 \pi,^{8}\) lo que mata los términos fuera de la diagonal de la matriz de densidad (22), de manera que la matriz se vuelve diagonal:\[\left.\mathrm{w}\right|_{\text {classical mixture }}=\left(\begin{array}{cc} W_{1} & 0 \\ 0 & W_{2} \end{array}\right) \text {. }\] El conjunto estadístico mixto con la diagonal de la matriz de densidad en el base estado estacionario se llama la mezcla clásica y representa el límite opuesto al estado puro (coherente) .Después de este ejemplo, el lector no debe ser muy sorprendido por la principal afirmación\(^{9}\) de la mecánica estadística que cualquier gran conjunto de sistemas similares en termodinámica (o” térmico”) es exactamente una mezcla tan clásica. Además, para sistemas en equilibrio térmico con un ambiente mucho mayor de una temperatura fija\(T\) (tal ambiente suele llamarse baño de calor) la física estadística da una expresión muy simple, llamada distribución de Gibbs, para las probabilidades \(W_{n}:^{10}\)\[W_{n}=\frac{1}{Z} \exp \left\{-\frac{E_{n}}{k_{\mathrm{B}} T}\right\}, \quad \text { with } Z \equiv \sum_{n} \exp \left\{-\frac{E_{n}}{k_{\mathrm{B}} T}\right\}\]donde\(E_{n}\) es la energía propia del estado estacionario correspondiente, y el coeficiente de normalización\(Z\) se llama la suma estadística.

    Un análisis detallado de conjuntos clásicos y cuánticos en equilibrio termodinámico es un enfoque importante de los cursos de física estadística (como el SM de esta serie) en lugar de este curso de mecánica cuántica. Sin embargo, todavía me gustaría atraer la atención del lector sobre el hecho clave de que, en contraste con la distribución de Boltzmann de aspecto similar para partículas individuales,\({ }^{11}\) la distribución de Gibbs es general, no limitada a las estadísticas clásicas. En particular, para un gas cuántico de partículas indistinguibles, es absolutamente compatible con las estadísticas cuánticas (como las distribuciones Bose-Einstein o Fermi-Dirac) de las partículas componentes. Por ejemplo, si usamos la Ec. (24) para calcular la energía promedio de un oscilador\(1 \mathrm{D}\) armónico de frecuencia\(\omega_{0}\) en equilibrio térmico, obtenemos fácilmente\({ }^{12}\)\[\begin{gathered} W_{n}=\exp \left\{-n \frac{\hbar \omega_{0}}{k_{\mathrm{B}} T}\right\}\left(1-\exp \left\{-\frac{\hbar \omega_{0}}{k_{\mathrm{B}} T}\right\}\right), \quad Z=\exp \left\{-\frac{\hbar \omega_{0}}{2 k_{\mathrm{B}} T}\right\} /\left(1-\exp \left\{-\frac{\hbar \omega_{0}}{k_{\mathrm{B}} T}\right\}\right) . \\ \langle E\rangle \equiv \sum_{n=0}^{\infty} W_{n} E_{n}=\frac{\hbar \omega_{0}}{2} \operatorname{coth} \frac{\hbar \omega_{0}}{2 k_{\mathrm{B}} T} \equiv \frac{\hbar \omega_{0}}{2}+\frac{\hbar \omega_{0}}{\exp \left\{\hbar \omega_{0} / k_{\mathrm{B}} T\right\}-1} . \end{gathered}\] La forma final del último resultado,\[\langle E\rangle=\frac{\hbar \omega_{0}}{2}+\hbar \omega_{0}\langle n\rangle, \quad \text { with }\langle n\rangle=\frac{1}{\exp \left\{\hbar \omega_{0} / k_{\mathrm{B}} T\right\}-1} \rightarrow \begin{cases}0, & \text { for } k_{\mathrm{B}} T<<\hbar \omega_{0}, \\ k_{\mathrm{B}} T / \hbar \omega_{0}, & \text { for } \hbar \omega_{0}<<k_{\mathrm{B}} T,\end{cases}\] puede interpretarse como una adición, a la energía del estado del suelo\(\hbar \omega_{0} / 2\), del número promedio\(\langle n\rangle\) de excitaciones inducidas térmicamente, con la energía\(\hbar \omega_{0}\) cada una. En el oscilador armónico, cuyos niveles de energía son equidistantes, tal lenguaje es completamente apropiado, porque la transferencia del sistema de cualquier nivel al que está justo por encima de él agrega la misma cantidad de energía,\(\hbar \omega_{0}\). Obsérvese que la expresión anterior para\(\langle n\rangle\) es en realidad la distribución de Bose-Einstein (para el caso particular del potencial químico cero); vemos que no contradice la distribución Gibbs (24) de la energía total del sistema, sino que inmediatamente se desprende de ella.

    Debido a la importancia fundamental de la ecuación (26) para prácticamente todos los campos de la física, permítanme llamar la atención del lector sobre sus principales propiedades. A bajas temperaturas,\(k_{\mathrm{B}} T<<\hbar \omega_{0}\), prácticamente no hay excitaciones,\(\langle n\rangle \rightarrow 0\), y la energía promedio del oscilador está dominada por la de su estado fundamental. En el límite opuesto de altas temperaturas,\(\left.\langle n\rangle \rightarrow k_{\mathrm{B}} T / \hbar \omega_{0}\right\rangle>1\), y\(\langle E\rangle\) se acerca al valor clásico\(k_{\mathrm{B}} T\).


    \({ }^{1}\)Una discusión más amplia sobre la mecánica estadística y la cinética física, incluyendo las de los sistemas cuánticos, se puede encontrar en la parte SM de esta serie.

    \({ }^{2}\)En efecto, un sistema, posiblemente aparte de nuestro Universo en su conjunto (¿quién sabe? - ver abajo), nunca es exactamente coherente, aunque en muchos casos, como los discutidos en los capítulos anteriores, las desviaciones de la coherencia pueden ser ignoradas con una precisión aceptable.

    \({ }^{3}\)Si la interacción entre un sistema y su entorno es muy fuerte, su propia partición es imposible.

    \({ }^{4}\)Véase, por ejemplo, SM Sec. 2.1.

    \({ }^{5}\)Si esta suposición es cierta es un tema interesante, aún siendo debatido (más por filósofos que por físicos), pero se cree ampliamente que su solución no es crítica para la validez de los resultados de este enfoque.

    \({ }^{6}\)Esta noción fue sugerida en 1927 por John von Neumann.

    \({ }^{7}\)Tenga en cuenta que los “corchetes cortos” en esta expresión no son\(c\) -números, porque el estado\(\alpha\) se define en un espacio Hilbert más grande (del entorno más el sistema de interés) que los estados base\(e_{k}\) (solo del entorno) .

    \({ }^{8}\)Para un sistema con un hamiltoniano independiente del tiempo, dicho promedio es especialmente plausible en la base de los estados estacionarios\(n\) del sistema, en los que la fase\(\ \varphi\) es solo la diferencia de constantes de integración en la Ec. (4.158), y su aleatoriedad puede ser producido naturalmente por fluctuaciones menores de la diferencia de energía\(\ E_{1}-E_{2}\). En la Sec. 3 a continuación, estudiaremos la dinámica de este proceso de desfase.

    \({ }^{9}\)Este hecho se desprende del postulado básico de la física estadística, llamado la distribución microcanónica — véase, e.g., SM Sec. 2.2.

    \({ }^{10}\)Véase. e.g., SM Sec. 2.4. La constante de Boltzmann solo\(\ k_{\mathrm{B}}\) es necesaria si la temperatura se mide en unidades no energéticas, digamos en kelvin.

    \({ }^{11}\)Véase, por ejemplo, SM Sec. 2.8.

    \({ }^{12}\)Véase, por ejemplo, SM Sec. \(2.5\)- pero mente un nivel de referencia de energía diferente\(E_{0}=\hbar \omega_{0} / 2\),, utilizado por ejemplo en SM Eqs. (2.68) - (2.69), afectando la expresión for\(Z\). En realidad, el cálculo, utilizando las ecuaciones (24) y (5.86), es tan sencillo que es muy recomendable para el lector como un simple ejercicio.


    This page titled 7.1: Sistemas abiertos y la matriz de densidad is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Konstantin K. Likharev via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.