7.4: Teorema de fluctuación-disipación
- Page ID
- 130899
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\dsum}{\displaystyle\sum\limits} \)
\( \newcommand{\dint}{\displaystyle\int\limits} \)
\( \newcommand{\dlim}{\displaystyle\lim\limits} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\(\newcommand{\longvect}{\overrightarrow}\)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Se pueden hacer preguntas similares sobre una situación más general, cuando el hamiltoniano\(\hat{H}_{s}\) del sistema de interés\((s)\), en el Hamiltoniano compuesto (68), no se especifica en absoluto, pero la interacción entre ese sistema y su entorno aún tiene una forma bilineal similar a Eqs. (70) y (6.130):\[\hat{H}_{\text {int }}=-\hat{F}\{\lambda\} \hat{x},\] donde\(x\) es algo observable de nuestro sistema\(s\) -digamos, su coordenada generalizada o impulso generalizado. Puede parecer increíble que en esta situación tan general todavía se pueda hacer una declaración muy simple y poderosa sobre las propiedades estadísticas de la fuerza generalizada\(F\), bajo solo dos condiciones (interrelacionadas) -que se satisfacen en una gran cantidad de casos de interés:
(i) el acoplamiento del sistema\(s\) de interés a su entorno\(e\) es débil, en el sentido de que la teoría de la perturbación (ver Capítulo 6) es aplicable, y
(ii) se puede considerar que el ambiente permanece en equilibrio termodinámico, con cierta temperatura\(T\), independientemente del proceso en el sistema de interés. \({ }^{31}\)
Esta famosa afirmación se llama el teorema de fluctuación-disipación (FDT). \({ }^{32}\)Debido a la importancia de este resultado fundamental, permítanme derivarlo. \({ }^{33}\)Ya que al escribir la ecuación (68) tratamos todo el sistema\((s+e)\) como hamiltoniano, podemos usar la ecuación de Heisenberg (4.199) para escribir\[i \hbar \dot{\hat{F}}=[\hat{F}, \hat{H}]=\left[\hat{F}, \hat{H}_{e}\right],\] porque, como se discutió en la última sección, el operador\(\hat{F}\{\lambda\}\) conmuta con ambos\(\hat{H}_{s}\) y \(\hat{x}\). Generalmente, muy poco se puede hacer con esta ecuación, porque la evolución temporal del hamiltoniano del entorno depende, a su vez, de la de la fuerza. Aquí es donde la teoría de la perturbación se vuelve indispensable. Descompongamos al operador de fuerza en la siguiente suma:\[\hat{F}\{\lambda\}=\langle\hat{F}\rangle+\hat{\widetilde{F}}(t), \text { with }\langle\hat{\widetilde{F}}(t)\rangle=0,\] donde (aquí y en adelante, hasta nuevo aviso) el signo\(\langle\ldots\rangle\) significa el promedio estadístico solo sobre el entorno, es decir, sobre un conjunto con evoluciones absolutamente similares del sistema\(s\), pero estados aleatorios de su entorno. \({ }^{34}\)Desde el punto de vista del sistema\(s\), el primer término de la suma (¡sigue siendo un operador!) describe la respuesta promedio del entorno a la dinámica del sistema (posiblemente, incluyendo efectos irreversibles como la fricción), y tiene que ser calculada con una cuenta adecuada de su interacción -como lo haremos más adelante en esta sección. Por otra parte, el último término en la Ec. (92) representa fluctuaciones aleatorias del entorno, las cuales existen incluso en ausencia del sistema\(s\). Por lo tanto, en la primera aproximación distinta de cero en la fuerza de interacción, la parte de fluctuación puede calcularse ignorando la interacción, es decir, tratar al ambiente como en equilibrio termodinámico:\[i \hbar \dot{\tilde{F}}=\left[\hat{\widetilde{F}},\left.\hat{H}_{e}\right|_{\mathrm{eq}}\right] .\] Dado que en esta aproximación el hamiltoniano del ambiente no tiene una dependencia explícita a tiempo, la solución de esta ecuación puede escribirse combinando las ecuaciones (4.190) y (4.175):\[\hat{F}(t)=\exp \left\{+\left.\frac{i}{\hbar} \hat{H}_{e}\right|_{\mathrm{eq}} t\right\} \hat{F}(0) \exp \left\{-\left.\frac{i}{\hbar} \hat{H}_{e}\right|_{\mathrm{eq}} t\right\} .\] Usemos esta relación para calcular la función de correlación de las fluctuaciones\(F(t)\), definida de manera similar a la Ec. (80), pero cuidando el orden de los argumentos de tiempo (muy pronto nosotros verá por qué):\[\left\langle\widetilde{F}(t) \widetilde{F}\left(t^{\prime}\right)\right\rangle=\left\langle\exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t\right\} \exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\}\right\rangle .\] (Aquí, por la brevedad de la notación, el equilibrio térmico del entorno es simplemente implícito.) Podemos calcular este valor de expectativa en cualquier base, y la mejor opción para ello es evidente: en la base de estado estacionario del entorno, el operador de densidad del ambiente, su hamiltoniano y, por lo tanto, los exponentes en la Ec. (95) están representados por matrices diagonales. Usando la Ec. (5), la función de correlación se convierte\[\begin{aligned} \left\langle\widetilde{F}(t) \widetilde{F}\left(t^{\prime}\right)\right\rangle &=\operatorname{Tr}\left[\hat{w} \exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t\right\} \exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\}\right] \\ & \equiv \sum_{n}\left[\hat{w} \exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t\right\} \exp \left\{+\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\} \hat{F}(0) \exp \left\{-\frac{i}{\hbar} \hat{H}_{e} t^{\prime}\right\}\right]_{n n} \\ &=\sum_{n, n^{\prime}} W_{n} \exp \left\{+\frac{i}{\hbar} E_{n} t\right\} \hat{F}_{n n^{\prime}} \exp \left\{-\frac{i}{\hbar} E_{n^{\prime}} t\right\} \exp \left\{+\frac{i}{\hbar} E_{n^{\prime}} t^{\prime}\right\} \hat{F}_{n^{\prime} n} \exp \left\{-\frac{i}{\hbar} E_{n} t^{\prime}\right\} \\ & \equiv \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \exp \left\{+\frac{i}{\hbar}\left(E_{n}-E_{n^{\prime}}\right)\left(t-t^{\prime}\right)\right\} \end{aligned}\] Aquí\(W_{n}\) están las probabilidades de distribución de Gibbs dadas por la Ec. (24), con la temperatura del ambiente\(T\), y\(F_{n n^{\prime}} \equiv F_{n n}\) (\((0)\)son la matriz de imagen Schrödinger-picture elementos del operador de fuerza de interacción.
Vemos que aunque el correlador (96) es una función de la diferencia\(\tau \equiv t-t\) 'solamente (como debería ser para las fluctuaciones en un sistema macroscópicamente estacionario), puede depender del orden de sus argumentos. Es por ello que marquemos esta función particular de correlación con el índice superior “+”,\[K_{F}^{+}(\tau) \equiv\left\langle\widetilde{F}(t) \widetilde{F}\left(t^{\prime}\right)\right\rangle=\sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \exp \left\{+\frac{i \widetilde{E} \tau}{\hbar}\right\}, \quad \text { where } \widetilde{E} \equiv E_{n}-E_{n^{\prime}}\] mientras que su contraparte, con los tiempos intercambiados\(t\) y\(t\) ', con el índice superior “-”:\[K_{F}^{-}(\tau) \equiv K_{F}^{+}(-\tau)=\left\langle\widetilde{F}\left(t^{\prime}\right) \widetilde{F}(t)\right\rangle=\sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \exp \left\{-\frac{i \widetilde{E} \tau}{\hbar}\right\} .\] Entonces, en contraste con los procesos clásicos, en la mecánica cuántica la función de correlación de fluctuaciones no\(\widetilde{F}\) es necesariamente simétrica en el tiempo:\[K_{F}^{+}(\tau)-K_{F}^{-}(\tau) \equiv K_{F}^{+}(\tau)-K_{F}^{+}(-\tau)=\left\langle\widetilde{F}(t) \widetilde{F}\left(t^{\prime}\right)-\widetilde{F}\left(t^{\prime}\right) \widetilde{F}(t)\right\rangle=2 i \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \sin \frac{\widetilde{E} \tau}{\hbar} \neq 0,\] así que eso\(\hat{F}(t)\) da un ejemplo más de un operador Heisenberg-picture cuyos “valores”, tomados en diferentes momentos del tiempo, generalmente no conmutan - ver Nota al pie 49 en el Capítulo 4. (Un buen chequeo de cordura aquí es que en\(\tau=0\), es decir\(t=t^{\prime}\), en, la diferencia (99) entre\(K_{F}^{+}\) y se\(K_{F}^{-}\) desvanece.) Ahora volvamos a la descomposición del operador de fuerza (92), y calculemos su primer componente (promedio). Para ello, escribamos la solución formal de la ecuación (91) de la siguiente manera:\[\hat{F}(t)=\frac{1}{i \hbar} \int_{-\infty}^{t}\left[\hat{F}\left(t^{\prime}\right), \hat{H}_{e}\left(t^{\prime}\right)\right] d t^{\prime} .\] En el lado derecho de esta relación, todavía no podemos tratar al hamiltoniano del ambiente como uno imperturbable (equilibrio), aunque el efecto de nuestro sistema\((s)\) sobre el medio ambiente sea muy débil, porque esto daría cero promedio estadístico de la fuerza\(F(t)\). De ahí que deberíamos dar un paso más de nuestro tratamiento perturbador, tomando en cuenta el efecto de la fuerza sobre el medio ambiente. Para ello, usemos las ecuaciones (68) y (90) para escribir la (hasta ahora, exacta) ecuación de movimiento de Heisenberg para el hamiltoniano del ambiente,\[i \hbar \dot{\hat{H}}_{e}=\left[\hat{H}_{e}, \hat{H}\right]=-\hat{x}\left[\hat{H}_{e}, \hat{F}\right],\] y su solución formal, similar a la ecuación (100), pero por el tiempo\(t\) 'en lugar de\(t\):\[\hat{H}_{e}\left(t^{\prime}\right)=-\frac{1}{i \hbar} \int_{-\infty}^{t^{\prime}} \hat{x}\left(t^{\prime \prime}\right)\left[\hat{H}_{e}\left(t^{\prime \prime}\right), \hat{F}\left(t^{\prime \prime}\right)\right] d t^{\prime \prime} .\] Tapar esta igualdad en el lado derecho de la Ec. (100), y promediando el resultado (de nuevo, ¡solo sobre el medio ambiente!) , obtenemos\[\langle\hat{F}(t)\rangle=\frac{1}{\hbar^{2}} \int_{-\infty}^{t} d t^{\prime} \int_{-\infty}^{t^{\prime}} d t^{\prime \prime} \hat{x}\left(t^{\prime \prime}\right)\left\langle\left[\hat{F}\left(t^{\prime}\right),\left[\hat{H}_{e}\left(t^{\prime \prime}\right), \hat{F}\left(t^{\prime \prime}\right)\right]\right]\right\rangle .\] Este sigue siendo un resultado exacto, pero ahora está listo para un tratamiento aproximado, implementado promediando en su lado derecho sobre el estado imperturbable (equilibrio térmico) del ambiente. Esto puede hacerse de manera absolutamente similar a la de la ecuación (96), en el último paso usando la ecuación (94):\[\begin{aligned} &\left\langle\left[\hat{F}\left(t^{\prime}\right),\left[\hat{H}_{e}\left(t^{\prime \prime}\right), \hat{F}\left(t^{\prime \prime}\right)\right]\right\rfloor=\operatorname{Tr}\left\{\mathrm{w}\left[\mathrm{F}\left(t^{\prime}\right),\left[\mathrm{H}_{e} \mathrm{~F}\left(t^{\prime \prime}\right)\right]\right]\right\}\right. \\ &\equiv \operatorname{Tr}\left\{\mathrm{w}\left[\mathrm{F}\left(t^{\prime}\right) \mathrm{H}_{e} \mathrm{~F}\left(t^{\prime \prime}\right)-\mathrm{F}\left(t^{\prime}\right) \mathrm{F}\left(t^{\prime \prime}\right) \mathrm{H}_{e}-\mathrm{H}_{e} \mathrm{~F}\left(t^{\prime \prime}\right) \mathrm{F}\left(t^{\prime}\right)+\mathrm{F}\left(t^{\prime \prime}\right) \mathrm{H}_{e} \mathrm{~F}\left(t^{\prime}\right)\right]\right\} \\ &=\sum_{n, n^{\prime}} W_{n}\left[F_{n n^{\prime}}\left(t^{\prime}\right) E_{n^{\prime}} F_{n^{\prime} n}\left(t^{\prime \prime}\right)-F_{n n^{\prime}}\left(t^{\prime}\right) F_{n^{\prime} n}\left(t^{\prime \prime}\right) E_{n}-E_{n} F_{n n^{\prime}}\left(t^{\prime \prime}\right) F_{n^{\prime} n}\left(t^{\prime}\right)+F_{n n^{\prime}}\left(t^{\prime \prime}\right) E_{n^{\prime}} F_{n^{\prime} n}\left(t^{\prime \prime}\right)\right] \\ &\equiv-\sum_{n, n^{\prime}} W_{n} \widetilde{E}\left|F_{n n^{\prime}}\right|^{2}\left[\exp \left\{\frac{i \widetilde{E}\left(t^{\prime}-t^{\prime \prime}\right)}{\hbar}\right\}+\text { c.c. }\right] . \end{aligned}\] Ahora bien, si tratamos de integrar cada término de esta suma, como parece requerir la ecuación (103), veremos que la sustitución de límite inferior (at\(t^{\prime}, t^{\prime \prime} \rightarrow-\infty\)) es incierta porque los exponentes oscilan sin decaimiento. Esta dificultad matemática puede ser superada por el siguiente razonamiento físico. Como lo ilustra el ejemplo considerado en la sección anterior, el acoplamiento a un entorno desordenado hace que el “horizonte de memoria” del sistema de nuestro interés sea\((s)\) finito: su estado actual no depende de su historia más allá de una determinada escala de tiempo. \({ }^{35}\)Como resultado, la función bajo las integrales de la ecuación (103), es decir, la suma (104), debe autopromediarse en un cierto tiempo finito. Una técnica simplista para expresar matemáticamente este hecho es simplemente dejar caer la sustitución de límite inferior; esto daría el resultado correcto para la Ec. (103). Sin embargo, un truco mejor (matemáticamente más aceptable) es multiplicar primero las funciones bajo las integrales por, respectivamente,\(\exp \left\{\varepsilon\left(t-t^{\prime}\right)\right\}\) y\(\exp \left\{\varepsilon\left(t^{\prime}-t^{\prime \prime}\right)\right\}\), donde\(\varepsilon\) es una constante positiva muy pequeña, luego llevar a cabo la integración, y después de eso seguir la límite\(\varepsilon \rightarrow 0\). La justificación física de este procedimiento puede proporcionarse diciendo que el comportamiento del sistema no debe verse afectado si su interacción con el entorno no se mantuvo constante sino que se encendió gradualmente -digamos, exponencialmente con una tasa infinitesimal\(\varepsilon\). Con esta modificación, la Ec. (103) se convierte en\[\langle\hat{F}(t)\rangle=-\frac{1}{\hbar^{2}} \sum_{n, n^{\prime}} W_{n} \widetilde{E}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0} \int_{-\infty}^{t} d t^{\prime} \int_{-\infty}^{t^{\prime}} d t^{\prime \prime} \hat{x}\left(t^{\prime \prime}\right)\left[\exp \left\{\frac{i \widetilde{E}\left(t^{\prime}-t^{\prime \prime}\right)}{\hbar}+\varepsilon\left(t^{\prime \prime}-t\right)\right\}+\text { c.c. }\right] \text {. }\] Esta doble integración se encuentra sobre el área sombreada en la Fig. 6, lo que hace evidente que el orden de integración puede cambiarse al opuesto como\[\int_{-\infty}^{t} d t^{\prime} \int_{-\infty}^{t^{\prime}} d t^{\prime \prime} \ldots=\int_{-\infty}^{t} d t^{\prime \prime} \int_{t^{\prime \prime}}^{t} d t^{\prime} \ldots=\int_{-\infty}^{t} d t^{\prime \prime} \int_{t^{\prime \prime}-t}^{0} d\left(t^{\prime}-t\right) \ldots \equiv \int_{-\infty}^{t} d t^{\prime \prime} \int_{0}^{\tau} d \tau^{\prime} \ldots,\] dónde\(\tau^{\prime} \equiv t-t^{\prime}\), y\(\tau \equiv t-t^{\prime \prime}\).

En consecuencia, la Ec. (105) puede reescribirse como una sola integral,\[\langle\hat{F}(t)\rangle=\int_{-\infty}^{t} G\left(t-t^{\prime \prime}\right) \hat{x}\left(t^{\prime \prime}\right) d t^{\prime \prime} \equiv \int_{0}^{\infty} G(\tau) \hat{x}(t-\tau) d \tau,\] cuyo núcleo,\[\begin{aligned} G(\tau>0) & \equiv-\frac{1}{\hbar^{2}} \sum_{n, n^{\prime}} W_{n} \widetilde{E}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0} \int_{0}^{\tau}\left[\exp \left\{\frac{i \widetilde{E}\left(\tau-\tau^{\prime}\right)}{\hbar}-\varepsilon \tau\right\}+\text { c.c. }\right] d \tau^{\prime} \\ &=\lim _{\varepsilon \rightarrow 0} \frac{2}{\hbar} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \sin \frac{\widetilde{E} \tau}{\hbar} e^{-\varepsilon \tau} \equiv \frac{2}{\hbar} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \sin \frac{\widetilde{E} \tau}{\hbar} \end{aligned}\] no depende de la ley particular de evolución del sistema\((s)\) en estudio, es decir, proporciona una caracterización general de su acoplamiento con el entorno.
En la Ec. (107) podemos reconocer fácilmente la forma más general de la respuesta lineal de un sistema (en nuestro caso, el entorno), tomando en cuenta el principio de causalidad, donde\(G(\tau)\) está la función de respuesta (también llamada la “función temporal del Verde”) del entorno. Ahora comparando la ecuación (108) con la ecuación (99), obtenemos una relación universal maravillosamente simple,\[\langle[\hat{\tilde{F}}(\tau), \hat{\widetilde{F}}(0)]\rangle=i \hbar G(\tau) .\] que enfatiza una vez más la naturaleza cuántica de la asimetría de tiempo de la función de correlación. (Esta relación, llamada la fórmula Green-Kubo (o simplemente “Kubo”) después de las obras de Melville Green (1954) y Ryogo Kubo (1957), no surge en las derivaciones más fáciles de la FDT, mencionada al inicio de esta sección.)
Sin embargo, para nosotros la relación entre la función\(G(\tau)\) y el anticonmutador de la fuerza,\[\left\langle\{\hat{\widetilde{F}}(t+\tau), \hat{\tilde{F}}(t)\} \equiv\langle\hat{\widetilde{F}}(t+\tau) \hat{\tilde{F}}(t)+\hat{\tilde{F}}(t) \hat{\widetilde{F}}(t+\tau)\rangle \equiv K_{F}^{+}(\tau)+K_{F}^{-}(\tau),\right.\] es mucho más importante, por la siguiente razón. Las ecuaciones (97) - (98) muestran que la llamada función de correlación simétrica,\[\begin{aligned} K_{F}(\tau) & \equiv \frac{K_{F}^{+}(\tau)+K_{F}^{-}(\tau)}{2}=\frac{1}{2}\langle\{\hat{\widetilde{F}}(\tau), \hat{\widetilde{F}}(0)\}\rangle=\lim _{\varepsilon \rightarrow 0} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \cos \frac{\widetilde{E} \tau}{\hbar} e^{-2 \varepsilon|\tau|} \\ & \equiv \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \cos \frac{\widetilde{E} \tau}{\hbar} \end{aligned}\] que es una función par de la diferencia de tiempo\(\tau\), se ve muy similar a la función de respuesta (108), “solo” con otra función trigonométrica bajo la suma, y un factor frontal constante. \({ }^{36}\)Esta similitud puede ser utilizada para obtener una relación algebraica directa entre las imágenes de Fourier de estas dos funciones de\(\tau\). De hecho, la función (111) puede representarse como la integral de Fourier\({ }^{37}\)\[K_{F}(\tau)=\int_{-\infty}^{+\infty} S_{F}(\omega) e^{-i \omega \tau} d \omega=2 \int_{0}^{+\infty} S_{F}(\omega) \cos \omega \tau d \omega,\] con la transformada recíproca\[S_{F}(\omega)=\frac{1}{2 \pi} \int_{-\infty}^{+\infty} K_{F}(\tau) e^{i \omega \tau} d \tau=\frac{1}{\pi} \int_{0}^{+\infty} K_{F}(\tau) \cos \omega \tau d \tau,\] de la densidad espectral simétrica de la variable\(F\), definida como\[S_{F}(\omega) \delta\left(\omega-\omega^{\prime}\right) \equiv \frac{1}{2}\left\langle\hat{F}_{\omega} \hat{F}_{-\omega^{\prime}}+\hat{F}_{-\omega^{\prime}} \hat{F}_{\omega}\right\rangle \equiv \frac{1}{2}\left\langle\left\{\hat{F}_{\omega}, \hat{F}_{-\omega^{\prime}}\right\}\right\rangle,\] donde la función\(\hat{F}_{\omega}\) (también un ¡Operador de Heisenberg en lugar de un\(c\) -número!) se define como\[\hat{F}_{\omega} \equiv \frac{1}{2 \pi} \int_{-\infty}^{+\infty} \hat{F}(t) e^{i \omega t} d t, \quad \text { so that } \hat{F}(t)=\int_{-\infty}^{+\infty} \hat{F}_{\omega} e^{-i \omega t} d \omega .\] El significado físico de la función\(S_{F}(\omega)\) queda claro si escribimos la Eq. (112) para el caso particular\(\tau=0\):\[K_{F}(0) \equiv\left\langle\hat{\widetilde{F}}^{2}\right\rangle=\int_{-\infty}^{+\infty} S_{F}(\omega) d \omega=2 \int_{0}^{+\infty} S_{F}(\omega) d \omega\] Esta fórmula infiere que si pasamos la función\(F(t)\) a través de un filtro lineal cortando de su espectro de frecuencia una banda estrecha\(d \omega\) de frecuencias físicas (positivas), entonces la varianza\(\left\langle F_{\mathrm{f}}^{2}\right\rangle\) de la señal filtrada\(F_{\mathrm{f}}(t)\) sería igual a\(2 S_{F}(\omega) d \omega\) - de ahí el nombre “densidad espectral”. 38
Usemos las ecuaciones (111) y (113) para calcular la densidad espectral de las fluctuaciones\(\widetilde{F}(t)\) en nuestro modelo, usando el mismo\(\varepsilon\) -trick que en la desviación de la ecuación (108), para apagar la sustitución del límite superior:\[\begin{aligned} S_{F}(\omega) &=\sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \frac{1}{2 \pi} \lim _{\varepsilon \rightarrow 0} \int_{-\infty}^{+\infty} \cos \frac{\widetilde{E} \tau}{\hbar} e^{-\varepsilon \mid \tau} \mid e^{i \omega \tau} d \tau \\ & \equiv \frac{1}{2 \pi} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0} \int_{0}^{+\infty}\left[\exp \left\{\frac{i \widetilde{E} \tau}{\hbar}\right\}+\text { c.c. }\right] e^{-\varepsilon \tau} e^{i \omega \tau} d \tau \\ &=\frac{1}{2 \pi} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0}\left[\frac{1}{i(\widetilde{E} / \hbar+\omega)-\varepsilon}+\frac{1}{i(-\widetilde{E} / \hbar+\omega)-\varepsilon}\right] . \end{aligned}\] Ahora es un momento conveniente para recordar que cada una de las dos sumaciones aquí está sobre las energías propias del ambiente, cuyo espectro es prácticamente continuo debido a su gran tamaño, para que podamos transformar cada suma en una integral - tal como se hizo en la Sec. 6.6:\[\sum_{n} \ldots \rightarrow \int \ldots d n=\int \ldots \rho\left(E_{n}\right) d E_{n},\] donde\(\rho(E) \equiv d n / d E\) está la densidad de estados del ambiente a una energía dada . Esta transformación rinde\[S_{F}(\omega)=\frac{1}{2 \pi} \lim _{\varepsilon \rightarrow 0} \int d E_{n} W\left(E_{n}\right) \rho\left(E_{n}\right) \int d E_{n^{\prime}} \rho\left(E_{n^{\prime}}\right)\left|F_{n n^{\prime}}\right|^{2}\left[\frac{1}{i(\widetilde{E} / \hbar-\omega)-\varepsilon}+\frac{1}{i(-\widetilde{E} / \hbar-\omega)-\varepsilon}\right] .\] Dado que la expresión dentro del corchete depende únicamente de una combinación lineal específica de dos energías\(\widetilde{E} \equiv E_{n}-E_{n^{\prime}}\), es decir, es conveniente introducir también otra combinación linealmente independiente de las energías, por ejemplo, la energía promedio \(\bar{E} \equiv\left(E_{n}+E_{n^{\prime}}\right) / 2\), para que las energías de estado puedan representarse como\[E_{n}=\bar{E}+\frac{\widetilde{E}}{2}, \quad E_{n^{\prime}}=\bar{E}-\frac{\widetilde{E}}{2} .\] Con esta notación, la Ec. (119) se convierte en\[\begin{gathered} S_{F}(\omega)=-\frac{\hbar}{2 \pi} \lim _{\varepsilon \rightarrow 0} \int d \bar{E}\left[\int d \widetilde{E} W\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}-\frac{\widetilde{E}}{2}\right)\left|F_{n n^{\prime}}\right|^{2} \frac{1}{i(\widetilde{E}-\hbar \omega)-\hbar \varepsilon}\right. \\ \left.+\int d \widetilde{E} W\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}-\frac{\widetilde{E}}{2}\right)\left|F_{n n^{\prime}}\right|^{2} \frac{1}{i(-\widetilde{E}-\hbar \omega)-\hbar \varepsilon}\right] . \end{gathered}\] Debido a la pequeñez del parámetro\(\hbar \varepsilon\) (que debería ser mucho menor que todas las energías genuinas del problema, incluyendo\(k_{\mathrm{B}} T, \hbar \omega, E_{n}\), y\(E_{n}\)), cada una de las integrales internas en la Ec. (121) está dominada por una proximidad infinitesimal de un punto,\(\widetilde{E}_{\pm}=\pm \hbar \omega .\) En estas proximidades, las densidades de estado, los elementos de la matriz y las probabilidades de Gibbs no cambian considerablemente, y pueden ser sacadas de la integral , que luego se puede elaborar explícitamente: 39\[\begin{aligned} S_{F}(\omega) &=-\frac{\hbar}{2 \pi} \lim _{\varepsilon \rightarrow 0} \int d \bar{E} \rho_{+} \rho_{-}\left[W_{+}\left|F_{+}\right|^{2} \int_{-\infty}^{+\infty} \frac{d \widetilde{E}}{i(\widetilde{E}-\hbar \omega)-\hbar \varepsilon}+W_{-}\left|F_{-}\right|^{2} \int_{-\infty}^{+\infty} \frac{d \widetilde{E}}{i(-\widetilde{E}-\hbar \omega)-\hbar \varepsilon}\right] \\ & \equiv-\frac{\hbar}{2 \pi} \lim _{\varepsilon \rightarrow 0} \int d \bar{E} \rho_{+} \rho_{-}\left[W_{+}\left|F_{+}\right|^{2} \int_{-\infty}^{+\infty} \frac{-i(\widetilde{E}-\hbar \omega)-\hbar \varepsilon}{(\widetilde{E}-\hbar \omega)^{2}+(\hbar \varepsilon)^{2}} d \widetilde{E}+W_{-}\left|F_{-}\right|^{2} \int_{-\infty}^{+\infty} \frac{i(\widetilde{E}+\hbar \omega)-\hbar \varepsilon}{(\widetilde{E}+\hbar \omega)^{2}+(\hbar \varepsilon)^{2}} d \widetilde{E}\right] \\ &=\frac{\hbar}{2} \int \rho_{+} \rho_{-}\left[W_{+}\left|F_{+}\right|^{2}+W_{-}\left|F_{-}\right|^{2}\right] d \bar{E}, \end{aligned}\] donde los índices\(\pm\) marcan los valores de las funciones en los puntos especiales\(\widetilde{E}_{\pm}=\pm \hbar \omega\), es decir\(E_{n}=E_{n}^{\prime} \pm \hbar \omega\). La física de estos puntos se vuelve simple si interpretamos el estado\(n\), para lo cual la función de distribución de Gibbs de equilibrio es igual\(W_{n}\), como el estado inicial del entorno, y\(n\) 'como su estado final. Entonces el punto de signo superior corresponde a\(E_{n}{ }^{\prime}=E_{n}-\hbar \omega\), es decir, al resultado de la emisión de un cuántico\(\hbar \omega\) de energía de la frecuencia de “observación”\(\omega\) por el medio ambiente al sistema\(s\) de nuestro interés, mientras que el punto de signo inferior \(E_{n^{\prime}}=E_{n}+\hbar \omega\), corresponde a la absorción de tal cuántica por el medio ambiente. Como muestra la Ec. (122), ambos procesos dan contribuciones similares y positivas a las fluctuaciones de fuerza.La situación es diferente para la imagen de Fourier de la función de respuesta\(G(\tau),{ }^{40}\)\[\chi(\omega) \equiv \int_{0}^{+\infty} G(\tau) e^{i \omega \tau} d \tau,\] que generalmente se denomina susceptibilidad generalizada o función de respuesta -en nuestro caso, del medio ambiente. Su significado físico es que según la ecuación (107), la función compleja\(\chi(\omega)=\chi^{\prime}(\omega)+\)\(i \chi^{\prime \prime}(\omega)\) relaciona las amplitudes de Fourier de la coordenada generalizada y la fuerza generalizada:\({ }^{41}\)\[\left\langle\hat{F}_{\omega}\right\rangle=\chi(\omega) \hat{x}_{\omega} .\] La física de su parte imaginaria\(\chi\)” \((\omega)\)es especialmente claro. En efecto, si\(x_{\omega}\) representa un proceso clásico sinusoidal, digamos\[x(t)=x_{0} \cos \omega t \equiv \frac{x_{0}}{2} e^{-i \omega t}+\frac{x_{0}}{2} e^{+i \omega t}, \text { i.e. } x_{\omega}=x_{-\omega}=\frac{x_{0}}{2},\] entonces, de acuerdo con el principio de correspondencia, la ecuación (124) debe mantenerse para las amplitudes complejas\(c\) -número\(F_{\omega}\) y\(x_{\omega}\), permitiéndonos calcular la dependencia temporal de la fuerza como\[\begin{aligned} F(t) &=F_{\omega} e^{-i \omega t}+F_{-\omega} e^{+i \omega t}=\chi(\omega) x_{\omega} e^{-i \omega t}+\chi(-\omega) x_{-\omega} e^{+i \omega t}=\frac{x_{0}}{2}\left[\chi(\omega) e^{-i \omega t}+\chi^{*}(\omega) e^{+i \omega t}\right] \\ &=\frac{x_{0}}{2}\left[\left(\chi^{\prime}+i \chi^{\prime \prime}\right) e^{-i \omega t}+\left(\chi^{\prime}-i \chi^{\prime \prime}\right) e^{+i \omega t}\right] \equiv x_{0}\left[\chi^{\prime}(\omega) \cos \omega t+\chi^{\prime \prime}(\omega) \sin \omega t\right] \end{aligned}\] vemos que\(\chi\) '”\((\omega)\) pesa la parte de la fuerza (frecuentemente llamada cuadratura) que es\(\pi / 2\) -desplazada de la coordenada\(x\), es decir, está en fase con su velocidad, y por lo tanto, caracteriza el flujo de potencia promedio en el tiempo desde el sistema hacia su entorno, es decir, la tasa de disipación de energía: 42\[\overline{\mathscr{P}}=\overline{-F(t) \dot{x}(t)}=\overline{-x_{0}\left[\chi^{\prime}(\omega) \cos \omega t+\chi^{\prime \prime}(\omega) \sin \omega t\right]\left(-\omega x_{0} \sin \omega t\right)}=\frac{x_{0}^{2}}{2} \omega \chi^{\prime \prime}(\omega) .\] Calculemos esta función a partir de las ecuaciones (108) y (123), tal como lo hemos hecho para la densidad espectral de las fluctuaciones:\[\begin{aligned} \chi^{\prime \prime}(\omega) &=\operatorname{Im} \int_{0}^{+\infty} G(\tau) e^{i \omega \tau} d \tau=\frac{2}{\hbar} \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0} \operatorname{Im} \int_{0}^{+\infty} \frac{1}{2 i}\left(\exp \left\{i \frac{\widetilde{E} \tau}{\hbar}\right\}-\text { c.c. }\right) e^{i \omega \tau} e^{-\varepsilon \tau} d \tau \\ &=\sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0} \operatorname{Im}\left(\frac{1}{-\widetilde{E}-\hbar \omega-i \hbar \varepsilon}-\frac{1}{\widetilde{E}-\hbar \omega-i \hbar \varepsilon}\right) \\ & \equiv \sum_{n, n^{\prime}} W_{n}\left|F_{n n^{\prime}}\right|^{2} \lim _{\varepsilon \rightarrow 0}\left(\frac{\hbar \varepsilon}{(\widetilde{E}+\hbar \omega)^{2}+(\hbar \varepsilon)^{2}}-\frac{\hbar \varepsilon}{(\widetilde{E}-\hbar \omega)^{2}+(\hbar \varepsilon)^{2}}\right) \end{aligned}\] Hacer la transferencia (118) desde el doble suma a la doble integral, y luego la transferencia de la variable de integración (120), obtenemos\[\begin{aligned} \chi^{\prime \prime}(\omega)=\lim _{\varepsilon \rightarrow 0} \int d \bar{E}\left[\int_{-\infty}^{+\infty} W\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}-\frac{\widetilde{E}}{2}\right)\left|F_{n n^{\prime}}\right|^{2} \frac{\hbar \varepsilon}{(\widetilde{E}+\hbar \omega)^{2}+(\hbar \varepsilon)^{2}} d \widetilde{E}\right.\\ \left.-\int_{-\infty}^{+\infty} W\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}+\frac{\widetilde{E}}{2}\right) \rho\left(\bar{E}-\frac{\widetilde{E}}{2}\right)\left|F_{n n^{\prime}}\right|^{2} \frac{\hbar \varepsilon}{(\widetilde{E}-\hbar \omega)^{2}+(\hbar \varepsilon)^{2}} d \widetilde{E}\right] . \end{aligned}\] Ahora usando el mismo argumento sobre la pequeñez del parámetro\(\varepsilon\) anterior, podemos tomar las densidades espectrales, los elementos de la matriz de fuerza, y las probabilidades de Gibbs fuera de las integrales, y elaborar las integrales restantes, obteniendo un resultado muy similar a la Ec. (122):\[\chi^{\prime \prime}(\omega)=\pi \int \rho_{+} \rho_{-}\left[W_{-}\left|F_{-}\right|^{2}-W_{+}\left|F_{+}\right|^{2}\right] d \bar{E} .\] Para relacionar estos dos resultados, es suficiente notar que de acuerdo con la Ec. (24), las probabilidades de Gibbs\(W_{\pm}\) están relacionadas por un coeficiente dependiendo solo de la temperatura \(T\)y frecuencia de observación\(\omega\): de\[W_{\pm} \equiv W\left(\bar{E}+\frac{\widetilde{E}_{\pm}}{2}\right) \equiv W\left(\bar{E} \pm \frac{\hbar \omega}{2}\right)=\frac{1}{Z} \exp \left\{-\frac{\bar{E} \pm \hbar \omega / 2}{k_{\mathrm{B}} T}\right\}=W(\bar{E}) \exp \left\{\mp \frac{\hbar \omega}{2 k_{\mathrm{B}} T}\right\},\] manera que tanto la densidad espectral (122) como la parte disipativa (130) de la susceptibilidad generalizada puedan expresarse a través de la misma integral sobre las energías ambientales:\[\begin{aligned} &S_{F}(\omega)=\hbar \cosh \left(\frac{\hbar \omega}{2 k_{\mathrm{B}} T}\right) \int \rho_{+} \rho_{-} W(\bar{E})\left[\left|F_{+}\right|^{2}+\left|F_{-}\right|^{2}\right] d \bar{E}, \\ &\chi^{\prime \prime}(\omega)=2 \pi \sinh \left(\frac{\hbar \omega}{2 k_{\mathrm{B}} T}\right) \int \rho_{+} \rho_{-} W(\bar{E})\left[\left|F_{+}\right|^{2}+\left|F_{-}\right|^{2}\right] d \bar{E}, \end{aligned}\] y por lo tanto se relacionan universalmente como \[S_{F}(\omega)=\frac{\hbar}{2 \pi} \chi^{\prime \prime}(\omega) \operatorname{coth} \frac{\hbar \omega}{2 k_{\mathrm{B}} T} .\]Este es, finalmente, el tan célebre teorema de fluctuación-disipación (FDT) de Callen-Welton. Revela una relación fundamental e íntima entre estos dos efectos del entorno (“no disipación sin fluctuación”) -de ahí el nombre. Una característica curiosa de la FDT es que la ecuación (134) incluye la misma función de temperatura que la energía promedio (26) de un oscilador cuántico de frecuencia\(\omega\), aunque, como pudo presenciar el lector, la noción del oscilador no se utilizó de ninguna manera en su derivación. Como verá en la siguiente sección, este hecho lleva a consecuencias bastante interesantes e incluso a oportunidades conceptuales.
En el límite clásico,\(\hbar \omega<<k_{\mathrm{B}} T\), la FDT se reduce a\[S_{F}(\omega)=\frac{\hbar}{2 \pi} \chi^{\prime \prime}(\omega) \frac{2 k_{\mathrm{B}} T}{\hbar \omega}=\frac{k_{\mathrm{B}} T}{\pi} \frac{\operatorname{Im} \chi(\omega)}{\omega} .\] En la mayoría de los sistemas de interés, la última fracción se acerca a una constante finita (positiva) dentro de un rango sustancial de frecuencias relativamente bajas. De hecho, expandiendo el lado derecho de la ecuación (123) a la serie Taylor en pequeño\(\omega\), obtenemos\[\chi(\omega)=\chi(0)+i \omega \eta+\ldots, \quad \text { with } \chi(0)=\int_{0}^{\infty} G(\tau) d \tau, \quad \text { and } \eta \equiv \int_{0}^{\infty} G(\tau) \tau d \tau .\] Dado que la función temporal del Green\(G\) es real por definición, la expansión de Taylor de\(\chi^{\prime \prime}(\omega) \equiv \operatorname{Im} \chi(\omega)\) al\(\omega=0\) inicio con el lineal término\(\omega \eta\), donde\(\eta\) está un cierto coeficiente real, y a menos que\(\eta=0\), esté dominado por este término en pequeño\(\omega\). El sentido físico de la constante\(\eta\) se hace evidente si consideramos un entorno que proporciona una fuerza descrita por una simple y bien conocida ley de fricción cinemática\[\langle\hat{F}\rangle=-\eta \dot{\hat{x}}, \quad \text { with } \eta \geq 0,\] donde\(\eta\) se suele llamar el coeficiente de arrastre. Para las imágenes de Fourier de coordenada y fuerza, esto da la relación\(F_{\omega}=i \omega \eta x_{\omega}\), de manera que de acuerdo con la Ec. (124),\[\chi(\omega)=i \omega \eta, \quad \text { i.e. } \frac{\chi^{\prime \prime}(\omega)}{\omega} \equiv \frac{\operatorname{Im} \chi(\omega)}{\omega}=\eta \geq 0\] Con esta aproximación, y en el límite clásico, la FDT (134) se reduce a la conocida fórmula Nyquist: 43\[S_{F}(\omega)=\frac{k_{\mathrm{B}} T}{\pi} \eta, \quad \text { i.e. }\left\langle F_{\mathrm{f}}^{2}\right\rangle=4 k_{\mathrm{B}} T \eta d v\] Según la Ec. (112), si tal densidad espectral constante\({ }^{44}\) persistió en todas las frecuencias, correspondería a un proceso delta correlacionado\(F(t)\), con\[K_{F}(\tau)=2 \pi S_{F}(0) \delta(\tau)=2 k_{\mathrm{B}} T \eta \delta(\tau)\]
- cf. Eq. (82) y (83). Dado que en el límite clásico el lado derecho de la ecuación (109) es despreciable, y la función de correlación puede considerarse una función par del tiempo, la función simétrica bajo la integral en la ecuación (113) puede reescribirse igual que\(\langle F(\tau) F(0)\rangle\). En el límite de frecuencias de observación relativamente bajas (en el sentido de que\(\omega\) es mucho menor que no solo la frontera cuántica\(k_{\mathrm{B}} T / \hbar\) sino también la escala de frecuencia de la función\(\left.\chi^{\prime \prime}(\omega) / \omega\right)\), la Ec. (138) puede usarse para refundir la Ec. (135) en la forma 45
\[\eta \equiv \lim _{\omega \rightarrow 0} \frac{\chi^{\prime \prime}(\omega)}{\omega}=\frac{1}{k_{\mathrm{B}} T} \int_{0}^{\infty}\langle F(\tau) F(0)\rangle d \tau\]Para concluir esta sección, permítanme volver por un minuto a las preguntas formuladas en nuestra anterior discusión sobre la desfase en el modelo de dos niveles. En ese problema, la escala de tiempo de desfase es\(T_{2}=1 / 2 D_{\varphi}\). De ahí que el enfoque clásico de la desfase, utilizado en la Sec. 3, sea adecuado si\(\hbar D_{\varphi} \ll k_{\mathrm{B}} T\). A continuación, podemos identificar a los operadores\(\hat{f}\) y\(\hat{\sigma}_{z}\) participantes en la Ec. (70) con, respectivamente,\((-\hat{F})\) y\(\hat{x}\) participando en la Ec. general (90). Entonces la comparación de las ecuaciones (82), (89) y (140) rinde de\[\frac{1}{T_{2}} \equiv 2 D_{\varphi}=\frac{4 k_{\mathrm{B}} T}{\hbar^{2}} \eta\] manera que, para el modelo descrito por la ecuación (137) con un coeficiente de arrastre independiente de la temperatura\(\eta\), la velocidad de desfase por un ambiente clásico es proporcional a su temperatura.
\({ }^{31}\)El ejemplo más frecuente de la violación de esta condición es el sobrecalentamiento del ambiente por el flujo de energía del sistema\(s\). Permítanme dejar al lector estimar el sobrecalentamiento de una sala de laboratorio físico estándar por un proceso cuántico disipativo típico: la emisión de un fotón óptico por un átomo. (Pista: es extremadamente pequeña.)
\({ }^{32}\)El FDT fue derivado por primera vez por Herbert Callen y Theodore Allen Welton en 1951, en el fondo de una derivación anterior de su límite clásico por Harry Nyquist en 1928.
\({ }^{33}\)El FDT puede probarse de varias maneras que son más cortas que la que se da a continuación - ver, por ejemplo, ya sea la prueba en SM Secs. \(5.5\)y\(5.6\) (basado en los argumentos de H. Nyquist), o el artículo original de H. Callen y T. Welton, Phys. Rev. 83, 34 (1951) -maravilloso en su claridad. El enfoque más largo que describiré aquí, además de dar la importante fórmula Green-Kubo (109) como subproducto, es un ejercicio muy útil en la manipulación del operador y la teoría de la perturbación en su forma integral, diferente de las formas diferenciales utilizadas en el Capítulo 6. Si el lector no está interesado en este ejercicio, podrá saltarse la derivación y saltar directamente al resultado expresado por la Eq. (134), que utiliza las nociones definidas por las ecuaciones (114) y (123).
\({ }_{34}\)Para entornos habituales (“ergódicos”), sin memorias intrínsecas a largo plazo, este promedio estadístico sobre un conjunto de entornos equivale a promediar en tiempos intermedios, mucho más largos que el tiempo\(\tau_{\mathrm{c}}\) de correlación del entorno, pero aún mucho más corto que el tiempo característico de evolución del sistema bajo análisis, como el tiempo de desfase\(T_{2}\) y el tiempo\(T_{1}\) de relajación energética, ambos aún por calcular.
\({ }^{35}\)En realidad, esto es cierto para prácticamente cualquier sistema físico real -en contraste con modelos idealizados como un oscilador libre de disipación que oscila para siempre y para siempre con la misma amplitud y fase, “recordando” así las condiciones iniciales.
\({ }^{36}\)Para el lector heroico que ha sufrido a través de los cálculos hasta este punto: ¡nuestro trabajo conceptual está hecho! Lo que queda es solo algunas matemáticas simples para llevar la relación entre las ecuaciones (108) y (111) a una forma explícita.
\({ }^{37}\)Debido a su importancia práctica, y ciertas cuestiones matemáticas de su justificación para funciones aleatorias, las ecuaciones (112) - (113) tienen su propio gran nombre, el teorema de Wiener-Khinchin, aunque el rigor matemático a un lado, son solo un corolario directo de la integral estándar de Fourier transformar (115).
\({ }^{38}\)Una medida popular alternativa de la densidad espectral de un proceso\(F(t)\) es\(S_{F}(v) \equiv\left\langle F_{\mathrm{f}}^{2}\right\rangle / d v=4 \pi S_{F}(\omega)\), donde\(v\)\(=\omega / 2 \pi\) está la frecuencia “cíclica” (medida en\(\mathrm{Hz}\)).
\({ }^{39}\)Usando, por ejemplo, MA Eq. (6.5a). (Las partes imaginarias de las integrales desaparecen, porque la integración en límites infinitos puede estar siempre re-centrada a los puntos finitos)\(\pm \hbar \omega\). Un lector iluminado por las matemáticas puede haber notado que las integrales podrían tomarse sin la introducción de pequeñas\(\varepsilon\), usando el teorema de Cauchy - ver MA Eq. (15.1).
\({ }^{40}\)La integración en la Ec. (123) puede extenderse a todo el eje del tiempo\(-\infty<\tau<+\infty\), si complementamos la definición (107) de la función\(G(\tau)\) para\(\tau>0\) con su definición como\(G(\tau)=0\) para\(\tau<0\), en correspondencia con el principio de causalidad.
\({ }^{41}\)Para probar esta relación, basta con tapar la expresión\(\hat{x}_{s}=\hat{x}_{\omega} e^{-i \omega t}\), o cualquier suma de tales exponentes, en las ecuaciones (107) y luego usar la definición (123). Este ejercicio (simple) es muy recomendable para el lector.
\({ }^{42}\)El signo menos en la Ec. (127) se debe a que de acuerdo con la Ec. (90),\(F\) es la fuerza ejercida sobre nuestro sistema (\((s)\)por el medio ambiente, de manera que la fuerza ejercida por nuestro sistema sobre el medio ambiente es\(-F\). Con esta clarificación de signos, la expresión\(\mathscr{P}=-F \dot{x}=-F v\) para el flujo de potencia instantánea es evidente si\(x\) es la coordenada cartesiana habitual de una partícula 1D. Sin embargo, de acuerdo con la mecánica analítica (ver, e.g., CM Capítulos 2 y 10), también es válido para cualquier par {coordenada generalizada, fuerza generalizada} que forme la interacción hamiltoniana (90).
\({ }^{43}\)En realidad, la obra de 1928 de H. Nyquist trataba sobre el ruido electrónico en las resistencias, recién descubierto experimentalmente por su colega de Bell Labs, John Bertrand Johnson. Para una resistencia óhmica, como el “ambiente” disipativo del circuito eléctrico con el que está conectado, la ecuación (137) es solo la ley de Ohm, y puede ser refundida como cualquiera\(\langle V\rangle=-R(d Q / d t)=R I\), o\(\langle I\rangle=-G(d \Phi / d t)=G V\). Así, para la tensión\(V\) a través de un circuito abierto,\(\eta\) corresponde a su resistencia\(R\), mientras que para la corriente\(I\) en un cortocircuito, a su conductancia\(G=1 / R\). En este caso, las fluctuaciones descritas por la Ec. (139) son referidas como el ruido Johnson-Nyquist. (Debido a esta importante aplicación, cualquier modelo que conduzca a la Ec. (138) se conoce comúnmente como la disipación óhmica, incluso si la naturaleza física de las variables\(x\) y\(F\) es bastante diferente de voltaje y corriente.)
\({ }^{44}\)Un proceso aleatorio cuya densidad espectral puede aproximarse razonablemente por una constante se denomina frecuentemente ruido blanco, ya que es una mezcla aleatoria de todos los componentes sinusoidales posibles con pesos iguales, recordando la composición espectral de la luz blanca natural.
\({ }^{45}\) Tenga en cuenta que en algunos campos (especialmente en la cinética física y física química), este límite particular de la fórmula Nyquist se llama la fórmula Green-Kubo (o simplemente “Kubo”). Sin embargo, a la vista de la historia de desarrollo de la FDT (descrita anteriormente), es mucho más razonable asociar estos nombres con la ecuación (109) -como se hace en la mayoría de los campos de la física.


