Saltar al contenido principal
LibreTexts Español

8.9: Procesos estocásticos

  • Page ID
    126238
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Template:MathJaxArovas

    Un proceso estocástico es aquel que es parcialmente aleatorio, no es del todo determinista. Por lo general, la aleatoriedad se debe a fenómenos a microescala, como el efecto de las moléculas de fluido sobre una partícula pequeña, como un trozo de polvo en el aire. El movimiento resultante (llamado movimiento browniano en el caso de partículas que se mueven en un fluido) puede describirse solo en un sentido estadístico. Es decir, el movimiento completo del sistema es un funcional de una o más variables aleatorias independientes. El movimiento se describe entonces por sus promedios con respecto a las diversas distribuciones aleatorias.

    Ecuación de Langevin y movimiento browniano

    Considera una partícula de masa\(M\) sometida a forzamiento disipativo y aleatorio. Examinaremos este sistema en una dimensión para obtener una comprensión de la física esencial. Escribimos\[{\dot p} + \gamma p = F + \eta(t)\ .\] Aquí,\(\gamma\) es la tasa de amortiguación debido a la fricción,\(F\) es una fuerza externa constante, y\(\eta(t)\) es una fuerza aleatoria estocástica. Esta ecuación, conocida como la ecuación de Langevin, describe una partícula balística siendo golpeada por eventos forzados aleatorios. Piense en una partícula de polvo a medida que se mueve en la atmósfera; entonces\(F\) representaría la fuerza externa debida a la gravedad y\(\eta(t)\) el forzamiento aleatorio debido a la interacción con las moléculas de aire. Para una esfera de radio que\(a\) se mueve con velocidad\(\Bv\) en un fluido, el arrastre Stokes viene dado por\(\BF\ns_{drag}=-6\pi\eta a\Bv\), donde\(a\) está el radio. Así,\[\gamma\nd_{Stokes\nd}={6\pi\eta a\over M}\ ,\] dónde\(M\) está la masa de la partícula. Es ilustrativo calcular\(\gamma\) en algún entorno. Considere una gotita de tamaño micrón (\(a=10^{-4}\,\)cm) de algún líquido de densidad\(\rho\sim 1.0\,\Rg/{cm}^3\) moviéndose en el aire a\(T=20^\circ\,\RC\). La viscosidad del aire está\(\eta=1.8\times 10^{-4}\,\Rg/{cm}\cdot\Rs\) a esta temperatura 16. Si la densidad de gotitas es constante, entonces\(\gamma=9\eta/2\rho a^2=8.1\times 10^4\,\Rs^{-1}\), de ahí la escala de tiempo para la relajación viscosa de la partícula es\(\tau=\gamma^{-1}=12\,\mu\Rs\). Debemos enfatizar que el amortiguamiento viscoso en la partícula se debe, por supuesto, a las moléculas de fluido, en algún sentido promedio de “grano grueso”. El componente aleatorio a la fuerza\(\eta(t)\) representaría entonces las fluctuaciones con respecto a este promedio.

    Podemos integrar fácilmente esta ecuación:\[\begin{split} {d\over dt}\,\big(p\,e^{\gamma t}\big)&=F\,e^{\gamma t} + \eta(t)\,e^{\gamma t}\\ p(t)&=p(0)\,e^{-\gamma t} +{F\over\gamma}\>\big(1-e^{-\gamma t}\big) + \int\limits_0^t\!\!ds\>\eta(s)\,e^{\gamma (s-t)} \end{split}\] Tenga en cuenta que de hecho\(p(t)\) es una función funcional de la función aleatoria\(\eta(t)\). Por lo tanto, solo podemos calcular promedios para describir el movimiento del sistema.

    El primer promedio que vamos a calcular es el de\(p\) sí mismo. Al hacerlo, asumimos que\(\eta(t)\) tiene cero media:\(\big\langle\eta(t)\big\rangle=0\). Entonces,\[\blangle p(t)\brangle = p(0)\,e^{-\gamma t} +{F\over\gamma}\>\big(1-e^{-\gamma t}\big) \ .\] en la escala de tiempo\(\gamma^{-1}\), las condiciones iniciales\(p(0)\) son efectivamente olvidadas, y asintóticamente para\(t\gg\gamma^{-1}\) nosotros\(\big\langle p(t)\big\rangle \to F/\gamma\), que es el impulso terminal.

    A continuación, considere Ahora\[\begin{aligned} \blangle p^2(t)\brangle&=\blangle p(t)\brangle^{\!2} + \int\limits_0^t\!\!ds\ns_1\!\!\int\limits_0^t\!\!ds\ns_2\>e^{\gamma(s\ns_1-t)}\,e^{\gamma(s\ns_2-t)}\> \blangle \eta(s\ns_1)\,\eta(s\ns_2)\brangle\ .\end{aligned}\] necesitamos conocer el correlador de dos veces\(\big\langle \eta(s\ns_1)\,\eta(s\ns_2)\big\rangle\). Suponemos que el correlador es una función solo de la diferencia de tiempo\(\RDelta s = s\ns_1-s\ns_2\), de manera que la fuerza aleatoria\(\eta(s)\) satisface\[\begin{aligned} \blangle \eta(s)\brangle &=0\\ \blangle \eta(s\ns_1)\,\eta(s\ns_2)\brangle &=\phi(s\ns_1-s\ns_2)\ .\end{aligned}\] La función\(\phi(s)\) es la función de autocorrelación de la fuerza aleatoria. Un objeto macroscópico que se mueve en un fluido es constantemente azotado por partículas de fluido en todo su perímetro. Estas diferentes partículas de fluido están casi completamente descorrelacionadas, por lo tanto,\(\phi(s)\) es básicamente distinta de cero excepto en una escala de tiempo muy pequeña\(\tau\ns_\phi\), que es el tiempo que una sola partícula de fluido pasa interactuando con el objeto. Podemos tomar\(\tau\ns_\phi\to 0\) y aproximar\[\phi(s)\approx\Gamma\,\delta(s)\ .\] Determinaremos el valor de\(\Gamma\) a partir de consideraciones termodinámicas de equilibrio a continuación.

    Con esta forma para\(\phi(s)\), podemos calcular fácilmente la autocorrelación de impulso de tiempo igual:\[\begin{split} \blangle p^2(t)\brangle &=\blangle p(t)\brangle^{\!2} + \Gamma\!\!\int\limits_0^t\!\!ds\>e^{2\gamma(s-t)}\\ &=\blangle p(t)\brangle^{\!2} + {\Gamma\over 2\gamma}\,\big(1-e^{-2\gamma t}\big)\ . \end{split}\] Considere el caso donde\(F=0\) y el límite\(t\gg\gamma^{-1}\). Exigimos que el objeto se termalice a temperatura\(T\). Así, imponemos la condición\[\bigg\langle {p^2(t)\over 2M}\bigg\rangle = \half\kT \qquad\Longrightarrow\qquad \Gamma=2\gamma M\kT \quad,\] donde\(M\) está la masa de la partícula. Esto determina el valor de\(\Gamma\).

    Ahora podemos calcular el autocorrelador de impulso general:\[\begin{split} \blangle p(t)\,p(t')\brangle -\blangle p(t)\brangle \blangle p(t')\brangle &= \int\limits_0^t\!\!ds\!\int\limits_0^{t'}\!\!ds'\> e^{\gamma(s-t)}\,e^{\gamma(s'-t')}\,\blangle\eta(s)\,\eta(s')\brangle\\ &=M\kT\, e^{-\gamma |t-t'|} \qquad (t,t'\to\infty\ ,\ |t-t'|\ {finite})\ . \end{split}\] Las expresiones completas para esta y las expresiones posteriores, incluidos los términos subprincipales, están contenidas en un apéndice, § 14.

    Ahora calculemos la posición\(x(t)\). Encontramos\[\ x(t)=\blangle x(t)\brangle + {1\over M}\!\int\limits_0^t\!\!ds\!\int\limits_0^{s}\!\!ds\ns_1\>\eta(s\ns_1)\,e^{\gamma(s\ns_1-s)}\ ,\] donde\[\blangle x(t)\brangle=x(0)+{Ft\over \gamma M} + {1\over\gamma}\bigg(v(0)-{F\over\gamma M}\bigg)\,\big(1-e^{-\gamma t}\big)\ .\] Nótese que para\(\gamma t\ll 1\) nosotros tenemos\(\big\langle x(t)\big\rangle = x(0)+v(0)\, t + \half M^{-1} F t^2 + \CO(t^3)\), como es apropiado para partículas balísticas que se mueven bajo la influencia de una fuerza constante. Este largo límite de tiempo, por supuesto, concuerda con nuestra evaluación anterior para la velocidad terminal,\(v\ns_\infty=\big\langle p(\infty)\big\rangle/M = F/\gamma M\). A continuación calculamos la autocorrelación de posición:\[\begin{split} \blangle x(t)\,x(t')\brangle - \blangle x(t)\brangle \blangle x(t')\brangle & = {1\over M^2}\!\int\limits_0^t\!\!ds\! \int\limits_0^{t'}\!\!ds'\>e^{-\gamma(s+s')}\!\int\limits_0^s\!\!ds\ns_1\!\int\limits_0^{s'}\!\!ds'_1\> e^{\gamma(s\ns_1+s\ns_2)}\,\blangle\eta(s\ns_1)\,\eta(s\ns_2)\brangle\nonumber\\ &= {2\kT\over \gamma M}\textsf{min}(t,t') + \CO(1)\ . \end{split}\] En particular, el autocorrelador de tiempo igual es\[\blangle x^2(t)\brangle - \blangle x(t)\brangle^{\!2} = {2\kT\,t\over \gamma M} \equiv 2D\,t\ ,\] en tiempos largos, hasta términos de unidad de orden. Aquí,\[D={\kT\over \gamma M}\] está la constante de difusión. Para una gotita de líquido de radio que\(a=1\,\mu\Rm\) se mueve en el aire a\(T=293\,\RK\)\(\eta=1.8\times 10^{-4}\,\RP\), para lo cual, tenemos\[D={\kT\over 6\pi\eta a}={(1.38\times 10^{-16}\,{erg}/\RK)\, (293\,\RK)\over 6\pi\, (1.8\times 10^{-4}\,\RP)\,(10^{-4}\,{cm})}=1.19\times 10^{-7}\,{cm}^2/\Rs\ .\] Este resultado presume que la gotita es lo suficientemente grande en comparación con la distancia intermolecular en el fluido que se puede adoptar un enfoque continuo y utilizar las ecuaciones de Navier-Stokes, y luego asumiendo un flujo laminar.

    Si consideramos la difusión molecular, la situación es bastante diferente. Como derivaremos a continuación en § 10.3, la constante de difusión molecular es\(D=\ell^2/2\tau\), donde\(\ell\) está la trayectoria libre media y\(\tau\) es el tiempo de colisión. Como encontramos en la Ecuación [nutaueqn], la trayectoria libre media\(\ell\), el tiempo de colisión\(\tau\), la densidad\(n\) numérica y la sección transversal de dispersión total\(\sigma\) están relacionados por\[\ell={\bar v}\tau = {1\over\sqrt{2}\,n\sigma}\ ,\] dónde\({\bar v}=\sqrt{8\kT/\pi m}\) está la velocidad promedio de las partículas. Aproximando las partículas como esferas duras, tenemos\(\sigma=4\pi a^2\), donde\(a\) está el radio de la esfera dura. En\(T=293\,\RK\), y\(p=1\,{atm}\), tenemos\(n=p/\kT=2.51\times 10^{19}\,{cm}^{-3}\). Dado que el aire está compuesto predominantemente por\(\RN\ns_2\) moléculas, tomamos\(a=1.90\times 10^{-8}\,\) cm y\(m=28.0\,{amu} = 4.65\times 10^{-23}\,\Rg\), que son apropiados para\(\RN\ns_2\). Encontramos una velocidad promedio de\({\bar v}=471\,\Rm/\Rs\) y una trayectoria libre media de\(\ell=6.21\times 10^{-6}\,\) cm. Por lo tanto,\(D=\half\ell{\bar v}=0.146\,{cm}^2/\Rs\). Aunque mucho más grande que la constante de difusión para las gotas grandes, esto es todavía demasiado pequeño para explicar experiencias comunes. Supongamos que establecemos la escala de distancia característica en\(d=10\,{cm}\) y preguntamos cuánto tiempo tardaría una fuente puntual en difundirse a este radio. La respuesta es\(\RDelta t=d^2/2D=343\,\Rs\), que está entre cinco y seis minutos. Sin embargo, si alguien en el siguiente asiento emite un mal olor, tu sentido la emisión ofensiva en el orden de un segundo. Lo que esto nos dice es que la difusión no es el único proceso de transporte involucrado en estos y fenómenos similares. Más importantes son las corrientes de convección que distribuyen el aroma mucho más rápidamente.

    Ecuación de Langevin para una partícula en un pozo armónico

    Consideremos a continuación la ecuación\[M{\ddot X} +\gamma M {\dot X} + M\omega_0^2 X = F\ns_0 + \eta(t)\ ,\] donde\(F\ns_0\) es una fuerza constante. Escribimos\(X=\frac{F\ns_0}{M\omega_0^2} + x\) y medimos\(x\) relativo al mínimo potencial, rindiendo\[{\ddot x}+ \gamma\, {\dot x} + \omega_0^2\, x = {1\over M}\,\eta(t)\ .\] En este punto hay varias formas de proceder.

    Quizás lo más sencillo es mediante el uso de la transformación de Laplace. Recordemos: de\[\begin{aligned} {\hat x}(\nu)&=\int\limits_0^\infty\!\!dt\>e^{-\nu t}\,\eta(\nu)\\ x(t)&=\int\limits_{\cal C}\!\!{d\nu\over 2\pi i}\>e^{+\nu t}\,{\hat x}(\nu)\ ,\end{aligned}\] donde\({\cal C}\) procede el contorno\(a-i\infty\) a\(a+i\infty\) tal que todos los polos del integrand se encuentran a la izquierda de\({\cal C}\). Entonces tenemos\[\begin{aligned} {1\over M} \int\limits_0^\infty\!\! dt\> e^{-\nu t} \,\eta(t)&={1\over M} \int\limits_0^\infty\!\!dt\> e^{-\nu t}\,\Big( {\ddot x}+ \gamma\, {\dot x} + \omega_0^2\, x\Big)\nonumber\\ &=-(\nu+\gamma)\,x(0) - {\dot x}(0) + \big(\nu^2 + \gamma \nu +\omega_0^2\big)\,{\hat x}(\nu)\ .\end{aligned}\] Así, tenemos\[{\hat x}(\nu)={(\nu+\gamma)\,x(0) + {\dot x}(0) \over \nu^2 + \gamma \nu +\omega_0^2} + {1\over M}\cdot{1\over \nu^2 + \gamma \nu +\omega_0^2} \>\int\limits_0^\infty\!\!dt\>e^{-\nu t}\,\eta(t)\ .\] Ahora podemos escribir\[\nu^2 + \gamma \nu +\omega_0^2=(\nu-\nu\ns_+)(\nu-\nu\ns_-)\ ,\] donde\[\nu\ns_\pm=-\half\gamma\pm\sqrt{\fourth\gamma^2-\omega_0^2}\ .\] Note eso\(\textsf{Re}\,(\nu\ns_\pm) \le 0\) y aquello\(\gamma+\nu\ns_\pm=-\nu\ns_\mp\).

    Al realizar la transformada inversa de Laplace, obtenemos\[\begin{split} x(t)&={x(0)\over\nu\ns_+-\nu\ns_-} \Big( \nu\ns_+ \, e^{\nu\ns_- t} - \nu\ns_- \, e^{\nu\ns_+ t} \Big) + { {\dot x}(0)\over \nu\ns_+-\nu\ns_-} \Big( e^{\nu\ns_+ t} -e^{\nu\ns_- t} \Big) \\ &\qquad\qquad + \int\limits_0^\infty\!\!ds\> K(t-s)\,\eta(s)\ , \end{split}\] dónde\[K(t-s)={\RTheta(t-s)\over M\,(\nu\ns_+-\nu\ns_-) }\,\Big(e^{\nu\ns_+(t-s)} - e^{\nu\ns_-(t-s)}\Big)\] está el kernel de respuesta y\(\RTheta(t-s)\) es la función step que es unidad para\(t>s\) y cero de lo contrario. La respuesta es causal,\(x(t)\) depende de\(\eta(s)\) para todos los tiempos previos\(s < t\), pero no para tiempos futuros\(s>t\). Tenga en cuenta que\(K(\tau)\) decae exponencialmente para\(\tau\to\infty\), si\(\textsf{Re}(\nu\ns_{\pm}) < 0\). El caso marginal donde\(\omega\ns_0=0\) y\(\nu\ns_+=0\) corresponde al cálculo de difusión que realizamos en el apartado anterior.

    Paseo aleatorio discreto

    Considera que un objeto se mueve sobre una celosía unidimensional de tal manera que cada vez que paso se mueve ya sea una unidad a la derecha o a la izquierda, al azar. Si el espaciado de celosía es\(\ell\), entonces después de pasos de\(n\) tiempo la posición será\[x\ns_n=\ell\sum_{j=1}^n\sigma\ns_j\ ,\] donde\[\sigma\ns_j=\begin{cases} +1 & \hbox{if motion is one unit to right at time step $j$}\\ -1 & \hbox{if motion is one unit to left at time step $j$\ .} \end{cases}\] Claramente\(\langle\sigma\ns_j\rangle=0\), así\(\langle x\ns_n\rangle=0\). Ahora vamos a calcular\[\blangle x^2_n\brangle = \ell^2\sum_{j=1}^n\sum_{j'=1}^n\langle\sigma\ns_j\sigma\ns_{j'}\rangle = n\ell^2\ ,\] donde invocamos\[\blangle\sigma\ns_j \sigma\ns_{j'}\brangle = \delta\ns_{jj'}\ .\] Si la longitud de cada paso de tiempo es\(\tau\), entonces tenemos, con\(t=n\tau\),\[\blangle x^2(t)\brangle = {\ell^2\over\tau}\,t\ ,\] e identificamos la constante de difusión\[D={\ell^2\over 2\tau}\ .\]

    Supongamos, sin embargo, que la caminata aleatoria está sesgada, de manera que la probabilidad para cada paso independiente viene dada por\[P(\sigma)=p\,\delta\ns_{\sigma,1} + q\,\delta\ns_{\sigma,-1}\ ,\] dónde\(p+q=1\). Entonces\[\langle\sigma\ns_j\rangle=p-q=2p-1\] y\[\begin{split} \langle\sigma\ns_j\sigma\ns_{j'}\rangle &= (p-q)^2\,\big( 1-\delta\ns_{jj'}\big) + \delta\ns_{jj'}\\ &=(2p-1)^2 + 4\,p\,(1-p) \,\delta\ns_{jj'}\ . \end{split}\] Entonces\[\begin{aligned} \langle x\ns_n\rangle &= (2p-1) \,\ell n\\ \blangle x^2_n\brangle - \blangle x\ns_n\brangle^{\!2} & = 4\,p\,(1-p)\,\ell^2 n\ .\end{aligned}\]

    Ecuación de Fokker-Planck

    Supongamos que\(x(t)\) es una variable estocástica. Definimos la cantidad\[\delta x(t)\equiv x(t+\delta t)-x(t)\ ,\] y asumimos\[\begin{aligned} \big\langle\delta x(t)\big\rangle&=F_1\big(x(t)\big)\,\delta t\\ \big\langle\big[\delta x(t)\big]^2\big\rangle&=F_2\big(x(t)\big)\,\delta t\end{aligned}\] pero\(\big\langle\big[\delta x(t)\big]^n\big\rangle=\CO\big((\delta t)^2\big)\) para\(n>2\). El\(n=1\) término se debe a la deriva y el\(n=2\) término se debe a la difusión. Consideremos ahora la densidad de probabilidad condicional\(P(x,t\,|\,x\ns_0,t\ns_0)\),, definida como la distribución de probabilidad para\(x\equiv x(t)\) dado eso\(x(t\ns_0)=x\ns_0\). La densidad de probabilidad condicional satisface la regla de composición,\[P(x\ns_2,t\ns_2\,|\,x\ns_0,t\ns_0)=\int\limits_{-\infty}^\infty\!\!\!dx\ns_1\,P(x\ns_2,t\ns_2\,|\,x\ns_1,t\ns_1)\,P(x\ns_1,t\ns_1\,|\,x\ns_0,t\ns_0)\ ,\] para cualquier valor de\(t\ns_1\). Esto también se conoce como la ecuación de Chapman-Kolmogorov. En palabras, lo que dice es que la densidad de probabilidad para que una partícula esté en el\(x\ns_2\) momento\(t\ns_2\), dado que estaba en el\(x\ns_0\) momento\(t\ns_0\), viene dada por el producto de la densidad de probabilidad por estar en el\(x\ns_2\) momento\(t\ns_2\) dado que estaba\(x\ns_1\) en \(t\ns_1\), multiplicado por eso por estar\(x\ns_1\) en\(t\ns_1\) dado estaba en\(x\ns_0\) at\(t\ns_0\), integrado sobre\(x\ns_1\). Esto debería ser intuitivamente obvio, ya que si elegimos en algún momento\(t\ns_1\in [t\ns_0,t\ns_2]\), entonces la partícula tenía que estar en algún lugar en ese momento. En efecto, uno se pregunta cómo Chapman y Kolmogorov consiguieron apegarse sus nombres a un resultado que es tan obvio. En todo caso, una imagen vale más que mil palabras: ver Figura [FChakol].

    [FChakol] Croquis interpretativo de las matemáticas detrás de la ecuación de Chapman-Kolmogorov.

    Procediendo, podemos escribir\[P(x,t+\delta t\,|\,x\ns_0,t\ns_0)=\int\limits_{-\infty}^\infty\!\!\!dx'\,P(x,t+\delta t\,|\,x',t)\,P(x',t\,|\,x\ns_0,t\ns_0)\ . \label{CGEFPE}\] Ahora\[\begin{aligned} P(x,t+\delta t\,|\,x',t)&=\big\langle\delta\big(x-\delta x(t)-x'\big)\big\rangle\nonumber\\ &=\bigg\{ 1 + \big\langle \delta x(t)\big\rangle\, {d\over dx'} + \half\big\langle\big[\delta x(t)\big]^2\big\rangle\,{d^2\over d{x'}^2} + \ldots\bigg\}\,\delta(x-x')\\ &=\delta(x-x') + F\ns_1(x')\,{d\,\delta(x-x')\over dx'}\>\delta t + \half F\ns_2(x')\,{d^2\!\delta(x-x')\over d {x'}^2}\>\delta t + \CO\big( (\delta t)^2\big)\ ,\nonumber\end{aligned}\] donde el promedio está por encima de las variables aleatorias. Ahora insertamos este resultado en la Ecuación [CGEFPE], integramos por partes, dividimos por\(\delta t\), y luego tomamos el límite\(\delta t\to 0\). El resultado es la ecuación de Fokker-Planck,\[{\pz P\over\pz t}=-{\pz\over\pz x}\big[ F_1(x)\,P(x,t)\big] + {1\over 2}\, {\pz^2\over \pz x^2}\big[ F_2(x)\,P(x,t)\big]\ .\]

    Movimiento browniano redux

    Apliquemos nuestra ecuación de Fokker-Planck a una descripción del movimiento browniano. De nuestros resultados anteriores, tenemos\[F\ns_1(x)={F\over\gamma M} \qquad,\qquad F\ns_2(x)=2D\ .\] Una prueba formal de estos resultados se deja como un ejercicio para el lector. La ecuación de Fokker-Planck es entonces\[{\pz P\over\pz t}=-u\,{\pz P\over\pz x} + D\,{\pz^2\!P\over\pz x^2}\ , \label{FPEBM}\] donde\(u=F/\gamma M\) está la velocidad terminal promedio. Si hacemos una transformación galileana y definimos\[y=x-ut\qquad,\qquad s=t\] entonces nuestra ecuación de Fokker-Planck toma la forma\[{\pz P\over\pz s}=D\,{\pz^2\!P\over\pz y^2}\ .\] Esto se conoce como la ecuación de difusión. La ecuación [FPEBM] es también una ecuación de difusión, renderizada en un marco móvil.

    Si bien la transformación galileana es iluminadora, podemos resolver fácilmente la Ecuación [FPEBM] sin ella. Echemos un vistazo a esta ecuación después de la transformación de Fourier de\(x\) a\(q\):\[\begin{aligned} P(x,t)&=\int\limits_{-\infty}^\infty\!\!{dq\over 2\pi}\>e^{iqx}\>{\hat P}(q,t)\\ {\hat P}(q,t)&=\int\limits_{-\infty}^\infty\!\!\!dx\>e^{-iqx}\>P(x,t)\ .\end{aligned}\] Entonces como ya debería ser bien conocido por usted, podemos reemplazar el operador\({\pz\over\pz x}\) con multiplicación por\(iq\), resultando en\[{\pz\over\pz t}\,{\hat P}(q,t)=-(D q^2 + i q u)\,{\hat P}(q,t)\ ,\] con solución Ahora\[{\hat P}(q,t)=e^{-Dq^2 t}\,e^{-iqut}\,{\hat P}(q,0) \ .\] aplicamos la transformada inversa para volver a\(x\) -space:\[\begin{split} P(x,t)&=\int\limits_{-\infty}^\infty\!\!{dq\over 2\pi}\>e^{iqx} \,e^{-Dq^2 t}\,e^{-iqut}\!\!\! \int\limits_{-\infty}^\infty\!\!\!dx'\>e^{-iqx'}\>P(x',0)\\ &=\int\limits_{-\infty}^\infty\!\!\!dx'\>P(x',0)\!\!\int\limits_{-\infty}^\infty\!\!{dq\over 2\pi}\>e^{-Dq^2 t}\,e^{iq(x-ut-x')}\\ &=\int\limits_{-\infty}^\infty\!\!\!dx'\> K(x-x',t)\,P(x',0)\ , \end{split}\] donde\[K(x,t)={1\over\sqrt{4\pi Dt}}\>e^{-(x-ut)^2/4Dt}\] esta el kernel de difusión. Ahora tenemos una receta para obtener\(P(x,t)\) dadas las condiciones iniciales\(P(x,0)\). Si\(P(x,0)=\delta(x)\), describiendo una partícula confinada a una región infinitesimal sobre el origen, entonces\(P(x,t)=K(x,t)\) es la distribución de probabilidad para encontrar la partícula en el\(x\) momento\(t\). Hay dos aspectos a los\(K(x,t)\) que amerita comentario. La primera es que el centro de la distribución se mueve con velocidad\(u\). Esto se debe a la presencia de la fuerza externa. El segundo es que la desviación\(\sigma=\sqrt{2Dt}\) estándar va aumentando en el tiempo, por lo que la distribución no sólo está desplazando su centro sino que también se va ampliando a medida que evoluciona el tiempo. Este movimiento del centro y ensanchamiento son lo que hemos denominado deriva y difusión, respectivamente.

    Ecuación maestra

    Otra forma de modelar procesos estocásticos es a través de la ecuación maestra, la cual se discutió en el capítulo 3. Recordemos que si\(P\ns_i(t)\) es la probabilidad de que un sistema esté en estado\(\sket{i}\) en tiempo\(t\) y\(W\ns_{ij}\) es la tasa de transición de estado\(\sket{j}\) a estado\(\sket{i}\), entonces\[{dP\ns_i\over dt}=\sum_j \big(W\ns_{ij} P\ns_j - W\ns_{ji} P\ns_i\big)\ .\] Consideremos un proceso de nacimiento-muerte en el que los estados\(\sket{n}\) son etiquetados por enteros no negativos. Dejar\(\alpha\ns_n\) denotar la tasa de transiciones desde\(\sket{n}\to\sket{n+1}\) y dejar\(\beta\ns_n\) denotar la tasa de transiciones de\(\sket{n}\to\sket{n-1}\). La ecuación maestra toma entonces la forma 17\[{dP\ns_n\over dt}=\alpha\ns_{n-1} P\ns_{n-1} + \beta\ns_{n+1} P\ns_{n+1} - \big(\alpha\ns_n + \beta\ns_n\big) P\ns_n\ . \label{MEPab}\]

    Supongamos que podemos escribir\(\alpha\ns_n=K{\bar\alpha}(n/K)\) y\(\beta\ns_n=K{\bar\beta}(n/K)\), dónde\(K\gg 1\). Suponemos que la distribución\(P\ns_n(t)\) tiene un máximo dependiente del tiempo en\(n=K\phi(t)\) y un ancho proporcional a\(\sqrt{K}\). Nos expandimos relativo a este máximo, escribiendo\(n\equiv K\phi(t) + \sqrt{K}\,\xi\) y definimos\(P\ns_n(t)\equiv \Pi(\xi,t)\). Ahora reescribimos la ecuación maestra en la Ecuación [MePAb] en términos de\(\Pi(\xi,t)\). Dado que\(n\) es una variable independiente, establecemos\[dn=K\Dphi\,dt + \sqrt{K}\,d\xi \quad \Rightarrow \quad d\xi\big|\ns_n = -\sqrt{K}\,\Dphi\,dt\ .\] Por lo tanto\[{dP\ns_n\over dt} = -\sqrt{K}\,\Dphi\>{\pz\Pi\over\pz\xi} + {\pz\Pi\over\pz t}\ .\] Siguiente, escribimos, para cualquier función\(f\ns_n\,\),\[\begin{split} f\ns_n &= K f\big(\phi + K^{-1/2}\xi\big) \\ &= K f(\phi) + K^{1/2}\,\xi\,f'(\phi) + \half\,\xi^2\,f''(\phi) + \ldots\ . \end{split}\] Similarmente,\[\begin{split} f\ns_{n\pm 1} &= K f\big(\phi + K^{-1/2}\xi \pm K^{-1}\big) \\ &= K f(\phi) + K^{1/2}\,\xi\,f'(\phi) \pm f'(\phi) + \half\,\xi^2\,f''(\phi) + \ldots\ . \end{split}\] Dividiendo ambos lados de la Ecuación [MePAb] por\(\sqrt{K}\), tenemos\[-{\pz\Pi\over\pz\xi} \ \Dphi + K^{-1/2}\,{\pz\Pi\over\pz t} = ({\bar\beta}- {\bar\alpha}) \, {\pz\Pi\over\pz\xi} +K^{-1/2} \bigg\{ ({\bar\beta}' - {\bar\alpha}')\,\xi\,{\pz\Pi\over\pz\xi} + \half ({\bar\alpha}+ {\bar\beta}) \,{\pz^2\!\Pi\over\pz\xi^2} + ({\bar\beta}'-{\bar\alpha}')\Pi \bigg\} + \ldots\ .\] Ecuando términos de orden\(K^0\) arroja el Ecuación\[\Dphi=f(\phi)\equiv {\bar\alpha}(\phi)-{\bar\beta}(\phi)\ . \label{Dphieqn}\] Al igualar términos de orden se\(K^{-1/2}\) obtiene la ecuación de Fokker-Planck,\[{\pz\Pi\over\pz t} = -f'\big(\phi(t)\big)\,{\pz\over\pz\xi}\,\big(\xi\,\Pi\big) +\half g\big(\phi(t)\big)\,{\pz^2\!\Phi\over\pz\xi^2}\ , \label{FPEPi}\] donde\(g(\phi)\equiv{\bar\alpha}(\phi)+{\bar\beta}(\phi)\). Si en el límite\(t\to\infty\), la Ecuación [Dphieqn] evoluciona a un punto fijo estable\(\phi^*\), entonces la solución estacionaria de la Ecuación de Fokker-Planck [FpePi],\(\Pi\ns_{eq}(\xi)=\Pi(\xi,t=\infty)\) debe satisfacer\[-f'(\phi^*)\,{\pz\over\pz\xi}\,\big(\xi\,\Pi\ns_{eq}\big) + \half\, g(\phi^*)\,{\pz^2\!\Pi\ns_{eq}\over\pz\xi^2}=0 \quad \Rightarrow \quad \Pi\ns_{eq}(\xi)={1\over\sqrt{2\pi\sigma^2}}\,e^{-\xi^2/2\sigma^2}\ ,\] donde\[\sigma^2 = -{g(\phi^*)\over 2f'(\phi^*)}\ .\] Ahora ambos\(\alpha\) y\(\beta\) son tasas, de ahí ambos son positivos y por lo tanto\(g(\phi)>0\). Vemos que la condición\(\sigma^2>0\), que es necesaria para una distribución de equilibrio normalizable, requiere\(f'(\phi^*)<0\), lo que es decir que el punto fijo en la Ecuación [Dphieqn] es estable.


    This page titled 8.9: Procesos estocásticos is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Daniel Arovas.