Saltar al contenido principal
LibreTexts Español

1.1: Propiedades estadísticas de las caminatas aleatorias

  • Page ID
    126476
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Template:MathJaxArovas

    Caminata aleatoria unidimensional

    Considere el sistema mecánico representado en la Fig. \(\PageIndex{1}\), una versión de la cual a menudo se vende en tiendas de novedad. Se libera una pelota desde arriba, la cual cae en cascada consecutivamente a través de\(N\) niveles. Los detalles del movimiento de cada bola se rigen por las leyes de movimiento de Newton. Sin embargo, predecir dónde terminará cualquier bola dada en la fila inferior es difícil, porque la trayectoria de la pelota depende sensiblemente de sus condiciones iniciales, e incluso puede estar influenciada por vibraciones aleatorias de todo el aparato. Por lo tanto, abandonamos toda esperanza de integrar las ecuaciones de movimiento y tratar estadísticamente al sistema. Es decir, suponemos, en cada nivel, que la pelota se mueve hacia la derecha con probabilidad\(p\) y hacia la izquierda con probabilidad\(q=1-p\). Si no hay sesgo en el sistema, entonces\(p=q=\half\). La posición\(X\ns_N\) después de\(N\) los pasos puede ser escrita

    \[X=\sum_{j=1}^N \sigma\ns_j\ ,\]

    donde\(\sigma\ns_j=+1\) si el balón se mueve hacia la derecha a nivel\(j\), y\(\sigma\ns_j=-1\) si el balón se mueve hacia la izquierda a nivel\(j\). En cada nivel, la probabilidad de estos dos resultados viene dada por

    \[P\ns_\sigma=p\,\delta\ns_{\sigma,+1} + q\,\delta\ns_{\sigma,-1} = \begin{cases} p & \hbox{if $\sigma=+1$} \\ q & \hbox{if $\sigma=-1$}\ . \end{cases}\]

    Esta es una distribución de probabilidad discreta normalizada del tipo discutido en la sección 4 a continuación. La distribución multivariante para todos los pasos es entonces

    \[P(\sigma\ns_1\, , \, \ldots \, , \sigma\ns_N)=\prod_{j=1}^N P(\sigma\ns_j)\ .\]

    Nuestro sistema es equivalente a una caminata aleatoria unidimensional. Imagínese a un peatón ebrio en una acera dando pasos a la derecha y a la izquierda al azar. Después de\(N\) escalones, la ubicación del peatón es\(X\).

    El sistema de bola descendente, que imita una caminata aleatoria unidimensional.

    Figura\(\PageIndex{1}\): El sistema de bola descendente, que imita una caminata aleatoria unidimensional.

    Ahora vamos a calcular el promedio de\(X\):

    \[\langle X\rangle = \big\langle\sum_{j=1}^N \sigma\ns_j\big\rangle = N\langle\sigma\rangle = N\!\! \sum_{\sigma=\pm 1} \!\! \sigma \, P(\sigma) =N(p-q)=N(2p-1)\ .\]

    Esto podría identificarse como una ecuación de estado para nuestro sistema, ya que relaciona una cantidad medible\(X\) con el número de pasos\(N\) y el sesgo local\(p\). A continuación, calculemos el promedio de\(X^2\):

    \[\langle X^2\rangle = \sum_{j=1}^N\sum_{j'=1}^N \langle \sigma\ns_j \sigma\ns_{j'} \rangle = N^2(p-q)^2 + 4Npq\ .\]

    Aquí hemos usado

    \[\langle\sigma\ns_j \sigma\ns_{j'} \rangle = \delta\ns_{jj'} + \big(1-\delta\ns_{jj'}\big) (p-q)^2 = \begin{cases} 1 & \hbox{ if $j=j'$} \\ (p-q)^2 & \hbox{ if $j\ne j'$}\ .\end{cases}\]

    Tenga en cuenta que\(\langle X^2\rangle \ge \langle X\rangle^2\), que debe ser así porque

    \[{ Var}(X)=\langle (\Delta X)^2\rangle \equiv \big\langle \big( X - \langle X \rangle \big) ^2 \big\rangle = \langle X^2 \rangle - \langle X \rangle^2\ .\]

    Esto se llama la varianza de\(X\). Nosotros tenemos\({ Var}(X)=4Np\,q\). La desviación cuadrática media de la raíz\(\Delta X\ns_{ rms}\),, es la raíz cuadrada de la varianza:\(\Delta X\ns_{ rms}=\sqrt{{ Var}(X)}\). Tenga en cuenta que el valor medio de\(X\) es linealmente proporcional a\(N\) 1, pero las fluctuaciones RMS\(\Delta X\ns_{ rms}\) son proporcionales a\(N^{1/2}\). En el límite\(N\to\infty\) entonces, la proporción se\(\Delta X\ns_{ rms}/\langle X\rangle\) desvanece como\(N^{-1/2}\). Esto es consecuencia del teorema del límite central (ver § 4.2 más adelante), y volveremos a encontrarnos con él en varias ocasiones.Podemos hacerlo aún mejor. Podemos encontrar la distribución de probabilidad completa para\(X\). Está dado por

    \[P\ns_{N,X}={N\choose N\ns_\ssr{R}}\,p^{N\ns_\ssr{R}}\,q^{N\ns_\ssr{L}}\ ,\]

    donde\(N\ns_\ssr{R/L}\) están los números de pasos dados a la derecha/izquierda, con\(N=N\ns_\ssr{R}+N\ns_\ssr{L}\), y\(X=N\ns_\ssr{R}-N\ns_\ssr{L}\). Hay muchas formas independientes de dar\(N\ns_\ssr{R}\) pasos hacia la derecha. Por ejemplo, nuestros primeros\(N\ns_\ssr{R}\) pasos podrían ser todos a la derecha, y los\(N\ns_\ssr{L}=N-N\ns_\ssr{R}\) pasos restantes serían entonces todos a la izquierda. O nuestros últimos\(N\ns_\ssr{R}\) pasos podrían estar todos a la derecha. Para cada una de estas posibilidades independientes, la probabilidad es\(p^{N\ns_\ssr{R}}\,q^{N\ns_\ssr{L}}\). ¿Cuántas posibilidades hay? Combinatoria elemental nos dice que este número es

    \[{N\choose N\ns_\ssr{R}}={N!\over N\ns_\ssr{R}!\,N\ns_\ssr{L}!}\ .\]

    Tenga en cuenta que\(N\pm X=2N\ns_\ssr{R/L}\), para que podamos reemplazar\(N\ns_\ssr{R/L}=\half(N\pm X)\). Por lo tanto,

    \[P\ns_{N,X}={N!\over \big({N+X\over 2}\big)! \, \big({N-X\over 2}\big)!} \, p^{(N+X)/2}\,q^{(N-X)/2}\ . \label{bdexact}\]

    Límite termodinámico

    Considera el límite\(N\to\infty\) pero con\(x\equiv X/N\) finito. Esto es análogo a lo que se llama el límite termodinámico en la mecánica estadística. Dado que\(N\) es grande,\(x\) puede considerarse una variable continua. Evaluamos\(\ln P\ns_{N,X}\) usando la expansión asintótica de Stirling

    \[\ln N! \simeq N\ln N - N + \CO(\ln N)\ .\]

    Entonces tenemos

    \[\begin{split} \ln P\ns_{N,X}&\simeq N\ln N - N - \half N (1+x) \ln\Big[\half N (1+x)\Big] + \half N (1+x) \\ & - \half N (1-x) \ln\Big[\half N (1-x)\Big] + \half N (1-x) + \half N(1+x)\,\ln p + \half N(1-x)\,\ln q \\ &= -N\Big[ \big(\frac{1+x}{2}\big) \ln\big(\frac{1+x}{2}\big) + \big(\frac{1-x}{2}\big) \ln\big(\frac{1-x}{2}\big) \Big] +N\Big[\big(\frac{1+x}{2}\big)\ln p + \big(\frac{1-x}{2}\big)\ln q\Big]\ . \end{split}\]

    Observe que los términos proporcionales a\(N\ln N\) tener todos cancelados, dejándonos con una cantidad que es lineal en\(N\). Por lo tanto, podemos escribir\(\ln P\ns_{N,X}=-N f(x) + \CO(\ln N)\), donde

    \[f(x)=\Big[\big(\frac{1+x}{2}\big) \ln\big(\frac{1+x}{2}\big) + \big(\frac{1-x}{2}\big) \ln\big(\frac{1-x}{2}\big)\Big] -\Big[\big(\frac{1+x}{2}\big)\ln p + \big(\frac{1-x}{2}\big)\ln q\Big]\ .\]

    Comparación de la distribución exacta de la Ecuación [bdexact] (cuadrados rojos) con la distribución gaussiana de la Ecuación [bdgauss] (línea azul).
    Figura\(\PageIndex{2}\): Comparación de la distribución exacta de la Ecuación\ ref {bdexact} (cuadrados rojos) con la distribución gaussiana de la Ecuación\ ref {bdgauss} (línea azul).

    Acabamos de demostrar que en el\(N\) límite grande podemos escribir

    \[P\ns_{N,X}=\CC\,e^{-N f(X/N)}\ ,\]

    donde\(\CC\) es una constante de normalización 2. Ya que\(N\) es por suposición grande, la función\(P\ns_{N,X}\) está dominada por el mínimo (o mínimos) de\(f(x)\), donde se maximiza la probabilidad. Para encontrar el mínimo de\(f(x)\), establecemos\(f'(x)=0\), donde

    \[f'(x)=\half\ln\bigg( {q\over p}\cdot{1+x\over 1-x}\bigg)\ .\]

    \(f'(x)=0\)Fijando, obtenemos

    \[{1+x\over 1-x} = {p\over q} \quad \Rightarrow \quad {\bar x}=p-q\ .\]

    También contamos con

    \[f''(x)={1\over 1-x^2}\ ,\]

    invocando así el teorema de Taylor,

    \[f(x)=f({\bar x}) + \half f''({\bar x})\,(x-{\bar x})^2 + \ldots\ .\]

    Poniéndolo todo junto, tenemos

    \[P\ns_{N,X} \approx \CC\,\exp\!\Bigg[\!-{N(x-{\bar x})^2\over 8pq}\Bigg] = \CC\,\exp\!\Bigg[\!-{(X-{\bar X})^2\over 8Npq}\Bigg]\ , \label{bdgauss}\]

    donde\({\bar X}=\langle X\rangle=N(p-q)=N{\bar x}\). La constante\(\CC\) está determinada por la condición de normalización,

    \[\sum_{X=-\infty}^\infty \!\! P\ns_{N,X}\approx \half\!\!\int\limits_{-\infty}^\infty \!\!dX\> \CC\,\exp\!\Bigg[-\!{(X-{\bar X})^2\over 8Npq}\Bigg] = \sqrt{2\pi Npq}\>\CC\ , \label{normC}\]

    y por lo tanto\(\CC=1/\sqrt{2\pi Npq}\). ¿Por qué no vamos más allá del segundo orden en la expansión Taylor de\(f(x)\)? Lo averiguaremos en el § 4.2 a continuación.

    Entropía y energía

    La función se\(f(x)\) puede escribir como una suma de dos contribuciones,\(f(x)=e(x)-s(x)\), donde

    \[\begin{split} s(x)&=-\big(\frac{1+x}{2}\big) \ln\big(\frac{1+x}{2}\big) - \big(\frac{1-x}{2}\big) \ln\big(\frac{1-x}{2}\big) \\ e(x)&=-\half\ln(pq)-\half x \ln(p/q)\ . \end{split}\]

    La función\(S(N,x)\equiv N s(x)\) es análoga a la entropía estadística de nuestro sistema 3. Tenemos

    \[S(N,x)=N s(x) = \ln\!{N\choose N\ns_\ssr{R}} = \ln\!{N\choose \half N(1+x)}\ .\]

    Así, la entropía estadística es el logaritmo del número de formas en que el sistema puede configurarse para producir el mismo valor de\(X\) (a fijo\(N\)). El segundo aporte a\(f(x)\) es el término energético. Escribimos

    \[E(N,x)=N e(x)=-\half N \ln(pq) -\half N x\ln(p/q)\ .\]

    El término de energía sesga la probabilidad\(P\ns_{N,X}=\exp(S-E)\) para que las configuraciones de baja energía sean más probables que las configuraciones de alta energía. Para nuestro sistema, vemos que cuando\(p<q\) (\(p<\half\)), la energía se minimiza tomando lo más pequeña\(x\) posible (es decir, lo más negativa posible). El valor permitido más pequeño posible de\(x=X/N\) es\(x=-1\). Por el contrario, cuando\(p>q\) (\(p>\half\)), la energía se minimiza tomando\(x\) lo más grande posible, lo que significa\(x=1\). El valor promedio de\(x\), como hemos calculado explícitamente, es\({\bar x}=p-q=2p-1\), que cae en algún lugar entre estos dos extremos.

    En los sistemas termodinámicos reales, la entropía y la energía no son adimensionales. Lo que\(S\) aquí hemos llamado es realmente\(S/\kB\), que es la entropía en unidades de la constante de Boltzmann. Y lo que\(E\) aquí hemos llamado es realmente\(E/\kT\), que es energía en unidades de la temperatura de tiempos constantes de Boltzmann.


    This page titled 1.1: Propiedades estadísticas de las caminatas aleatorias is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Daniel Arovas.