Saltar al contenido principal
LibreTexts Español

12.3: Leyes de arco sinusoide**

  • Page ID
    150195
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En el Ejercicio 1.1. [exer 12.1.6], se determinó la distribución del tiempo de la última ecualización en la caminata aleatoria simétrica. Si dejamos\(\alpha_{2k, 2m}\) denotar la probabilidad de que una caminata aleatoria de longitud\(2m\) tenga su última ecualización en el momento\(2k\), entonces\[\alpha_{2k, 2m} = u_{2k}u_{2m-2k}\ .\] tenemos Ahora mostraremos cómo se puede aproximar la distribución de los\(\alpha\)'s con una función simple. Recordamos que\[u_{2k} \sim {1\over{\sqrt {\pi k}}}\ .\] Por lo tanto, como ambos\(k\) y\(m\) vamos a\(\infty\), tenemos\[\alpha_{2k, 2m} \sim {1\over{\pi \sqrt{k(m-k)}}}\ .\] Esta última expresión se puede escribir como\[{1\over{\pi m \sqrt{(k/m)(1 - k/m)}}}\ .\] Así, si definimos\[f(x) = {1\over{\pi \sqrt{x(1-x)}}}\ ,\] para\(0 < x < 1\), entonces tenemos\[\alpha_{2k, 2m} \approx {1\over m}f\biggl({k\over m}\biggr)\ .\] La razón del\(\approx\) signo es que ya no requerimos que \(k\)llegar a ser grande. Esto significa que podemos reemplazar la\(\alpha_{2k, 2m}\) distribución discreta por la densidad continua\(f(x)\) en el intervalo\([0, 1]\) y obtener una buena aproximación. En particular, si\(x\) es un número real fijo entre 0 y 1, entonces tenemos\[\sum_{k < xm}\alpha_{2k, 2m} \approx \int_0^x f(t)\,dt\ .\] Resulta que\(f(x)\) tiene un buen antiderivado, así podemos escribir\[\sum_{k < xm}\alpha_{2k, 2m} \approx {2\over \pi}\arcsin \sqrt x\ .\] Uno puede ver en la gráfica de esta última función que tiene un mínimo en\(x = 1/2\) y es simétrico sobre ese punto. Como se señaló en el ejercicio, esto implica que la mitad de los paseos de longitud no\(2m\) tienen ecualizaciones después del tiempo\(m\), hecho que probablemente no se adivinaría.

    Resulta que la densidad de arco sinusoidal aparece en las respuestas a muchas otras preguntas sobre caminatas aleatorias en la línea. Recordemos que en la Sección 1.1, una caminata aleatoria podría verse como una línea poligonal que conecta\((0,0)\) con\((m, S_m)\). Bajo esta interpretación,\(b_{2k, 2m}\) definimos como la probabilidad de que una caminata aleatoria de longitud\(2m\) tenga exactamente de sus segmentos\(2k\) de línea\(2m\) poligonales por encima del\(t\) eje -eje.

    La probabilidad\(b_{2k, 2m}\) se interpreta frecuentemente en términos de un juego para dos jugadores. (El lector recordará el juego Heads or Tails, en Ejemplo [examen 1.3].) Se dice que el jugador A está en ventaja en el momento\(n\) si la caminata aleatoria está por encima del\(t\) eje -en ese momento, o si la caminata aleatoria está en el\(t\) eje -en el tiempo\(n\) pero por encima del\(t\) eje en el momento\(n-1\). (En el tiempo 0, ninguno de los jugadores está a la cabeza.) Uno puede preguntarse cuál es el número más probable de veces que el jugador A esté en cabeza, en un juego de longitud\(2m\). La mayoría de la gente dirá que la respuesta a esta pregunta es\(m\). No obstante, el siguiente teorema dice que\(m\) es el número menos probable de veces que el jugador A esté a la cabeza, y el número más probable de veces en el plomo es 0 o\(2m\).

    Teorema\(\PageIndex{1}\)

    Si Peter y Paul juegan un juego de Heads o Tails de longitud\(2m\), la probabilidad de que Peter esté a la cabeza exactamente en\(2k\) tiempos es igual a\[\alpha_{2k, 2m}\ .\]

    Prueba

    Para probar el teorema, necesitamos demostrar que el\[b_{2k, 2m} = \alpha_{2k, 2m}\ . \label{eq 12.3.1}\] Ejercicio 1.1. [exer 12.1.7] muestra eso\(b_{2m, 2m} = u_{2m}\) y\(b_{0, 2m} = u_{2m}\), entonces solo necesitamos probar que la Ecuación [eq 12.3.1] se mantiene para\(1 \le k \le m-1\). Podemos obtener una recursión que involucre los\(b\)'s y los\(f\)'s (definidos en la Sección 1.1) contando el número de caminos de longitud\(2m\) que tienen exactamente\(2k\) de sus segmentos por encima del\(t\) eje -eje, donde\(1 \le k \le m-1\). Para contar esta colección de caminos, asumimos que el primer retorno ocurre en el momento\(2j\), donde\(1 \le j \le m-1\). Hay dos casos a considerar. Ya sea durante los primeros\(2j\) resultados el camino está por encima del\(t\) eje -o por debajo del\(t\) eje -eje. En el primer caso, debe ser cierto que la ruta tiene exactamente segmentos de\((2k - 2j)\) línea por encima del\(t\) eje -eje, entre\(t = 2j\) y\(t = 2m\). En el segundo caso, debe ser cierto que la trayectoria tiene exactamente segmentos de\(2k\) línea por encima del\(t\) eje -eje, entre\(t = 2j\) y\(t = 2m\).

    Ahora contamos el número de rutas de los diversos tipos descritos anteriormente. El número de trayectorias de longitud\(2j\) cuyos segmentos de línea se encuentran por encima del\(t\) eje y que regresan al origen por primera vez en el tiempo\(2j\) es igual\((1/2)2^{2j}f_{2j}\). Esto también es igual al número de trayectorias de longitud\(2j\) cuyos segmentos de línea se encuentran por debajo del\(t\) eje y que regresan al origen por primera vez en el momento\(2j\). El número de trayectorias de longitud\((2m - 2j)\) que tienen exactamente segmentos de\((2k - 2j)\) línea por encima del\(t\) eje es\(b_{2k-2j, 2m-2j}\). Finalmente, el número de trayectorias de longitud\((2m-2j)\) que tienen exactamente segmentos de\(2k\) línea por encima del\(t\) eje es\(b_{2k,2m-2j}\). Por lo tanto, tenemos

    \[b_{2k,2m} = {1\over 2} \sum_{j = 1}^k f_{2j}b_{2k-2j, 2m-2j} + {1\over 2}\sum_{j = 1}^{m-k} f_{2j}b_{2k, 2m-2j}\ .\]

    Ahora asumimos que la Ecuación [eq 12.3.1] es verdadera para\(m < n\). Entonces tenemos

    \[\begin{aligned} b_{2k, 2n} &=& {1\over 2} \sum_{j = 1}^k f_{2j}\alpha_{2k-2j, 2m-2j} + {1\over 2}\sum_{j = 1}^{m-k} f_{2j}\alpha_{2k, 2m - 2j}\\ &=& {1\over 2}\sum_{j = 1}^k f_{2j}u_{2k-2j}u_{2m-2k} + {1\over 2}\sum_{j = 1}^{m-k} f_{2j}u_{2k}u_{2m - 2j - 2k}\\ &=& {1\over 2}u_{2m-2k}\sum_{j = 1}^k f_{2j}u_{2k - 2j} + {1\over 2}u_{2k}\sum_{j = 1}^{m-k} f_{2j}u_{2m - 2j - 2k}\\ &=& {1\over 2}u_{2m - 2k}u_{2k} + {1\over 2}u_{2k}u_{2m - 2k}\ ,\end{aligned}\]

    donde la última igualdad se desprende del Teorema [thm 12.1.2]. Así, tenemos\[b_{2k, 2n} = \alpha_{2k, 2n}\ ,\] que completa la prueba.

    \(square\)

    Ilustramos el teorema anterior simulando 10, 000 juegos de Heads or Tails, con cada juego compuesto por 40 tiradas. La distribución del número de veces que Pedro está a la cabeza se da en la Figura [fig 12.2], junto con la densidad sinusoidal del arco.

    Terminamos esta sección indicando otros dos resultados en los que aparece la densidad de arco sinusoidal. Las pruebas de estos resultados se pueden encontrar en Feller. 8

    Teorema\(\PageIndex{2}\)

    \(J\)Sea la variable aleatoria que, para un paseo aleatorio dado de longitud\(2m\), da el subíndice más pequeño\(j\) tal que\(S_{j} = S_{2m}\). (Tal subíndice\(j\) debe ser parejo, por consideraciones de paridad.) \(\gamma_{2k, 2m}\)Sea la probabilidad de que\(J = 2k\). Entonces tenemos

    \[\gamma_{2k, 2m} = \alpha_{2k, 2m}\ .\]

    El siguiente teorema dice que la densidad de arco seno es aplicable a una amplia gama de situaciones. Se dice que una función de distribución continua\(F(x)\) es si\(F(x) = 1 - F(-x)\). (Si\(X\) es una variable aleatoria continua con una función de distribución simétrica, entonces para cualquier real\(x\), tenemos\(P(X \le x) = P(X \ge -x)\).) Imaginamos que tenemos una caminata aleatoria de longitud\(n\) en la que cada summand tiene la distribución\(F(x)\), donde\(F\) es continua y simétrica. El subíndice de la de tal caminata es el subíndice único\(k\) tal que\[S_k > S_0,\ \ldots,\ S_k > S_{k-1},\ S_k \ge S_{k+1},\ \ldots,\ S_k \ge S_n\ .\] Definimos la variable aleatoria\(K_n\) para que sea el subíndice del primer máximo. Ahora podemos exponer el siguiente teorema relativo a la variable aleatoria\(K_n\).

    Teorema\(\PageIndex{3}\)

    Dejar\(F\) ser una función de distribución continua simétrica, y dejar\(\alpha\) ser un número real fijo estrictamente entre 0 y 1. Entonces como\(n \rightarrow \infty\), tenemos

    \[P(K_n < n\alpha) \rightarrow {2\over \pi} \arcsin\sqrt \alpha\ .\]

    Una versión de este teorema que se sostiene para una caminata aleatoria simétrica también se puede encontrar en Feller.

    i [exer 12.3.1] Para una caminata aleatoria de longitud\(2m\), defina como igual\(\epsilon_k\) a 1 si\(S_k > 0\), o si\(S_{k-1} = 1\) y\(S_k = 0\). \(\epsilon_k\)Definir igual a -1 en todos los demás casos. Así,\(\epsilon_k\) da el lado del\(t\) eje -en el que se encuentra la caminata aleatoria durante el intervalo de tiempo\([k-1, k]\). Una “ley de grandes números” para la secuencia\(\{\epsilon_k\}\) diría que para cualquiera\(\delta > 0\), tendríamos\[P\biggl(-\delta <

    ParseError: invalid DekiScript (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/12:_Caminatas_Aleatorias/12.03:_Leyes_de_arco_sinusoide**), /content/body/p[8]/span[13]/span, line 1, column 1
    
    < \delta \biggr) \rightarrow 1\] como\(n \rightarrow \infty\). A pesar\(\epsilon\) de que los's no son independientes, la aseveración anterior ciertamente parece razonable. Usando el teorema [thm 12.3.1], mostrar que si\(-1 \le x \le 1\), entonces\[\lim_{n \rightarrow \infty} P\biggl(
    ParseError: invalid DekiScript (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/12:_Caminatas_Aleatorias/12.03:_Leyes_de_arco_sinusoide**), /content/body/p[8]/span[17]/span[1], line 1, column 1
    
    < x\biggr) = {2\over{\pi}} \arcsin\sqrt
    ParseError: colon expected (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/12:_Caminatas_Aleatorias/12.03:_Leyes_de_arco_sinusoide**), /content/body/p[8]/span[17]/span[2], line 1, column 4
    
    \ .\]

    i [exer 12.3.2] Dada una caminata aleatoria\(W\) de longitud\(m\), con summands\[\{X_1, X_2, \ldots,X_m\}\ ,\] define la caminata aleatoria para ser la caminata\(W^*\) con summands\[\{X_m, X_{m-1}, \ldots, X_1\}\ .\]

    1. Mostrar que la\(k\) ésima suma parcial\(S^*_k\) satisface la ecuación\[S^*_k = S_m - S_{n-k}\ ,\] donde\(S_k\) está la\(k\) ésima suma parcial para la caminata aleatoria\(W\).
    2. Explicar la relación geométrica entre las gráficas de una caminata aleatoria y su inversión. (No es en general cierto que una gráfica se obtenga de la otra reflejándose en una línea vertical).
    3. Utilizar las partes (a) y (b) para probar el Teorema [thm 12.3.2].

    This page titled 12.3: Leyes de arco sinusoide** is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.