Saltar al contenido principal
LibreTexts Español

7.11: Resumen

  • Page ID
    86395
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Cada término en una caminata aleatoria {\(S_n; n ≥ 1\)} es una suma de variables aleatorias IID, y así el estudio de caminatas aleatorias está estrechamente relacionado con el de sumas de variables IID. El foco en las caminatas aleatorias, sin embargo, como en la mayoría de los procesos que hemos estudiado, está más en la relación entre los términos (como qué término primero cruza un umbral) que en los términos individuales. Comenzamos mostrando que las caminatas aleatorias son una generalización de procesos de renovación, son centrales para estudiar el retraso de cola para las colas G/G/1 y para el análisis secuencial para pruebas de hipótesis.

    Un enfoque importante del capítulo fue estimar las probabilidades de eventos muy improbables, un tema conocido como teoría de grandes desviaciones. Empezamos por estudiar el Chernoff destinado a\(\text{Pr}\{S_n ≥ α\}\) por\(α> 0\) y\(\mathsf{E} [X] < 0\). Luego desarrollamos la identidad de Wald, que puede ser utilizada para encontrar límites superiores estrechos a la probabilidad de que un umbral sea atravesado alguna vez por una caminata aleatoria. Una de las ideas obtenidas aquí fue que si se cruza un umbral en α, es probable que se cruce en un momento cercano a\(n^∗ = α/\gamma' (r^∗)\), donde\(r^∗\) está la raíz positiva de\(\gamma(r)\). También encontramos que\(r^∗\) juega un papel fundamental en la probabilidad de cruces de umbrales. Para cuestiones de comportamiento típico, la media y varianza de una variable aleatoria son las mayores cantidades de interés, pero cuando se interesa por desviaciones atípicamente grandes,\(r^∗\) es el principal parámetro de interés.

    A continuación presentamos martingales, submartingales y supermartingales. Estos a veces son considerados como temas algo exóticos en las matemáticas, pero de hecho son muy útiles en una gran variedad de procesos relativamente simples. Por ejemplo, demostramos que todos los temas de caminata aleatoria de secciones anteriores pueden tratarse como un caso especial de martingales, y que las martingales pueden usarse para modelar tanto sumas como productos de variables aleatorias. También mostramos cómo las caminatas aleatorias moduladas por Markov pueden ser tratadas como martingales.

    Los ensayos de detención, como se introdujo por primera vez en el capítulo 4, se aplicaron luego a las martingales. Definimos un proceso detenido {\(Z^∗_n; n ≥ 1\)} para que fuera el mismo que el proceso original {\(Z_n;n\geq 1\)} hasta el punto de parada, y luego constante a partir de entonces. Los teoremas 7.8.1 y 7.8.2 mostraron que el proceso detenido tiene la misma forma (martingala, submartingala, o supermartingala) que el proceso original, y que los valores esperados\(\text{E} [Z_n^∗]\) están entre\(\mathsf{E} [Z_1]\)\(\mathsf{E} [Z_n]. We also looked at \(\mathsf{E} [Z_J ]\) y y encontró que es igual a\(\mathsf{E} [Z_1]\) iff (7.8.9) se satisface. La identidad de Wald se puede ver como\(\mathsf{E} [Z_J ] = \mathsf{E} [Z_1] = 1\) para la martingala de Wald,\(Z_n = \exp \{rS_n − n\gamma (r)\}\). Luego encontramos una identidad similar para las caminatas aleatorias moduladas de Markov. Al derivar resultados para las caminatas aleatorias moduladas de Markov, fue necesario definir las martingales en relación con otros procesos para encontrar pruebas de parada adecuadas, también definidas en martingales en relación con otros procesos. Esta restricción añadida a las martingales es útil en otros contextos.

    A continuación se desarrollaron las desigualdades de Kolmogorov. Son análogos de la desigualdad de Markov y de la desigualdad de Chebyshev, salvo que vincularon segmentos iniciales de submartingales y martingales en lugar de rv individuales, se utilizaron, primero, para probar el SLLN con solo un segundo momento y, segundo, el teorema de convergencia martingala.

    Una referencia estándar en caminatas aleatorias, y particularmente en el análisis de sobrebrotes es [Fel66]. Dembo y Zeitouni, [5] desarrollan la teoría de grandes desviaciones de una manera mucho más general y detallada que la introducción aquí. La referencia clásica sobre martingales es [6], pero [4] y [16] son más accesibles.


    This page titled 7.11: Resumen is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Robert Gallager (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.