Saltar al contenido principal
LibreTexts Español

17.1: Introducción a las Martingalgas

  • Page ID
    151819
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\renewcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    Supuestos básicos

    Para nuestros ingredientes básicos, comenzamos con un proceso estocástico\( \bs{X} = \{X_t: t \in T\} \) en un espacio de probabilidad subyacente\( (\Omega, \mathscr{F}, \P) \), teniendo espacio de estado\( \R \), y donde el conjunto de índices\( T \) (que representa el tiempo) es\( \N \) (tiempo discreto) o\( [0, \infty) \) (tiempo continuo). Entonces, para revisar lo que todo esto significa,\( \Omega \) es el espacio\( \mathscr{F} \) muestral, la\( \sigma \) -álgebra de eventos,\( \P \) la medida de probabilidad on\( (\Omega, \mathscr{F}) \), y\( X_t \) es una variable aleatoria con valores en\( \R \) para cada uno\( t \in T \). A continuación, tenemos una filtración\(\mathfrak{F} = \{\mathscr{F}_t: t \in T\} \), y asumimos que\( \bs{X} \) se adapta a\( \mathfrak{F} \). Para volver a revisar,\( \mathfrak{F} \) es una familia cada vez mayor de sub\( \sigma \) -álgebras de\( \mathscr{F} \), de manera que\( \mathscr{F}_s \subseteq \mathscr{F}_t \subseteq \mathscr{F} \) para\( s, \, t \in T \) con\( s \le t \), y\( X_t \) es medible con respecto a\( \mathscr{F}_t \) para\( t \in T \). Pensamos en ello\( \mathscr{F}_t \) como la recopilación de eventos hasta el momento\( t \in T \), codificando así la información disponible en el momento\( t \). Por último, suponemos que\( \E\left(\left|X_t\right|\right) \lt \infty \), para que la media de\( X_t \) exista como número real, para cada uno\( t \in T \).

    Hay dos casos especiales importantes de la configuración básica. El caso más simple, por supuesto, es cuando\( \mathscr{F}_t = \sigma\{X_s: s \in T, \, s \le t\} \) para\( t \in T \), así que esa\( \mathfrak{F} \) es la filtración natural asociada con\( \bs{X} \). Otro caso que surge con frecuencia es cuando tenemos un segundo proceso estocástico\(\bs{Y} = \{Y_t: t \in T\} \) encendido\( (\Omega, \mathscr{F}, \P) \) con valores en un espacio de medida general\( (S, \mathscr{S}) \), y\( \mathfrak{F} \) es la filtración natural asociada con\( \bs{Y} \). Entonces en este caso, nuestra suposición principal es que\( X_t \) es medible con respecto a\( \sigma\{Y_s: s \in T, \, s \le t\} \) for\( t \in T \).

    La teoría de las martingales es hermosa, elegante, y en su mayoría accesible en tiempo discreto, cuando\( T = \N \). Pero al igual que con la teoría de los procesos de Markov, la teoría de la martingala es técnicamente mucho más complicada en el tiempo continuo, cuando\( T = [0, \infty) \). En este caso, a menudo\( t \mapsto \mathscr{F}_t \) son necesarias suposiciones adicionales sobre la continuidad de las trayectorias de la muestra\( t \mapsto X_t \) y la filtración para tener una buena teoría. Específicamente, asumiremos que el proceso\( \bs X \) es correcto continuo y tiene límites izquierdos, y que la filtración\( \mathfrak F \) es correcta continua y completa. Estos son los supuestos estándar en tiempo continuo.

    Definiciones

    Para las definiciones básicas que siguen, es posible que deba revisar el valor esperado condicional con respecto a un\( \sigma \) álgebra.

    El proceso\(\bs{X}\) es una martingala con respecto a\( \mathfrak{F} \) si\( \E\left(X_t \mid \mathscr{F}_s\right) = X_s \) para todos\( s, \, t \in T \) con\( s \le t \).

    En el caso especial que\( \mathfrak{F} \) es la filtración natural asociada\( \bs{X} \), simplemente decimos que\( \bs{X} \) es una martingala, sin referencia a la filtración. En el caso especial de que tengamos un segundo proceso estocástico\( \bs{Y} = \{Y_t: t \in T\} \) y\( \mathfrak{F} \) sea la filtración natural asociada\( \bs{Y} \), decimos que\( \bs{X} \) es una martingala con respecto a\( \bs{Y} \).

    El término martingala originalmente se refería a una porción del arnés de un caballo, y posteriormente se utilizó para describir estrategias de juego, como la utilizada en la paradoja de Petersburgo, en la que las apuestas se duplican cuando se pierde un juego. Para interpretar las definiciones anteriores en términos de juego, supongamos que un jugador está en un casino, y eso\( X_t \) representa su fortuna en el momento\( t \in T\) y\( \mathscr{F}_t \) la información de que dispone en su momento\( t \). Supongamos ahora que\( s, \, t \in T \) con\( s \lt t \) y que pensamos\( s \) como el tiempo actual, entonces ese\( t \) es un tiempo futuro. Si\( \bs{X} \) es una martingala con respecto a\( \mathfrak{F} \) entonces los juegos son justos en el sentido de que la fortuna esperada del jugador en el futuro\( t \) es la misma que su fortuna actual en el momento\( s \). Para aventurarse un poco del casino, supongamos que ese\( X_t \) es el precio de una acción, o el valor de un índice bursátil, en el momento\( t \in T \). Si\( \bs X \) es una martingala, entonces el valor esperado en un momento futuro, dada toda nuestra información, es el valor presente.

    Arnés Martingala
    Figura\(\PageIndex{1}\): Un peto de estilo inglés con un adjunto de martingala corriente. Por Danielle M., CC BY 3.0, de Wikipedia

    Pero como veremos, las martingales son útiles en probabilidad mucho más allá de la aplicación al juego e incluso mucho más allá de las aplicaciones financieras en general. En efecto, las martingales son de fundamental importancia en la teoría moderna de la probabilidad. Aquí hay dos definiciones relacionadas, con la igualdad en la condición martingala reemplazada por desigualdades.

    Supongamos nuevamente que el proceso\( \bs X \) y la filtración\( \mathfrak F \) satisfacen los supuestos básicos anteriores.

    1. \( \bs{X} \)es una sub-martingala con respecto a\( \mathfrak{F} \) si\( \E\left(X_t \mid \mathscr{F}_s\right) \ge X_s \) para todos\( s, \, t \in T \) con\( s \le t \).
    2. \( \bs{X} \)es una super-martingala con respecto a\( \mathfrak{F} \) si\( \E\left(X_t \mid \mathscr{F}_s\right) \le X_s \) para todos\( s, \, t \in T \) con\( s \le t \).

    En el escenario de juego, una sub-martingala modela juegos que son favorables para el jugador en promedio, mientras que una súper martingala modela juegos que son desfavorables para el jugador en promedio. Para aventurarse de nuevo desde el casino, supongamos que ese\( X_t \) es el precio de una acción, o el valor de un índice bursátil, en el momento\( t \in T \). Si\( \bs X \) es una sub-martingala, el valor esperado en un tiempo futuro, dada toda nuestra información, es mayor que el valor presente, y si\( \bs X \) es una super-martingala entonces el valor esperado en el futuro es menor que el valor presente. Se espera que un índice bursátil sea una sub-martingala.

    Claramente\( \bs{X} \) es una martingala con respecto a\( \mathfrak{F} \) si y sólo si es a la vez una sub-martingala y una super-martingala. Por último, recordemos que el valor esperado condicional de una variable aleatoria con respecto a\( \sigma \) a-álgebra es en sí mismo una variable aleatoria, por lo que las ecuaciones y desigualdades en las definiciones deben interpretarse como mantener con probabilidad 1. En esta sección en general, se supone que las declaraciones que involucran variables aleatorias se mantienen con probabilidad 1.

    Las condiciones que definen martingala, sub-martingala y super-martingala tienen sentido si el conjunto de índices\( T \) es cualquier conjunto totalmente ordenado. En algunas aplicaciones que consideraremos más adelante,\( T = \{0, 1, \ldots, n\} \) para fijas\( n \in \N_+ \). En la sección sobre martingales al revés,\( T = \{-n: n \in \N\} \) o\( T = (-\infty, 0] \). En el caso del tiempo discreto cuando\( T = \N \), podemos simplificar ligeramente las definiciones.

    Supongamos que\( \bs X = \{X_n: n \in \N\} \) satisface los supuestos básicos anteriores.

    1. \(\bs{X}\)es una martingala con respecto a\( \frak{F} \) si y sólo si\( \E\left(X_{n+1} \mid \mathscr{F}_n\right) = X_n \) por todos\( n \in \N \).
    2. \(\bs{X}\)es una sub-martingala con respecto a\( \frak{F} \) si y sólo si\( \E\left(X_{n+1} \mid \mathscr{F}_n\right) \ge X_n \) por todos\( n \in \N \).
    3. \(\bs{X}\)es una super-martingala con respecto a\( \frak{F} \) si y solo si\( \E\left(X_{n+1} \mid \mathscr{F}_n\right) \le X_n \) por todos\( n \in \N \).
    Prueba

    Las condiciones en las definiciones implican claramente las condiciones aquí, por lo que solo necesitamos mostrar las implicaciones opuestas. Así, supongamos que la condición en (a) sostiene y supongamos que\( k, \, n \in \N \) con\( k \lt n \). \( k \le n - 1 \)Entonces así\( \mathscr{F}_k \subseteq \mathscr{F}_{n-1} \) y de ahí\[ \E\left(X_n \mid \mathscr{F}_k\right) = \E\left[\E\left(X_n \mid \mathscr{F}_{n-1}\right) \mid \mathscr{F}_k \right] = \E\left(X_{n-1} \mid \mathscr{F}_k\right) \] Repitiendo el argumento, llegamos a\[ \E\left(X_n \mid \mathscr{F}_k\right) = \E\left(X_{k+1} \mid \mathscr{F}_k\right) = X_k \] La prueba para sub y super-martingales es análoga, con desigualdades que reemplazan a la última igualdad.

    Las relaciones que definen martingales, sub-martingales y super-martingales se mantienen para los valores esperados ordinarios (incondicionales).

    Supongamos que\( s, \, t \in T \) con\( s \le t \).

    1. Si\( \bs{X} \) es una martingala con respecto a\( \frak{F} \) entonces\( \E(X_s) = \E(X_t) \).
    2. Si\( \bs{X} \) es una sub-martingala con respecto a\( \frak{F} \) entonces\( \E(X_s) \le \E(X_t) \).
    3. Si\( \bs{X} \) es una super-martingala con respecto a\( \frak{F} \) entonces\( \E(X_s) \ge \E(X_t) \).
    Prueba

    Los resultados se derivan directamente de las definiciones, y el hecho crítico de que\( \E\left[\E\left(X_t \mid \mathscr{F}_s\right)\right] = \E(X_t) \) para\( s, \, t \in T \).

    Entonces si\( \bs X \) es una martingala entonces\( \bs X \) tiene valor esperado constante, y este valor es referido como la media de\( \bs X \).

    Ejemplos

    El objetivo para lo que resta de esta sección es dar algunos ejemplos clásicos de martingales, y al hacerlo, mostrar la gran variedad de aplicaciones en las que ocurren las martingales. Volveremos a muchos de estos ejemplos en secciones posteriores. Sin más preámbulos, asumimos que todas las variables aleatorias son de valor real, a menos que se especifique lo contrario, y que todos los valores esperados mencionados a continuación existen en\( \R \). Asegúrate de probar las pruebas tú mismo antes de expandir las que aparecen en el texto.

    Secuencia Constante

    Nuestro primer ejemplo es bastante trivial, pero aún digno de mención.

    Supongamos que\( \mathfrak{F} = \{\mathscr{F}_t: t \in T\} \) es una filtración en el espacio de probabilidad\( (\Omega, \mathscr{F}, \P) \) y que\( X \) es una variable aleatoria que es medible con respecto a\( \mathscr{F}_0 \) y satisface\( \E(\left|X\right|) \lt \infty \). Dejemos\( X_t = X \) para\( t \in T \). Ellos\( \bs{X} = \{X_t: t \in T\} \) es una martingala con respecto a\( \mathfrak{F} \).

    Prueba

    Ya que\( X \) es mensurable con respecto a\( \mathscr{F}_0 \), es medible con respecto a\( \mathscr{F}_t \) para todos\( t \in T \). De ahí\( \bs{X} \) que se adapte a\( \mathfrak{F} \). Si\( s, \, t \in T \) con\( s \le t \), entonces\( \E(X_t \mid \mathscr{F}_s) = \E(X \mid \mathscr{F}_s) = X = X_s \).

    Sumas Parciales

    Para nuestra siguiente discusión, comenzamos con una de las martingales más básicas en tiempo discreto, y la que tiene la interpretación más simple en términos de juego. Supongamos que\( \bs{V} = \{V_n: n \in \N\} \) es una secuencia de variables aleatorias independientes con\( \E(|V_k|) \lt \infty \) for\( k \in \N \). Let\[ X_n = \sum_{k=0}^n V_k, \quad n \in \N \]

    así que ese\( \bs X = \{X_n: n \in \N\} \) es simplemente el proceso de suma parcial asociado con\( \bs V \).

    Para el proceso de suma parcial\( \bs X \),

    1. Si\( \E(V_n) \ge 0 \) para\( n \in \N_+ \) entonces\( \bs X \) es una sub-martingala.
    2. Si\( \E(V_n) \le 0 \) para\( n \in \N_+ \) entonces\( \bs X \) es una super-martingala.
    3. Si\( \E(V_n) = 0 \) para\( n \in \N_+ \) entonces\( \bs X \) es una martingala.
    Prueba

    Dejemos\( \mathscr{F}_n = \sigma\{X_0, X_1, \ldots, X_n\} = \sigma\{V_0, V_1, \ldots, V_n\}\) para\( n \in \N \). Obsérvese primero que\[ \E(|X_n|) \le \sum_{k=0}^n \E(|V_k|) \lt \infty, \quad n \in \N \] Siguiente,\[ \E\left(X_{n+1} \mid \mathscr{F}_n\right) = \E\left(X_n + V_{n+1} \mid \mathscr{F}_n\right) = \E\left(X_n \mid \mathscr{F}_n\right) + \E\left(V_{n+1} \mid \mathscr{F}_n\right) = X_n + \E(V_{n+1}), \quad n \in \N \] La última igualdad se sostiene ya que\( X_n \) es mensurable con respecto\( \mathscr{F}_n \) y\( V_{n+1} \) es independiente de\( \mathscr{F}_n \). Los resultados se derivan ahora de las definiciones.

    En términos de juego, si\( X_0 = V_0 \) es la fortuna inicial del jugador y\( V_i \) son las ganancias netas del jugador en el juego\( i \) th, entonces\( X_n \) es la fortuna neta de los jugadores después de los\( n \) juegos para\( n \in \N_+ \). Pero los procesos de suma parcial asociados con secuencias independientes son importantes mucho más allá del juego. De hecho, gran parte de la probabilidad clásica trata de sumas parciales de variables independientes e idénticas distribuidas. Todo el capítulo sobre Muestras aleatorias explora esta configuración.

    Tenga en cuenta que\( \E(X_n) = \sum_{k=0}^n \E(V_k) \). De ahí que la condición (a) sea equivalente a\( n \mapsto \E(X_n) \) aumentar, la condición (b) es equivalente a\( n \mapsto \E(X_n) \) disminuir, y la condición (c) es equivalente a\( n \mapsto \E(X_n) \) constante. Aquí hay otra martingala asociada al proceso de suma parcial, conocida como la martingala de segundo momento.

    Supongamos que\( \E(V_k) = 0 \) para\( k \in \N_+ \) y\( \var(V_k) \lt \infty \) para\( k \in \N \). Let\[Y_n = X_n^2 - \var(X_n), \quad n \in \N \] Entonces\( \bs Y = \{Y_n: n \in \N\} \) es una martingala con respecto a\( \bs X \).

    Prueba

    De nuevo, vamos\( \mathscr{F}_n = \sigma\{X_0, X_1, \ldots, X_n\} \) por\( n \in \N \). Dado que la secuencia\( \bs V \) es independiente, tenga en cuenta que\[ \var(X_n) = \var\left(\sum_{k=0}^n V_k\right) = \sum_{k=0}^n \var(V_k)\] También,\( \var(V_k) = \E(V_k^2) \) ya que\( \E(V_k) = 0 \) para\( k \in \N_+ \). En particular,\( \E(|Y_n|) \lt \infty \) para\( n \in \N \). Siguiente para\( n \in \N \),\ begin {align*}\ E (Y_ {n+1}\ mid\ mathscr {F} _n) &=\ E\ left [X_ {n+1} ^2 -\ var (X_ {n+1})\ mid\ mathscr {F} _n\ right] =\ E\ left [(x_n + V_ {n+1}) ^2 -\ var (X_ {n+1})\ mid\ mathscr {F} _n\ derecha]\\ &=\ E\ izquierda [x_n^2 + 2 x_n V_ {n+1} + V_ {n+1} ^2 -\ var (X_ {n+1})\ mid\ mathscr {F} _n\ derecha] = x_n^2 + 2 X_ n\ E (V_ {n+1}) +\ E (V_ {n+1} ^2) -\ var (X_ {n+1})\ end {align*} ya que\( X_n \) es medible con respecto a\( \mathscr{F}_n \) y\( V_{n+1} \) es independiente de\( \mathscr{F}_n \). Pero\( \E(V_{n+1}) = 0 \) y\( E(V_{n+1}^2) - \var(X_{n+1}) = - \var(X_n) \). De ahí que tengamos\( \E(Y_{n+1} \mid \mathscr{F}_n) = X_n^2 - \var(X_n) = Y_n \) para\( n \in \N \).

    Entonces bajo los supuestos en este teorema, ambos\( \bs X \) y\( \bs Y \) son martingales. Generalizaremos los resultados para los procesos de suma parcial a continuación en la discusión sobre procesos con incrementos independientes.

    Secuencias de diferencia de martingala

    En la última discusión, vimos que el proceso de suma parcial asociado a una secuencia de variables independientes, media 0, es una martingala. Por el contrario, cada martingala en tiempo discreto puede escribirse como un proceso de suma parcial de variables medias no correlacionadas 0. Esta representación da una visión significativa de la teoría de las martingales en general. Supongamos que\( \bs X = \{X_n: n \in \N\} \) es una martingala con respecto a la filtración\( \mathfrak F = \{\mathscr{F}_n: n \in \N\} \).

    Dejar\( V_0 = X_0 \) y\( V_n = X_n - X_{n-1} \) para\( n \in \N_+ \). El proceso\( \bs V = \{V_n: n \in \N\} \) es la secuencia de diferencia martingala asociada con\( \bs X \) y\[ X_n = \sum_{k=0}^n V_k, \quad n \in \N \]

    Como se prometió, las variables de diferencia martingala tienen media 0, y de hecho satisfacen una propiedad más fuerte.

    Supongamos que\( \bs V = \{V_n: n \in \N\} \) es la secuencia de diferencia martingala asociada a\( \bs X \). Entonces

    1. \( \bs V \)está adaptado a\( \mathfrak F \).
    2. \( \E(V_n \mid \mathscr{F}_k) = 0 \)para\( k, \, n \in \N \) con\( k \lt n \).
    3. \( \E(V_n) = 0 \)para\( n \in \N_+ \)
    Prueba
    1. Por supuesto\( V_0 = X_0 \) es medible con respecto a\( \mathscr{F}_0 \). Para\( n \in \N_+ \),\( X_n \) y\( X_{n-1} \), y por lo tanto\( V_n \) son medibles con respecto a\( \mathscr{F}_n \)
    2. Vamos\( k \in \N \). Por la martingala y propiedades adaptadas,\[ \E(V_{k+1} \mid \mathscr{F}_k) = \E(X_{k+1} \mid \mathscr{F}_k) - E(X_k \mid \mathscr{F}_k) = X_k - X_k = 0\] Siguiente por la propiedad de la torre,\[ \E(V_{k+2} \mid \mathscr{F}_k) = \E[\E(V_{k+2} \mid \mathscr{F}_{k+1}) \mid \mathscr{F}_k] = 0 \] Continuando (o usando inducción) da el resultado general.
    3. Ya que\( \bs X \) es una martingala, tiene media constante, como se señaló anteriormente. De ahí\( \E(V_n) = \E(X_n) - \E(X_{n-1}) = 0 \) para\( n \in \N_+ \). También podríamos usar la parte (b).

    También como se prometió, si las variables martingala tienen varianza finita, entonces las variables de diferencia martingala no están correlacionadas.

    Supongamos nuevamente que\( \bs V = \{V_n: n \in \N\} \) es la secuencia de diferencia martingala asociada a la martingala\( \bs X \). Supongamos que\( \var(X_n) \lt \infty \) para\( n \in \N \). Entonces\( \bs V \) es una secuencia no correlacionada. Además,\[ \var(X_n) = \sum_{k=0}^n \var(V_k) = \var(X_0) + \sum_{k=1}^n \E(V_k^2), \quad n \in \N \]

    Prueba

    Déjalo\( k, \, n \in \N \) con\( k \lt n \). Para demostrar eso\( V_k \) y no\( V_n \) están correlacionados, solo necesitamos mostrar eso\( \E(V_k V_n) = 0 \) (desde\( E(V_n) = 0 \)). Pero por el resultado anterior,\[ \E(V_k V_n) = \E[\E(V_k V_n \mid \mathscr{F}_k)] = \E[V_k \E(V_n \mid \mathscr{F}_k)] = 0 \] Finalmente, la varianza de una suma de variables no correlacionadas es la suma de las varianzas. Ya que\( V_k \) tiene media 0,\( \var(V_k) = \E(V_k^2) \) para\( k \in \N_+ \). De ahí la fórmula para las\( \var(X_n) \) retenciones.

    Ahora sabemos que una martingala de tiempo discreto es el proceso de suma parcial asociado a una secuencia de variables no correlacionadas. De ahí que podamos esperar que existan versiones martingala de los teoremas fundamentales que sostienen para un proceso de suma parcial asociado a una secuencia independiente. Esto resulta ser cierto, y es una razón básica de la importancia de las martingales.

    Caminatas aleatorias en tiempo discreto

    Supongamos que\( \bs V = \{V_n: n \in \N\} \) es una secuencia de variables aleatorias independientes con\( \{V_n: n \in \N_+\} \) idéntica distribución. Suponemos que\( \E(|V_n|) \lt \infty \) para\( n \in \N \) y dejamos\( a \) denotar la media común de\( \{V_n: n \in \N_+\} \). Let\( \bs X = \{X_n: n \in \N\} \) be the partial sum process associated\( \bs V \) to so\[ X_n = \sum_{i=0}^n V_i, \quad n \in \N \] that This setting is a special case of the more general partial sum process considered above. El proceso a veces\( \bs X \) se llama caminata aleatoria (de tiempo discreto). La posición inicial\( X_0 = V_0 \) del andador puede tener una distribución arbitraria, pero luego los pasos que realiza el andador son independientes e idénticos distribuidos. En cuanto al juego,\( X_0 = V_0 \) es la fortuna inicial del jugador jugando una secuencia de juegos independientes e idénticos. Si\( V_i \) es la cantidad ganada (o perdida) en el juego\( i \in \N_+ \), entonces\( X_n \) es la fortuna neta del jugador después de\( n \) los juegos.

    Para la caminata aleatoria\( \bs X \),

    1. \( \bs X \)es una martingala si\( a = 0 \).
    2. \( \bs X \)es una sub-martingala si\( a \ge 0 \).
    3. \( \bs X \)es una super-martingala si\( a \le 0 \)

    Por segundo momento martingala, supongamos que\( V_n \) tiene media común\( a = 0 \) y varianza común\( b^2 \lt \infty \) para\( n \in \N_+ \), y eso\( \var(V_0) \lt \infty \).

    Dejemos\( Y_n = X_n^2 - \var(V_0) - b^2 n \) para\( n \in \N \). Entonces\( \bs Y = \{Y_n: n \in \N\} \) es una martingala con respecto a\( \bs X \).

    Prueba

    Esto se desprende del resultado correspondiente para un proceso general de suma parcial, arriba, ya que\[ \var(X_n) = \sum_{k=0}^n \var(V_k) = \var(V_0) + b^2 n, \quad n \in \N \]

    Generalizaremos los resultados para caminatas aleatorias de tiempo discreto a continuación, en la discusión sobre procesos con incrementos estacionarios e independientes.

    Productos Parciales

    Nuestra siguiente discusión es similar a la de los procesos de suma parcial anterior, pero con productos en lugar de sumas. Entonces supongamos que\( \bs V = \{V_n: n \in \N\} \) es una secuencia independiente de variables aleatorias no negativas con\( \E(V_n) \lt \infty \) for\( n \in \N \). Que\[ X_n = \prod_{i=0}^n V_i, \quad n \in \N \] así\( \bs X = \{X_n: n \in \N\} \) sea el proceso parcial del producto asociado con\( \bs X \).

    Para el proceso parcial del producto\( \bs X \),

    1. Si\( \E(V_n) = 1 \) para\( n \in \N_+ \) entonces\( \bs X \) es una martingala con respecto a\( \bs V \)
    2. Si\( \E(V_n) \ge 1 \) para\( n \in \N_+ \) entonces\( \bs X \) es una sub-martingala con respecto a\( \bs V \)
    3. Si\( \E(V_n) \le 1 \) para\( n \in \N_+ \) entonces\( \bs X \) es una super-martingala con respecto a\( \bs V \)
    Prueba

    Dejemos\( \mathscr{F}_n = \sigma\{V_0, V_1, \ldots, V_n\}\) para\( n \in \N \). Dado que las variables son independientes,\[ \E(X_n) = \prod_{i=0}^n \E(V_i) \lt \infty \] Next,\[ \E\left(X_{n+1} \mid \mathscr{F}_n\right) = \E\left(X_n V_{n+1} \mid \mathscr{F}_n\right) = X_n E(V_{n+1} \mid \mathscr{F}_n) = X_n \E(V_{n+1}) \quad n \in \N \] ya que\( X_n \) es medible con respecto\( \mathscr{F}_n \) y\( V_{n+1} \) es independiente de\( \mathscr{F}_n \). Los resultados se derivan ahora de las definiciones.

    Al igual que con las caminatas aleatorias, un caso especial de interés\( \{V_n: n \in \N_+\} \) es cuando es una secuencia idéntica distribuida.

    El simple paseo aleatorio

    Supongamos ahora que esa\( \bs{V} = \{V_n: n \in \N\} \) es una secuencia de variables aleatorias independientes con\( \P(V_i = 1) = p \) y\( \P(V_i = -1) = 1 - p \) para\( i \in \N_+ \), donde\( p \in (0, 1) \). Dejar\( \bs{X} = \{X_n: n \in \N\} \) ser el proceso de suma parcial asociado con\( \bs{V} \) lo que\[ X_n = \sum_{i=0}^n V_i, \quad n \in \N \] Entonces\( \bs{X} \) es el simple paseo aleatorio con parámetro\( p \), y por supuesto, es un caso especial de la caminata aleatoria más general estudiada anteriormente. En cuanto al juego, nuestro jugador juega una secuencia de juegos independientes e idénticos, y en cada juego, gana 1€ con probabilidad\( p \) y pierde 1€ con probabilidad\( 1 - p \). Entonces, si\( V_0 \) es la fortuna inicial del jugador, entonces\( X_n \) es su fortuna neta después de\( n \) los juegos.

    Para el simple paseo aleatorio,

    1. Si\( p \gt \frac{1}{2} \) entonces\( \bs{X} \) es una sub-martingala.
    2. Si\( p \lt \frac{1}{2} \) entonces\( \bs{X} \) es una super-martingala.
    3. Si\( p = \frac{1}{2} \) entonces\( \bs{X} \) es una martingala.
    Prueba

    Tenga en cuenta que\( \E(V_n) = p - (1 - p) = 2 p - 1 \) para\( n \in \N_+ \), por lo que los resultados siguen del teorema anterior.

    Entonces el caso (a) corresponde a juegos favorables, el caso (b) a juegos desfavorables y el caso (c) a juegos justos.

    Abrir la simulación del aleatorio simétrico simple. Para diversos valores del número de ensayos\( n \), ejecute la simulación 1000 veces y anote el comportamiento general de las rutas de muestreo.

    Aquí está el segundo momento martingala para la caminata aleatoria simple y simétrica.

    Considera la simple caminata aleatoria con parámetro\( p = \frac{1}{2} \), y deja\( Y_n = X_n^2 - \var(V_0) - n \) para\( n \in \N \). Entonces\( \bs{Y} = \{Y_n: n \in \N\} \) es una martingala con respecto a\( \bs{X} \)

    Prueba

    Tenga en cuenta que\( \E(V_i) = 0 \) y\( \var(V_i) = 1 \) para cada uno\( i \in \N_+ \), por lo que el resultado se desprende del resultado general anterior.

    Pero hay otra martingala que puede asociarse con la simple caminata aleatoria, conocida como martingala de De Moivre y nombrada así por uno de los primeros pioneros de la teoría de la probabilidad, Abraham De Moivre.

    Para\( n \in \N \) definir\[ Z_n = \left(\frac{1 - p}{p}\right)^{X_n} \] Entonces\( \bs{Z} = \{Z_n: n \in \N\} \) es una martingala con respecto a\( \bs{X} \).

    Prueba

    Tenga en cuenta que\[ Z_n = \prod_{k=0}^n \left(\frac{1 - p}{p}\right)^{V_k}, \quad n \in \N \] y\[ \E\left[\left(\frac{1 - p}{p}\right)^{V_k}\right] = \left(\frac{1 - p}{p}\right)^1 p + \left(\frac{1 - p}{p}\right)^{-1} (1 - p) = 1, \quad k \in \N_+ \] Así el resultado se desprende del teorema anterior sobre productos parciales.

    El proceso Beta-Bernoulli

    Recordemos que el proceso beta-Bernoulli se construye aleatorizando el parámetro de éxito en un proceso de ensayos de Bernoulli con una distribución beta. Específicamente tenemos una variable aleatoria\( P \) que tiene la distribución beta con parámetros\( a, \, b \in (0, \infty) \), y una secuencia de variables indicadoras\( \bs X = (X_1, X_2, \ldots) \) tal que dada\( P = p \in (0, 1) \),\( \bs X \) es una secuencia de variables independientes con\( \P(X_i = 1) = p \) for\( i \in \N_+ \). Como de costumbre, lo plasmamos en términos de confiabilidad, por lo que eso\( X_i = 1 \) significa éxito en el juicio\( i \) y\( X_i = 0 \) significa fracaso. En nuestro estudio de este proceso, demostramos que las distribuciones finito-dimensionales están dadas por\[ \P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = \frac{a^{[k]} b^{[n-k]}}{(a + b)^{[n]}}, \quad n \in \N_+, \; (x_1, x_2, \ldots, x_n) \in \{0, 1\}^n \] donde usamos la notación de poder ascendente\( r^{[j]} = r ( r + 1) \cdots (r + j - 1) \) para\( r \in \R \) y\( j \in \N \). A continuación, vamos a\( \bs{Y} = \{Y_n: n \in \N\} \) denotar el proceso de suma parcial asociado con\( \bs{X} \),\[ Y_n = \sum_{i=1}^n X_i, \quad n \in \N \] de manera que una vez más, Por supuesto\( Y_n \) es el número de éxitos en\( n \) los primeros ensayos y tiene la distribución beta-binomial definida por\[ \P(Y_n = k) = \binom{n}{k} \frac{a^{[k]} b^{[n-k]}}{(a + b)^{[n]}}, \quad k \in \{0, 1, \ldots, n\} \] Now let\[ Z_n = \frac{a + Y_n}{a + b + n}, \quad n \in \N\] Esta variable también surge naturalmente. Dejemos\( \mathscr{F}_n = \sigma\{X_1, X_2, \ldots, X_n\}\) para\( n \in \N \). Entonces como se muestra en la sección sobre el proceso beta-Bernoulli,\( Z_n = \E(X_{n+1} \mid \mathscr{F}_n) = \E(P \mid \mathscr{F}_n) \). En términos estadísticos, la segunda ecuación significa que\( Z_n \) es el estimador bayesiano de la probabilidad de éxito desconocida\( p \) en una secuencia de ensayos de Bernoulli, cuando\( p \) es modelada por la variable aleatoria\( P \).

    \( \bs Z = \{Z_n: n \in \N\} \)es una martingala con respecto a\( \bs X \).

    Prueba

    Tenga en cuenta que\( 0 \le Z_n \le 1 \) así\( \E(Z_n) \lt \infty \) para\( n \in \N \). Siguiente,\[\E\left(Z_{n+1} \mid \mathscr{F}_n\right) = \E\left[\frac{a + Y_{n+1}}{a + b + n + 1} \biggm| \mathscr{F}_n\right] = \frac{\E\left[a + \left(Y_n + X_{n+1}\right) \mid \mathscr{F}_n\right]}{a + b + n + 1} = \frac{a + Y_n + \E\left(X_{n+1} \mid \mathscr{F}_n\right)}{a + b + n + 1} \] Como se señaló anteriormente,\( \E(X_{n+1} \mid \mathscr{F}_n) = (a + Y_n) / (a + b + n) \). Sustituyendo en la ecuación mostrada arriba y haciendo un poco de álgebra tenemos\[ \E(Z_{n+1} \mid \mathscr{F}_n) = \frac{(a + Y_n) + (a + Y_n) / (a + b + n)}{a + b + n + 1} = \frac{a + Y_n}{a + b + n} = Z_n \]

    Abrir el experimento Beta-binomial. Ejecute la simulación 1000 veces para varios valores de los parámetros y compare la función de densidad de probabilidad empírica con la función de densidad de probabilidad verdadera.

    Proceso de urna de Pólya

    Recordemos que en la versión más simple del proceso de urna de Pólya, comenzamos con una urna que contiene bolas\( a \) rojas y\( b \) verdes. En cada paso de tiempo discreto, seleccionamos una bola al azar de la urna y luego reemplazamos la bola y agregamos\( c \) nuevas bolas del mismo color a la urna. Para los parámetros, necesitamos\( a, \, b \in \N_+ \) y\( c \in \N \). Para\( i \in \N_+ \), vamos a\( X_i \) denotar el color de la bola seleccionada en el\( i \) th sorteo, donde 1 significa rojo y 0 significa verde. El proceso\( \bs{X} = \{X_n: n \in \N_+\} \) es un ejemplo clásico de una secuencia de variables intercambiables pero dependientes. Vamos a\( \bs{Y} = \{Y_n: n \in \N\} \) denotar el proceso de suma parcial asociado con\( \bs{X} \), de manera que una vez más, Por\[ Y_n = \sum_{i=1}^n X_i, \quad n \in \N \] supuesto\( Y_n \) es el número total de bolas rojas seleccionadas en los primeros\( n \) sorteos. De ahí que en el momento\( n \in \N \), el número total de bolas rojas en la urna sea\( a + c Y_n \), mientras que el número total de bolas en la urna es\( a + b + c n \) y así la proporción de bolas rojas en la urna es\[ Z_n = \frac{a + c Y_n}{a + b + c n} \]

    \( \bs{Z} = \{Z_n: n \in \N\} \)es una martingala con respecto a\( \bs{X} \).

    Prueba indirecta

    Si\( c = 0 \) entonces\( Z_n = a / (a + b) \) por\( n \in \N \) eso\( \bs Z \) es una martingala constante. Si\( c \in \N_+ \) entonces\( \bs Z \) es equivalente al proceso beta-Bernoulli con parámetros\( a / c \) y\( b / c \). Por otra parte,\[ Z_n = \frac{a + c Y_n}{a + b + c n} = \frac{a / c + Y_n}{a / c + b / c + n}, \quad n \in \N \] Así\( \bs Z \) es una martingala por el teorema anterior.

    Prueba Directa

    Trivialmente,\( 0 \le Z_n \le 1 \) así que\( \E(Z_n) \lt \infty \) para\( n \in \N \). Vamos\( \mathscr{F}_n = \sigma\{X_1, X_2, \ldots, X_n\} \). Porque\( n \in \N \),\[\E\left(Z_{n+1} \mid \mathscr{F}_n\right) = \E\left[\frac{a + c Y_{n+1}}{a + b + c(n + 1)} \biggm| \mathscr{F}_n\right] = \frac{\E\left[a + c \left(Y_n + X_{n+1}\right) \mid \mathscr{F}_n\right]}{a + b + c(n + 1)} = \frac{a + c Y_n + c \E\left(X_{n+1} \mid \mathscr{F}_n\right)}{a + b + c n + c} \] ya que\( Y_n \) es medible con respecto a\( \mathscr{F}_n \). Pero la probabilidad de seleccionar una bola roja en el sorteo\( n + 1 \), dada la historia del proceso hasta el momento\( n \), es simplemente la proporción de bolas rojas en la urna a la vez\( n \). Es decir,\[ \E\left(X_{n+1} \mid \mathscr{F}_n\right) = \P\left(X_{n+1} = 1 \mid \mathscr{F}_n\right) = Z_n = \frac{a + c Y_n}{a + b + c n} \] Sustituir y simplificar da\( \E\left(Z_{n+1} \mid \mathscr{F}_n\right) = Z_n \).

    Abrir la simulación del Experimento Urna de Pólya. Ejecute la simulación 1000 veces para varios valores de los parámetros y compare la función de densidad de probabilidad empírica del número de bola roja seleccionada con la función de densidad de probabilidad verdadera.

    Procesos con Incrementos Independientes.

    Nuestro primer ejemplo anterior se refería al proceso de suma parcial\( \bs{X} \) asociado a una secuencia de variables aleatorias independientes\( \bs{V} \). Tales procesos son los únicos en tiempo discreto que tienen incrementos independientes. Es decir, porque\( m, \, n \in \N \) con\( m \le n \),\( X_n - X_m \) es independiente de\( (X_0, X_1, \ldots, X_m) \). El proceso de caminata aleatoria tiene la propiedad adicional de incrementos estacionarios. Es decir, la distribución de\( X_n - X_m \) es la misma que la distribución de\( X_{n-m} - X_0 \) para\( m, \, n \in \N \) con\( m \le n \). Consideremos procesos en tiempo discreto o continuo con estas propiedades. Así, supongamos que\( \bs{X} = \{X_t: t \in T\} \) satisfaciendo los supuestos básicos anteriores relativos a la filtración\( \mathfrak{F} = \left\{\mathscr{F}_s: s \in T\right\} \). Aquí están las dos definiciones.

    El proceso\( \bs X \) tiene

    1. Incrementos independientes si\( X_t - X_s \) es independiente de\( \mathscr{F}_s \) para todos\( s, \, t \in T \) con\( s \le t \).
    2. Incrementos estacionarios si\( X_t - X_s \) tiene la misma distribución que\( X_{t-s} - X_0 \) para todos\( s, \, t \in T \).

    Los procesos con incrementos estacionarios e independientes se estudiaron en el Capítulo sobre los procesos de Markov. En el tiempo continuo (con los supuestos de continuidad que hemos impuesto), tal proceso se conoce como un proceso Lévy, llamado así por Paul Lévy, y también como una caminata aleatoria de tiempo continuo. Para un proceso con incrementos independientes (no necesariamente estacionarios), la conexión con martingales depende de la función media\( m \) dada por\( m(t) = \E(X_t) \) for\( t \in T \).

    Supongamos que\( \bs{X} = \{X_t: t \in [0, \infty)\} \) tiene incrementos independientes.

    1. Si\( m \) va en aumento entonces\( \bs{X} \) es una sub-martingala.
    2. Si\( m \) está disminuyendo entonces\( \bs X \) es una super-martingala.
    3. Si\( m \) es constante entonces\( \bs X \) es una martingala
    Prueba

    La prueba es igual que la anterior para los procesos de suma parcial. Supongamos que\( s, \, t \in [0, \infty) \) con\( s \lt t \). Entonces\[ E\left(X_t \mid \mathscr{F}_s\right) = \E\left[X_s + (X_t - X_s) \mid \mathscr{F}_s\right] = \E\left(X_s \mid \mathscr{F}_s\right) + \E\left(X_t - X_s \mid \mathscr{F}_s\right)\] Pero\( X_s \) es medible con respecto\( \mathscr{F}_s \) y\( X_t - X_s \) es independiente de\( \mathscr{F}_s \) So\[ \E\left(X_t \mid \mathscr{F}_s\right) = X_s + \E(X_t - X_s) = X_s + m(t) - m(s) \]

    Comparar este teorema con el teorema correspondiente para el proceso de suma parcial anterior. Supongamos ahora que\( \bs{X} = \{X_t: t \in [0, \infty)\} \) es un proceso estocástico como el anterior, con función media\( m \), y dejar que\( Y_t = X_t - m(t) \)\( t \in [0, \infty) \). El proceso a veces\( \bs{Y} = \{Y_t: t \in [0, \infty)\} \) se llama el proceso compensado asociado\( \bs{X} \) y tiene la función media 0. Si\( \bs{X} \) tiene incrementos independientes, entonces claramente también lo hace\( \bs{Y} \). De ahí que el siguiente resultado sea un corolario trivial de nuestro teorema anterior.

    Supongamos que\( \bs{X} \) tiene incrementos independientes. El proceso compensado\( \bs{Y} \) es una martingala.

    A continuación damos el segundo momento martingala para un proceso con incrementos independientes, generalizando el segundo momento martingala para un proceso de suma parcial.

    Supongamos que\( \bs X = \{X_t: t \in T\} \) tiene incrementos independientes con función media constante y y con\( \var(X_t) \lt \infty \) para\( t \in T \). Entonces\( \bs Y = \{Y_t: t \in T\} \) es una martingala donde\[ Y_t = X_t^2 - \var(X_t), \quad t \in T \]

    Prueba

    La prueba es esencialmente la misma que para el proceso de suma parcial en tiempo discreto. Supongamos que\( s, \, t \in T \) con\( s \lt t \). Tenga en cuenta que\( \E(Y_t \mid \mathscr{F}_s) = \E(X_t^2 \mid \mathscr{F}_s) - \var(X_t) \). Siguiente,\[ X_t^2 = [(X_t - X_s) + X_s]^2 = (X_t - X_s)^2 + 2 (X_t - X_s) X_s + X_s^2 \] Pero\( X_t - X_s \) es independiente de\( \mathscr{F}_s \),\( X_s \) es medible con respecto a\( \mathscr{F}_s \), y\( E(X_t - X_s) = 0 \) así\[ \E(X_t^2 \mid \mathscr{F}_s) = \E[(X_t - X_s)^2] + 2 X_s \E(X_t - X_s) + X_s^2 = \E[(X_t - X_s)^2] + X_s^2 \] Pero también por la independencia y desde entonces\( X_t - X_s \) tiene media 0,\[ \var(X_t) = \var[(X_t - X_s) + X_s] = \var(X_s) + \var(X_t - X_s)^2 = \var(X_s) + \E[(X_t - X_s)^2 \] Poner las piezas juntas da\[ \E(Y_t \mid \mathscr{F}_s) = X_s^2 - \var(X_s) = Y_s \]

    Por supuesto, dado que la función media es constante, también\( \bs X \) es una martingala. Para procesos con incrementos independientes y estacionarios (es decir, caminatas aleatorias), los dos últimos teoremas simplifican, porque las funciones media y varianza simplifican.

    Supongamos que\( \bs X = \{X_t: t \in T\} \) tiene incrementos estacionarios, independientes, y vamos\( a = \E(X_1 - X_0) \). Entonces

    1. \( \bs X \)es una martingala si\( a = 0 \)
    2. \( \bs X \)es una sub-martingala si\( a \ge 0 \)
    3. \( \bs X \)es una super-martingala si\( a \le 0 \)
    Prueba

    Recordemos que la función media\( m \) viene dada por\( m(t) = \E(X_0) + a t \) for\( t \in T \), por lo que el resultado se desprende del resultado correspondiente para un proceso con incrementos independientes.

    Compara este resultado con el correspondiente anterior para caminatas aleatorias en tiempo discreto. Nuestro siguiente resultado es el segundo momento martingala. Compare esto con la martingala de segundo momento para caminatas aleatorias en tiempo discreto.

    Supongamos que\( \bs X = \{X_t: t \in T\} \) tiene incrementos estacionarios e independientes con\( \E(X_0) = \E(X_1) \) y\( b^2 = \E(X_1^2) \lt \infty \). Entonces\( \bs Y = \{Y_t: t \in T\} \) es una martingala donde\[ Y_t = X_t^2 - \var(X_0) - b^2 t, \quad t \in T \]

    Prueba

    Recordemos que si\( \E(X_0) = \E(X_1) \) entonces\( \bs X \) tiene función media constante. También\(\var(X_t) = \var(X_0) + b^2 t \), por lo que el resultado se desprende del resultado correspondiente para un proceso con incrementos independientes.

    En tiempo discreto, como hemos mencionado varias veces, todos estos resultados se reducen a los resultados anteriores para procesos de suma parcial y caminatas aleatorias. En tiempo continuo, los procesos de Poisson, nombrados por supuesto por Simeon Poisson, proporcionan ejemplos. El proceso estándar (homogéneo) de conteo de Poisson\( \bs N = \{N_t: t \in [0, \infty)\} \) con tasa constante\( r \in (0, \infty) \) tiene incrementos estacionarios, independientes y función media dada por\( m(t) = r t \) for\( t \in [0, \infty) \). De manera más general, supongamos que\( r: [0, \infty) \to (0, \infty) \) es continuo por tramos (y no constante). El proceso de conteo de Poisson no homogéneo\( \bs N = \{N_t: t \in [0, \infty)\} \) con función de tasa\( r \) tiene incrementos independientes y función media dada por\[ m(t) = \int_0^t r(s) \, ds, \quad t \in [0, \infty) \] El incremento\( N_t - N_s \) tiene la distribución de Poisson con parámetro\( m(t) - m(s) \) para\( s, \, t \in [0, \infty) \) con\( s \lt t \), por lo que el proceso no tiene estacionario incrementos. En todos los casos,\( m \) va en aumento, por lo que los siguientes resultados son corolarios de nuestros resultados generales:

    Dejar\( \bs N = \{N_t: t \in [0, \infty)\} \) ser el proceso de conteo de Poisson con función de tasa\( r: [0, \infty) \to (0, \infty) \). Entonces

    1. \( \bs N \)es una sub-martingala
    2. El proceso compensado\( \bs X = \{N_t - m(t): t \in [0, \infty)\} \) es un martinagle.

    Abrir la simulación del experimento de conteo de Poisson. Para varios valores de\( r \) y\( t \), ejecute el experimento 1000 veces y compare la función de densidad de probabilidad empírica del número de llegadas con la función de densidad de probabilidad verdadera.

    Veremos más ejemplos de procesos con incrementos estacionarios e independientes en tiempo continuo (y así también ejemplos de martingales de tiempo continuo) en nuestro estudio del movimiento browniano.

    Pruebas de Relación de Probabilidad

    Supongamos que\( (S, \mathscr{S}, \mu) \) es un espacio de medida general, y que\( \bs{X} = \{X_n: n \in \N\} \) es una secuencia de variables aleatorias independientes, distribuidas idénticamente, tomando valores adentro\( S \). En términos estadísticos,\( \bs{X} \) corresponde al muestreo de la distribución común, lo que generalmente no se conoce del todo. En efecto, el problema central en la estadística es sacar inferencias sobre la distribución a partir de observaciones de\( \bs{X} \). Supongamos ahora que la distribución subyacente tiene función de densidad de probabilidad\( g_0 \) o función de densidad de probabilidad\( g_1 \), con respecto a\( \mu \). Asumimos eso\( g_0 \) y\( g_1 \) somos positivos en\( S \). Por supuesto, los casos especiales comunes de esta configuración son

    • \( S \)es un subconjunto medible de\( \R^n \) para algunos\( n \in \N_+ \) y\( \mu = \lambda_n \) es\( n \) -dimensional Lebesgue medida en\( S \).
    • \( S \)es un conjunto contable y\( \mu = \# \) está contando la medida\( S \).

    La prueba de razón de verosimilitud es una prueba de hipótesis, donde las hipótesis nula y alternativa son

    • \( H_0 \): la función de densidad de probabilidad es\( g_0 \).
    • \( H_1 \): la función de densidad de probabilidad es\( g_1 \).

    La prueba se basa en el estadístico de prueba\[ L_n = \prod_{i=1}^n \frac{g_0(X_i)}{g_1(X_i)}, \quad n \in \N \] conocido como el estadístico de prueba de razón de verosimilitud. Los valores pequeños del estadístico de prueba son evidencia a favor de la hipótesis alternativa\( H_1 \). Aquí está nuestro resultado.

    Bajo la hipótesis alternativa\( H_1 \), el proceso\( \bs{L} = \{L_n: n \in \N\} \) es una martingala con respecto a\( \bs{X} \), conocida como la razón de verosimilitud martingala.

    Prueba

    Vamos\( \mathscr{F}_n = \sigma\{X_1, X_2, \ldots, X_n\} \). Para\( n \in \N \),\[ \E\left(L_{n+1} \mid \mathscr{F}_n\right) = \E\left[L_n \frac{g_0(X_{n+1})}{g_1(X_{n+1})} \biggm| \mathscr{F}_n\right] = L_n \E\left[\frac{g_0(X_{n+1})}{g_1(X_{n+1})}\right] \] ya que\( L_n \) es medible con respecto a\( \mathscr{F}_n \) y\( g_0(X_{n+1}) \big/ g_1(X_{n+1}) \) es independiente de\( \mathscr{F}_n \). Pero bajo\( H_1 \), y usando la fórmula de cambio de variables por valor esperado, tenemos\[ \E\left[\frac{g_0(X_{n+1})}{g_1(X_{n+1})}\right] = \int_S \frac{g_0(x)}{g_1(x)} g_1(x) \, d\mu(x) = \int_S g_0(x) \, d\mu(x) = 1 \] Este resultado también se desprende esencialmente del teorema anterior sobre productos parciales. La secuencia\( \bs Z = (Z_1, Z_2, \ldots) \) dada por\( Z_i = g_0(X_i) / g_1(X_i) \) for\( i \in \N_+ \) es independiente e idéntica distribuida, y como se acaba de mostrar, tiene media 1 bajo\( H_1 \).

    Procesos de ramificación

    En el modelo más simple de un proceso de ramificación, tenemos un sistema de partículas cada una de las cuales puede morir o dividirse en nuevas partículas del mismo tipo. La suposición fundamental es que las partículas actúan de manera independiente, cada una con la misma distribución de descendencia\( \N \). Dejaremos\( f \) denotar la función de densidad de probabilidad (discreta) del número de descendencia de una partícula,\( m \) la media de la distribución y\( \phi \) la función de generación de probabilidad de la distribución. Así, si\( U \) es el número de hijos de una partícula, entonces\( f(n) = \P(U = n) \) para\( n \in \N \),\( m = \E(U) \), y\( \phi(t) = \E\left(t^U\right) \) definido al menos para\( t \in (-1, 1] \).

    Nuestro interés está en el tiempo generacional más que en el tiempo absoluto: las partículas originales están en la generación 0, y recursivamente, los hijos una partícula en generación\( n \) pertenecen a la generación\( n + 1 \). Así, el proceso estocástico de interés es\( \bs{X} = \{X_n: n \in \N\} \) donde\( X_n \) está el número de partículas en la generación\( n \) th para\( n \in \N \). El proceso\( \bs{X} \) es una cadena de Markov y se estudió en la sección sobre cadenas de ramificación de tiempo discreto. En particular, uno de los problemas fundamentales es calcular la probabilidad\( q \) de extinción comenzando con una sola partícula:\[ q = \P(X_n = 0 \text{ for some } n \in \N \mid X_0 = 1) \] Entonces, dado que las partículas actúan de manera independiente, la probabilidad de extinción comenzando con\( x \in \N \) partículas es simple\( q^x \). Asumiremos que\( f(0) \gt 0 \) y\( f(0) + f(1) \lt 1 \). Este es el caso interesante, ya que significa que una partícula tiene una probabilidad positiva de morir sin hijos y una probabilidad positiva de producir más de 1 hijo. El resultado fundamental, tal vez recuerdes, es que\( q \) es el punto fijo más pequeño de\( \phi \) (así que\( \phi(q) = q \)) en el intervalo\( [0, 1] \). Aquí hay dos martingales asociadas con el proceso de ramificación:

    Cada una de las siguientes es una martingala con respecto a\( \bs X \).

    1. \( \bs{Y} = \{Y_n: n \in \N\} \)donde\( Y_n = X_n / m^n \) para\( n \in \N \).
    2. \( \bs{Z} = \{Z_n: n \in \N\} \)donde\( Z_n = q^{X_n} \) para\( n \in \N \).
    Prueba

    Vamos\( \mathscr{F}_n = \sigma\{X_0, X_1, \ldots, X_n\} \). Para\( n \in \N \), tenga en cuenta que se\( X_{n+1} \) puede escribir en la forma\[ X_{n+1} = \sum_{i=1}^{X_n} U_i \] donde\( \bs{U} = (U_1, U_2, \ldots) \) se encuentra una secuencia de variables independientes, cada una con PDF\( f \) (y por lo tanto media\( \mu \) y PGF\( \phi \)), y con\( \bs{U} \) independiente de\( \mathscr{F}_n \). Piense en\( U_i \) como el número de hijos de la partícula\( i \) th en generación\( n \).

    1. Para\( n \in \N \),\[ \E(Y_{n+1} \mid \mathscr{F}_n) = \E\left(\frac{X_{n+1}}{m^{n+1}} \biggm| \mathscr{F}_n\right) = \frac{1}{m^{n+1}} \E\left(\sum_{i=0}^{X_n} U_i \biggm| \mathscr{F}_n\right) = \frac{1}{m^{n+1}} m X_n = \frac{X_n}{m^n} = Y_n \]
    2. Para\( n \in \N \)\[ \E\left(Z_{n+1} \mid \mathscr{F}_n\right) = \E\left(q^{X_{n+1}} \mid \mathscr{F}_n\right) = \E\left(q^{\sum_{i=1}^{X_n} U_i} \biggm| \mathscr{F}_n\right) = \left[\phi(q)\right]^{X_n} = q^{X_n} = Z_n\]

    Martingala de Doob

    Nuestro siguiente ejemplo es uno de los más simples, pero más importantes. En efecto, como veremos más adelante en el apartado de convergencia, este tipo de martingala es casi universal en el sentido de que toda martingala uniformemente integrable es de este tipo. El proceso se construye acondicionando una variable aleatoria fija sobre los\( \sigma \) álgebras en una filtración dada, y acumulando así información sobre la variable aleatoria.

    Supongamos que\( \mathfrak{F} = \{\mathscr{F}_t: t \in T\} \) es una filtración en el espacio de probabilidad\( (\Omega, \mathscr{F}, \P) \), y que\( X \) es una variable aleatoria de valor real con\( \E\left(\left|X\right|\right) \lt \infty \). Definir\( X_t = \E\left(X \mid \mathscr{F}_t\right) \) para\( t \in T \). Entonces\( \bs{X} = \{X_t: t \in T\} \) es una martingala con respecto a\( \mathfrak{F} \).

    Prueba

    Pues\( t \in T \), recordemos eso\( |X_t| = |\E(X \mid \mathscr{F}_t)| \le \E(|X| \mid \mathscr{F}_t) \). Tomando valores esperados da\( \E(|X_t|) \le \E(|X|) \lt \infty \). Supongamos que\( s, \, t \in T \) con\( s \lt t \). Usando la propiedad de torre de valor esperado condicional,\[ \E\left(X_t \mid \mathscr{F}_s\right) = \E\left[\E\left(X \mid \mathscr{F}_t\right) \mid \mathscr{F}_s\right] = \E\left(X \mid \mathscr{F}_s\right) = X_s \]

    La martingala en el último teorema es conocida como martingala de Doob y lleva el nombre de Joseph Doob quien hizo gran parte del trabajo pionero en martingales. También es conocida como la martingala Lévy, llamada así por Paul Lévy.

    La martingala de Doob surge naturalmente en el contexto estadístico de la estimación bayesiana. Supongamos que\( \bs X = (X_1, X_2, \ldots) \) es una secuencia de variables aleatorias independientes cuya distribución común depende de un parámetro desconocido de valor real\( \theta \), con valores en un espacio de parámetros\( A \subseteq \R \). Para cada uno\( n \in \N_+ \), vamos\( \mathscr{F}_n = \sigma\{X_1, X_2, \ldots, X_n\} \) así que esa\( \mathfrak F = \{\mathscr{F}_n: n \in \N_+\} \) es la filtración natural asociada con\( \bs X \). En la estimación bayesiana, se modela el parámetro desconocido\( \theta \) con una variable aleatoria\( \Theta \) tomando valores\( A \) y teniendo una distribución previa especificada. El estimador bayesiano de\( \theta \) basado en la muestra\( \bs{X}_n = (X_1, X_2, \ldots, X_n) \) es\[ U_n = \E(\Theta \mid \mathscr{F}_n), \quad n \in \N_+ \] Así se deduce que la secuencia de estimadores bayesianos\( \bs U = (U_n: n \in \N_+) \) es una martingala Doob. La estimación referida en la discusión del proceso beta-Bernoulli anterior es un caso especial.

    Funciones de Densidad

    Para este ejemplo, es posible que deba revisar las medidas generales y las funciones de densidad en el capítulo sobre Distribuciones. Comenzamos con nuestro espacio de probabilidad\( (\Omega, \mathscr{F}, \P) \) y filtración\( \mathfrak{F} = \{\mathscr{F}_n: n \in \N\} \) en tiempo discreto. Supongamos ahora que\( \mu \) es una medida finita en el espacio muestral\( (\Omega, \mathscr{F}) \). Para cada uno\( n \in \N \), la restricción de\( \mu \) a\( \mathscr{F}_n \) es una medida en el espacio medible\( (\Omega, \mathscr{F}_n) \), y de manera similar la restricción de\( \P \) a\(\mathscr{F}_n\) es una medida de probabilidad en\( (\Omega, \mathscr{F}_n) \). Para guardar notación y terminología, nos referiremos a estas como \( \mu \)y\( \P \) sucesivamente\(\mathscr{F}_n\), respectivamente. Supongamos ahora que\( \mu \) es absolutamente continuo con respecto a\( \P \) on\( \mathscr{F}_n \) para cada uno\( n \in \N \). Recordemos que esto significa que si\( A \in \mathscr{F}_n \) y\( \P(A) = 0 \) entonces\( \mu(B) = 0 \) para cada uno\( B \in \mathscr{F}_n \) con\( B \subseteq A \). Por el teorema de Radón-Nikodym,\( \mu \) tiene una función de densidad\( X_n: \Omega \to \R \) con respecto a\( \P \) on\(\mathscr{F}_n\) para cada uno\( n \in \N_+ \). La función de densidad de una medida con respecto a una medida positiva se conoce como derivado de Radón-Nikodym. El teorema y la derivada llevan el nombre de Johann Radon y Otto Nikodym. Aquí está nuestro principal resultado.

    \( \bs X = \{X_n: n \in \N\} \)es una martingala con respecto a\( \mathfrak F \).

    Prueba

    Vamos\( n \in \N \). Por definición,\( X_n \) es medible con respecto a\( \mathscr{F}_n \). Además,\( \E(|X_n|) = \|\mu\|\) (la variación total de\( \mu \)) para cada uno\( n \in \N \). Dado que\( \mu \) es una medida finita,\( \|\mu\| \lt \infty \). Por definición,\[ \mu(A) = \int_A X_n d \P = \E(X_n; A), \quad A \in \mathscr{F}_n \] Por otro lado, si\( A \in \mathscr{F}_n \) entonces\( A \in \mathscr{F}_{n+1} \) y así\( \mu(A) = \E(X_{n+1}; A) \). Entonces, para resumir,\( X_n \) es\( \mathscr{F}_n \) -medible y\( \E(X_{n+1}; A) = \E(X_n ; A) \) para todos\( A \in \mathscr{F}_n \). Por definición, esto significa que\( \E(X_{n+1} \mid \mathscr{F}_n) = X_n \), y también lo\( \bs X \) es una martingala con respecto a\( \mathfrak F \).

    Tenga en cuenta que\( \mu \) puede no ser absolutamente continuo con respecto a\( \P \) on\( \mathscr{F} \) o incluso on\( \mathscr{F}_\infty = \sigma \left(\bigcup_{n=0}^\infty \mathscr{F}_n\right) \). Por otro lado, si\( \mu \) es absolutamente continuo con respecto a\( \P \) on\( \mathscr{F}_\infty \) entonces\( \mu \) tiene una función de densidad\( X \) con respecto a\( \P \) on\( \mathscr{F}_\infty \). Entonces una pregunta natural en este caso es la relación entre la martingala\( \bs X \) y la variable aleatoria\( X \). Puede que ya hayas adivinado la respuesta, pero en todo caso se dará en el apartado de convergencia.


    This page titled 17.1: Introducción a las Martingalgas is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.