Saltar al contenido principal
LibreTexts Español

7.9: Las desigualdades de Kolmogorov

  • Page ID
    86375
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ahora utilizamos los teoremas anteriores para establecer la desigualdad de la submartingala de Kolmogorov, que es un importante fortalecimiento de la desigualdad de Markov. Así como se utilizó la desigualdad de Markov en la Sección 1.7 para derivar la desigualdad de Chebichev y luego la débil ley de grandes números, la desigualdad de la submartingala de Kolmogorov se utilizará para fortalecer la desigualdad Chebichev, de la que seguirá la fuerte ley de grandes números.

    Teorema 7.9.1 (Desigualdad de la submartingala de Kolmogorov) Vamos a {\(Z_n; n ≥ 1\)} ser una submartingala no negativa. Entonces para cualquier entero positivo\( m\) y cualquiera\(a > 0\),

    \[ \text{Pr} \left\{ \max_{1\leq i\leq m} Z_i \geq a \right\} \leq \dfrac{\mathsf{E}[Z_m]}{a} \nonumber \]

    Prueba: Dada una submartingala no negativa {\(Z_n; n ≥ 1\)}, dada\(a > 0\), y dada un entero positivo\(m\), deja\(J\) ser la prueba de detención definida como la más pequeña\(n ≤ m\) tal que\(Z_n ≥ a\). Si\(Z_n < a\) por todos\(n ≤ m\), entonces\(J = m\). Así el proceso debe detenerse por el tiempo\(m\), y\(Z_J ≥ a\) si y sólo si\(Z_n ≥ a\) para algunos\(n ≤ m\). Así

    \[ \text{Pr} \left\{ \max_{1\leq n\leq m} Z_n \geq a \right\} = \text{Pr}\{Z_J\geq a\} \leq \dfrac{\mathsf{E}[Z_J]}{a} \nonumber \]

    donde hemos utilizado la desigualdad de Markov. Por último, ya que el proceso debe ser detenido por el tiempo\(m\), tenemos\(Z_J = Z^∗_m\). De (7.8.3)\(\mathsf{E} [Z^∗_m] ≤ \mathsf{E} [Z_m]\), por lo que el lado derecho de (7.9.2) es menor o igual a\(\mathsf{E} [Z_m] /a\), completando la prueba.

    \(\square \)

    El siguiente corolario simple muestra que (7.9.1) toma una forma más simple para las martingales no negativas.

    Corolario 7.9.1 (Desigualdad de martingala no negativa) Deja que {\(Z_n; n ≥ 1\)} sea una martingala no negativa. Entonces

    \[ \text{Pr}\left\{ \sup_{n\geq 1} Z_n \geq a \right\} \leq \dfrac{\mathsf{E}[Z_1]}{a}; \qquad for \, all \, a>0 \nonumber \]

    Prueba Para una martingala,\(\mathsf{E} [Z_m] = \mathsf{E} [Z_1]\). Así, de (7.9.1),\(\text{Pr}\{ \max_{1≤i≤m} Z_i ≥ a\}≤ \frac{\mathsf{E}[Z_1]}{a}\) para todos\(m > 1\). Pasar al límite\(m →\infty\) esencialmente rinde (7.9.3). El ejercicio 7.22 ilustra por qué la operación limitante aquí es un poco complicada, y demuestra que es válida.

    \(\square \)

    El siguiente corolario guarda la misma relación con la desigualdad submartingala que la desigualdad de Chebychev con la desigualdad de Markov.

    Corolario 7.9.2 (Desigualdad martingala de Kolmogorov) Dejemos {\(Z_n; n ≥ 1\)} ser una martingala con\(\mathsf{E}[Z^2_n] < \infty\) para todos\(n ≥ 1\). Entonces

    \[ \text{Pr} \left\{ \max_{1\leq n \leq m} |Z_n|\geq b \right\} \leq \dfrac{\mathsf{E}[Z^2_m]}{b^2} ; \quad for \, all \, integer \, m \geq 2, \, all \, b>0 \nonumber \]

    Prueba: Dado que {\(Z_n; n ≥ 1\)} es una martingala y\(Z^2_n\) es una función convexa de\(Z_n\), se deduce del Teorema 7.7.1 que {\(Z^2_n; n ≥ 1\)} es una submartingala. Como no\(Z^2_n\) es negativo, podemos usar la desigualdad de la submartingala de Kolmogorov para ver que

    \[ \text{Pr}\left\{ \max_{n\leq m} Z_n^2 \geq a \right\} \leq \mathsf{E} [Z_m^2]/a \quad \text{for any } a>0 \nonumber \]

    Sustituyendo\(b^2\) por\(a\), obtenemos (7.9.4).

    \(\square \)

    Corolario 7.9.3 (Desigualdad de caminata aleatoria de Kolmogorov) Deja que {\(S_n; n ≥ 1\)} sea una caminata aleatoria con\(S_n = X_1 + ...+ X_n\) donde {\(X_i; i ≥ i\)} es un conjunto de variables aleatorias IID con media\(\overline{X}\) y varianza\(σ^2\). Entonces para cualquier entero positivo\(m\) y cualquiera\(\epsilon> 0\),

    \[ \text{Pr} \left\{ \max_{1\leq n\leq m} |S_n-n\overline{X}] \geq m\epsilon \right\} \leq \dfrac{\sigma^2}{m\epsilon^2} \nonumber \]

    Prueba: {\(Z_n = S_n − n\overline{X}; n ≥ 1\)} es una caminata aleatoria media cero, y por lo tanto una martingala. Ya que\(\mathsf{E}[Z^2_m] = mσ^2\), (7.9.5) sigue sustituyendo\(m\epsilon\)\(b\) en (7.9.4).

    \(\square \)

    Recordemos que la forma más simple de la ley débil de los grandes números se dio en\ ref {1.75} como\(\text{Pr}\{|S_m/m − \overline{X}|≥ \epsilon\} ≤ σ^2/(m\epsilon^2)\). Esto se fortalece en (7.9.5) al límite superior la probabilidad de que cualquiera de los primeros m términos se desvíe de la media en más de\(m\epsilon\). Es este fortalecimiento el que nos permitirá probar la fuerte ley de los grandes números asumiendo sólo una varianza finita.

    El siguiente corolario arroja esencialmente el mismo resultado que (7.56), pero se incluye aquí como otro ejemplo del uso de la desigualdad de la submartingala de Kolmogorov.

    Corolario 7.9.4. Sea {\(S_n; n ≥ 1\)} un paseo aleatorio,\(S_n = X_1 +... + X_n\) donde cada uno\(X_i\) tiene función generadora de momento medio\(\overline{X} < 0\) y semiinvariante\(\gamma (r)\). Para cualquier\(r > 0\) tal que\(0 < \gamma \ref{r} < \infty\) (\(i.e.\), para\(r > r^∗\)), y para cualquiera\(a > 0\).

    \[ \text{Pr} \left\{ \max_{1\leq i \leq n} S_i \geq \alpha \right\} \leq \exp \{-r\alpha + n\gamma \ref{r} \} \nonumber \]

    Prueba: Porque\(r > r^∗\), {\(\exp (rS_n); n ≥ 1\)} es una submartingala. Tomando\(a = \exp(rα)\) en (7.9.1), obtenemos (7.9.6).

    \(\square \)

    El siguiente teorema sobre las supermartingales es, en cierto sentido, el dual de la desigualdad de la submartingala de Kolmogorov. Obsérvese, sin embargo, que se aplica a los términos\(n ≥ m\) en la super-martingala más que a los términos\(n ≤ m\).

    Teorema 7.9.2. Sea {\(Z_n; n ≥ 1\)} una supermartingala no negativa. Entonces para cualquier entero positivo\(m\) y cualquiera\(a > 0\),

    \[ \text{Pr} \left\{ \bigcup_{i\geq m} \{Z_i\geq a\} \right\} \leq \dfrac{\mathsf{E}[Z_m]}{a} \nonumber \]

    Prueba: Para dado\(m ≥ 1\) y\(a > 0\), let\(J\) ser un ensayo de detención posiblemente-defectuoso definido como el más pequeño\(i ≥ m\) para el cual\(Z_i ≥ a\). Sea {\(Z_n^∗; n ≥ 1\)} el correspondiente proceso detenido, que también es no negativo y es una supermartingala del Teorema 7.8.1. Para cualquiera\(k > m\), tenga en cuenta que\(Z_k^∗ ≥ a\) iff\(\max_{m≤i≤k} Z_i ≥ a\). Así

    \[ \text{Pr} \left\{ \max_{m\leq i\leq k} Z_i\geq a \right\} = \text{Pr} \{Z_k^* \geq a\} \leq \dfrac{\mathsf{E}[Z^*_k]}{a} \nonumber \]

    Dado que {\(Z_n^∗; n ≥ 1\)} es una supermartingala,\ ref {7.76} demuestra eso\(\mathsf{E} [Z^∗_k] ≤ \mathsf{E} [Z^∗_m]\). Por otro lado,\(Z^∗_m= Z_m\) ya que el proceso no puede detenerse antes de época\(m\). Así\(\text{Pr} \{ \max_{m≤i≤k} Z_i ≥ a\}\) es como mucho\(\mathsf{E} [Z_m] /a\). Ya que\(k\) es arbitrario, podemos pasar al límite, obteniendo (7.9.7) y completando la prueba.

    fuerte ley de grandes números (SLLN)

    Ahora procedemos a probar la fuerte ley de los grandes números asumiendo sólo un segundo momento. Recordemos que probamos el SLLN bajo el supuesto de un cuarto momento finito en la Sección 4.2.1. Aquí utilizamos la desigualdad martingala de Kolmogorov para demostrar que sólo se requiere un segundo momento. El teorema también es cierto asumiendo sólo un primer momento absoluto, pero el argumento de truncamiento que utilizamos para la ley débil en el Teorema 1.5.3 no se traslada simplemente aquí.

    Teorema 7.9.3 (SLLN) Let {\(X_i; i ≥ 1\)} ser una secuencia de variables aleatorias IID con media\(\overline{X}\) y desviación estándar\(σ< \infty\). Vamos\(S_n = X_1 + ··· + X_n\). Entonces para cualquier\(\epsilon > 0\),

    \[ \begin{align} \text{Pr} \left\{ \lim_{n\rightarrow \infty} \dfrac{S_n}{n}= \overline{X} \right\} \quad &= \quad 1 \quad \text{and} \\ \lim_{n\rightarrow \infty} \text{Pr} \left\{ \bigcup_{m>n} \left| \dfrac{S_m}{m}-\overline{X} \right| > \epsilon \right\} \quad &= \quad 0 \end{align} \nonumber \]

    Prueba: De la Sección 4.2.2, (7.9.8) y (7.9.9) son equivalentes, por lo que establecemos (7.9.9). A
    \(n\) medida que aumenta, los términos sucesivos son goteados fuera de la unión anterior, por lo que la probabilidad no aumenta con\(n\). Así podemos restringir la atención a\(n\) de la forma\(2^k\) para entero\(k\). Para cualquier dado\(k\), la unión anterior se puede separar en bloques de la siguiente manera:

    \[ \begin{align} \text{Pr} \left\{ \bigcup_{m>2^k} \left\{ \left| \dfrac{S_m}{m}-\overline{X} \right| >\epsilon \right\} \right\} \quad &= \quad \text{Pr} \left\{ \bigcup^{\infty}_{j=k} \bigcup^{2^{j+1}}_{m=2^j+1} \left\{ \left| \dfrac{S_m}{m} - \overline{X} \right| > \epsilon \right\} \right\} \nonumber \\ &\leq \quad \sum^{\infty}_{j=k}\text{Pr} \left\{ \bigcup^{2^{j+1}}_{m=2^j+1} \left\{ \left| \dfrac{S_m}{m} - \overline{X} \right| > \epsilon \right\} \right\}\\ &= \quad \sum^{\infty}_{j=k}\text{Pr} \left\{ \bigcup^{2^{j+1}}_{m=2^j+1} \{ | S_m-m \overline{X} | > \epsilon m \} \right\} \nonumber \\ &\leq \quad \sum^{\infty}_{j=k} \text{Pr} \left\{ \bigcup^{2^{j+1}}_{m=2^j+1} \{ |S_m-m\overline{X} | > \epsilon 2^j \} \right\} \\ &= \quad \sum^{\infty}_{j=k} \text{Pr} \left\{ \max_{2^j+1\leq m \leq 2^{j+1}}|S_m - m \overline{X}| > \epsilon 2^j \right\} \nonumber \\ &\leq \quad \sum^{\infty}_{j=k} \text{Pr} \left\{ \max_{1\leq m \leq 2^{j+1}}|S_m-m\overline{X}| > \epsilon 2^j \right\} \\ &\leq \quad \sum^{\infty}_{j=k} \dfrac{2^{j+1}\sigma^2}{\epsilon^22^{2j}} \quad = \quad \dfrac{2^{-k+2}\sigma^2}{\epsilon^2} \end{align} \nonumber \]

    En (7.9.10), se utilizó el sindicato atado sobre el sindicato\(j\). En (7.9.11), se utilizó el hecho de que\(m ≥ 2^j\) para aumentar el tamaño de los conjuntos en la unión. En (7.9.12), nos limitamos por arriba agregando términos adicionales a la maximización, y en (7.9.13) se utilizó la desigualdad martingala de Kolmogorov. El comprobante se completa señalando que el límite superior en (7.9.13) va a 0 con el incremento\(k\).

    \(\square \)

    Cabe señalar que, aunque la prueba consiste en una gran cantidad de escalones, los pasos son todos bastante pequeños y familiares. Básicamente, la prueba es una manera resbaladiza de delimitar la probabilidad de los términos de orden superior en una secuencia mediante el uso de la desigualdad martingala de Kolmogorov, que limita los términos de bajo orden.

    teorema de convergencia martingala

    Otro resultado famoso que se desprende de la desigualdad de la submartingala de Kolmogorov es el teorema de convergencia de la martingala. Esto establece que si una martingala {\(Z_n; n ≥ 1\)} tiene la propiedad de que hay alguna finita\(M\) tal que\(\mathsf{E} [|Z_n|] ≤ M\) para todos\( n\), entonces\(\lim_{n→\infty} Z_n\) existe (y es finita) con probabilidad 1. Este es un teorema poderoso en el trabajo más avanzado, pero no es tan útil como parece, ya que la restricción\(\mathsf{E} [|Z_n|] ≤ M\) es más que una restricción técnica; por ejemplo, no se satisface con una caminata aleatoria de media cero. Demostramos el teorema con la restricción adicional de que hay algunos finitos\(M\) tales que\(\mathsf{E} [Z^2_n] ≤ M\) para todos\( n\).

    Teorema 7.9.4 (Teorema de convergencia Martingala) Vamos a {\(Z_n ; n ≥ 1\)} ser una martingala y asumir que hay alguna finita\(M\) tal que\(\mathsf{E} [Z^2_n]\leq M\) para todos\(n\). Entonces hay una variable aleatoria\(Z\) tal que, para todas las secuencias de muestra excepto un conjunto de probabilidad 0,\(\lim_{n→\infty} Z_n = Z\).

    Prueba : Del Teorema 7.7.1 y el supuesto de que\(\mathsf{E} [Z_n^2] ≤ M\), {\(Z_n^2; n ≥ 1\)} es una submartingala. Así, de (7.75),\(\mathsf{E} [Z^2_n]\) es no decreciente en\(n\), y ya que\(\mathsf{E} [Z^2_n]\) está acotado,\(\lim_{n→\infty} \mathsf{E} [Z_n^2] = M'\) para algunos\(M' ≤ M\). Para cualquier entero\(k\), el proceso {\(Y_n = Z_{k+n} − Z_k; n ≥ 1\)} es una martingala media cero (ver Ejercicio 7.29). Así, de la desigualdad martingala de Kolmogorov,

    \[ \text{Pr} \left\{ \max_{1\leq n\leq m} |Z_{k+n}-Z_k |\geq b \right\} \leq \mathsf{E}[(Z_{k+m}-Z_k)^2]/b^2 \nonumber \]

    A continuación, observar eso\(\mathsf{E} [Z_{k+m}Z_k | Z_k = z_k, Z_{k−1} = z_{k−1}, . . . , Z_1 = z_1] = z_k^2\), y por lo tanto,\(\mathsf{E} [Z_{k+m}Z_k] = \mathsf{E} [Z_k^2]\). Así\(\mathsf{E} [(Z_{k+m} − Z_k)^2] = \mathsf{E} [Z^2_{k+m}] − \mathsf{E} [Z_k^2] ≤ M' − \mathsf{E} [Z_k^2]\). Como esto es independiente de\(m\), podemos pasar al límite, obteniendo

    \[ \text{Pr} \left\{ \sup_{n\geq 1} |Z_{k+n}-Z_k|\geq b \right\} \leq \dfrac{M'-\mathsf{E}[Z^2_k]}{b^2} \nonumber \]

    Desde entonces tenemos\(\lim_{k→\infty} \mathsf{E} [Z^2_k] = M'\), para todos\(b > 0\),

    \[ \lim_{k\rightarrow \infty} \text{Pr} \left\{ \sup_{n\geq 1} |Z_{k+n}-Z_k| \geq b \right\} =0 \nonumber \]

    Esto significa que con probabilidad 1, una secuencia de muestra de {\(Z_n; n ≥ 1\)} es una secuencia de Cauchy, y así se acerca a un límite, concluyendo la prueba.

    \(\square \)

    Este resultado puede interpretarse con relativa facilidad para procesos de ramificación. Para un proceso de ramificación {\(X_n; n ≥ 1\)} donde\(\overline{Y}\) está el número esperado de descendencia de un individuo, {\(X_n/\overline{Y}^n; n ≥ 1\)} es una martingala que satisface las condiciones anteriores. Si\(\overline{Y} ≤ 1\), el proceso de ramificación muere con probabilidad 1, entonces\(X_n/\overline{Y}^n\) se acerca a 0 con probabilidad 1. Porque\(\overline{Y} > 1\), sin embargo, el proceso de ramificación muere con alguna probabilidad menor a 1 y se acerca de\(\infty \) otra manera. Así, la variable aleatoria limitante\(Z\) es 0 con la probabilidad de que el proceso finalmente se agote, y es positivo de lo contrario. En este último caso, en general\(n\), la interpretación es que cuando la población es muy grande, un efecto ley de grandes números controla su crecimiento en cada generación sucesiva, de manera que eso\(X_n/\overline{Y}^n\) tiende a cambiar de manera aleatoria para pequeños\(n\), y luego cambia cada vez más poco como \(n\)aumenta.


    This page titled 7.9: Las desigualdades de Kolmogorov is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Robert Gallager (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.