Saltar al contenido principal
Library homepage
 
LibreTexts Español

17.4: Desigualdades

  • Page ID
    151805
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\renewcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\Q}{\mathbb{Q}}\)\(\newcommand{\D}{\mathbb{D}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    En esta sección, estudiaremos una serie de desigualdades interesantes asociadas con las martingales y sus primos sub-martingala y super-martingala. Estos resultan ser muy importantes tanto por razones teóricas como por aplicaciones. Muchos necesitan revisar infimums y supremums.

    Supuestos básicos

    Al igual que en la Introducción, comenzamos con un proceso estocástico\( \bs{X} = \{X_t: t \in T\} \) en un espacio de probabilidad subyacente\( (\Omega, \mathscr{F}, \P) \), teniendo espacio de estado\( \R \), y donde el conjunto de índices\( T \) (que representa el tiempo) es\( \N \) (tiempo discreto) o\( [0, \infty) \) (tiempo continuo). A continuación, tenemos una filtración\(\mathfrak{F} = \{\mathscr{F}_t: t \in T\} \), y asumimos que\( \bs{X} \) se adapta a\( \mathfrak{F} \). Así\( \mathfrak{F} \) es una familia cada vez mayor de sub\( \sigma \) -álgebras de\( \mathscr{F} \) y\( X_t \) es medible con respecto a\( \mathscr{F}_t \) for\( t \in T \). Pensamos en\( \mathscr{F}_t \) ello como la colección de eventos hasta el momento\( t \in T \). Suponemos que\( \E\left(\left|X_t\right|\right) \lt \infty \), para que la media de\( X_t \) exista como número real, para cada uno\( t \in T \). Finalmente, en tiempo continuo donde\( T = [0, \infty) \), hacemos los supuestos estándar que\( t \mapsto X_t \) es correcto continuo y tiene límites izquierdos, y que la filtración\( \mathfrak F \) es correcta continua y completa.

    Inequalitas máximas

    Por motivación, repasemos una versión modificada de la desigualdad de Markov, llamada así por Andrei Markov.

    Si\( X \) es una variable aleatoria de valor real, entonces\[ \P(X \ge x) \le \frac{1}{x} \E(X ; X \ge x), \quad x \in (0, \infty) \]

    Prueba

    La versión modificada tiene esencialmente la misma prueba elegante que la original. Claramente\[ x \bs{1}(X \ge x) \le X \bs{1}(X \ge x), \quad x \in (0, \infty) \] Tomando valores esperados a través de la desigualdad da\( x \P(X \ge x) \le \E(X; X \ge x) \). Dividir ambos lados por\( x \) da el resultado (y es en este punto que necesitamos\( x \gt 0. \)).

    Entonces la desigualdad de Markov da un límite superior sobre la probabilidad que\( X \) supera un valor positivo dado\( x \), en términos de un monente de\( X \). Ahora volvamos a nuestro proceso estocástico\( \bs X = \{X_t: t \in T\} \). Para simplificar la notación, vamos\( T_t = \{s \in T: s \le t\} \) por\( t \in T \). Aquí está la definición principal:

    Para el proceso\( \bs X \), defina el proceso máximo correspondiente\( \bs U = \{U_t: t \in T\} \) mediante\[ U_t = \sup\{X_s: s \in T_t\}, \quad t \in T \]

    Claramente, el proceso máximo va en aumento, de manera que si\( s, \, t \in T \) con\( s \le t \) entonces\( U_s \le U_t \). Una aplicación trivial de la desigualdad de Markov arriba daría\[ \P(U_t \ge x) \le \frac{1}{x} \E(U_t; U_t \ge x), \quad x \gt 0 \] Pero cuando\( \bs X \) es una sub-martingala, el siguiente teorema da un resultado mucho más fuerte al reemplazar el primer occurrente de\( U_t \) a la derecha por\( X_t \). El teorema es conocido como la desigualdad máxima de la sub-martingala de Doob (o más simplemente como la inequaltiy de Doob), llamado una vez más por Joseph Doob que hizo gran parte del trabajo pionero en martingales. Una sub-martingala tiene una especie de propiedad creciente en el sentido de que si\( s, \, t \in T \) con\( s \le t \) entonces\( \E(X_t \mid \mathscr{F}_s) \ge X_s \), entonces quizás no sea del todo sorprendente que tal límite sea posible.

    Supongamos que\( \bs X \) es una sub-martingala. Para\( t \in T \), vamos\( U_t = \sup\{X_s: s \in T_t\} \). Entonces\[ \P(U_t \ge x) \le \frac{1}{x} \E(X_t; U_t \ge x), \quad x \in (0, \infty) \]

    Prueba en el tiempo discreto

    Entonces\( T = \N \) y el proceso máximo está dado por\( U_n = \max\left\{X_k: k \in \N_n\right\} \) for\( n \in \N \). Dejar\( x \in (0, \infty) \), y definir\( \tau_x = \min\{k \in \N: X_k \ge x\} \) dónde como de costumbre,\( \min(\emptyset) = \infty \). El tiempo aleatorio\( \tau_x \) es un tiempo de detención relativo a\( \mathfrak F \). Además, los procesos\( \{U_n: n \in \N\} \) y\( \{\tau_x: x \in (0, \infty)\} \) son inversos en el sentido de que para\( n \in \N \) y\( x \in (0, \infty) \),\[ U_n \ge x \text{ if and only if } \tau_x \le n \] Hemos visto este tipo de dualidad antes, en el proceso de Poisson y más generalmente en los procesos de renovación. Vamos\( n \in \N \). Primero tenga en cuenta que\[ \E\left(X_{\tau_x \wedge n}\right) = \E\left(X_{\tau_x \wedge n}; \tau_x \le n\right) + \E\left(X_{\tau_x \wedge n}; \tau_x \gt n\right) \] Si\( \tau_x \le n \) entonces\( X_{\tau_x \wedge n} = X_{\tau_x} \ge x \). Por otro lado si\( \tau_x \gt n \) entonces\( X_{\tau_x \wedge n} = X_n \). Así que tenemos\[ \E\left(X_{\tau_x \wedge n}\right) \ge x \P(\tau_x \le n) + \E(X_n; \tau_x \gt n) = x \P(U_t \ge x) + \E(X_n; \tau_x \gt n) \] Similarmente,\[ \E(X_n) = \E(X_n; \tau_x \le n) + \E(X_n; \tau_x \gt n) = \E(X_n; U_t \ge x) + \E(X_n; \tau_x \gt n) \] Pero por el teorema de detención opcional,\( \E\left(X_{\tau_x \wedge n}\right) \le \E(X_n) \). De ahí que tengamos\[ x \P(U_t \ge x) + \E(X_n; \tau_x \gt n) \le \E(X_n; U_t \ge x) + \E(X_n; \tau_x \gt n)\] restando el término común y luego dividiendo ambos lados por\( x \) da el resultado

    Prueba en tiempo continuo

    Para\( k \in \N \), vamos a\( \D^+_k = \{j / 2^k: j \in \N\} \) denotar el conjunto de racionales diádicos no negativos (o racionales binarios) de rango\( k \) o menos. Para\( t \in [0, \infty) \) let\( T^k_t = (\D^+_k \cap [0, t]) \cup \{t\} \), así que ese\( T^k_t \) es el conjunto finito de tales racionales diádicos que son menores que\( t \), con\( t \) agregado al conjunto. Tenga en cuenta que\( T^k_t \) tiene una enumeración ordenada, por lo que\( \bs{X}^k = \{X_s: s \in T^k_t\} \) es una sub-martingala de tiempo discreto para cada uno\( k \in \N \). Dejemos\( U^k_t = \sup\{X_s: s \in T^k_t\} \) para\( k \in \N \). Tenga en cuenta que\( T^j_t \subset T^k_t \subset [0, t] \) para\( t \in [0, \infty) \) y para\( j, \, k \in \N \) con\( j \lt k \) y por lo tanto\( U^j_t \le U^k_t \le U_t \). De ello se deduce que para\( x \in (0, \infty) \),\[ \left\{U^j_t \ge x\right\} \subseteq \left\{U^k_t \ge x\right\} \subset \{U_t \ge x\} \] El conjunto\( \D^+ \) de todos los racionales diádicos no negativos es denso en\( [0, \infty) \) y así ya que\( \bs X \) es derecho continuo y ha dejado límites, se deduce que si\( U_t \ge x \) entonces\( U^k_t \ge x \) para algunos\( k \in \N \). Es decir, tenemos\[ \{U_t \ge x\} = \bigcup_{k=0}^\infty \left\{U^k_t \ge x\right\} \] La desigualdad máxima se aplica a la sub-martingala de tiempo discreto\( \bs{X}^k \) y así\[ P(U^k_t \ge x) \le \frac{1}{x} \E(X_t; U^k_t \ge x) \] para cada una\( k \in \N \). Por el teorema de convergencia monótona, el lado izquierdo converge a\( \P(U_t \ge x) \) as\( k \to \infty \) y el lado derecho converge a\( \E(X; U_t \ge x) \) as\( k \to \infty \).

    Hay una serie de corolarios simples de la desigualdad máxima. Para el primero, recordemos que la parte positiva de\( x \in \R \) es\( x^+ = x \vee 0 \), de modo que\( x^+ = x \) si\( x \gt 0 \) y\( x^+ = 0 \) si\( x \le 0 \).

    Supongamos que\( \bs X \) es una sub-martingala. Para\( t \in T \), vamos\( V_t = \sup\{X_s^+: s \in T_t\} \). Entonces\[ \P(V_t \ge x) \le \frac{1}{x} \E(X_t^+; V_t \ge x), \quad x \in (0, \infty) \]

    Prueba

    Recordemos que dado que\( \bs X \) es una sub-martingala y\( x \mapsto x^+ \) es creciente y convexa, también\( \bs X^+ = \{X_t^+: t \in T\} \) es una sub-martingala. De ahí que el resultado se deduce de la desigualdad máxima general para los sub-martingales.

    Como corolario más simple, señalar que\[ \P(V_t \ge x) \le \frac{1}{x} \E(X_t^+), \quad x \in (0, \infty) \] Así es a veces como se da la máxima desigualdad en la literatura.

    Supongamos que\( \bs X \) es una martingala. Para\( t \in T \), vamos\( W_t = \sup\{|X_s|: s \in T_t\} \). Entonces\[ \P(W_t \ge x) \le \frac{1}{x} \E(|X_t|; W_t \ge x), \quad x \in (0, \infty) \]

    Prueba

    Recordemos que dado que\( \bs X \) es una martingala, y\( x \mapsto |x| \) es convexa,\( |\bs X| = \{|X_t|: t \in T\} \) es una sub-martingala. De ahí que el resultado se deduce de la desigualdad máxima general para los sub-martingales.

    Una vez más, otro corolario simple es\[ \P(W_t \ge x) \le \frac{1}{x} \E(|X_t|), \quad x \in (0, \infty) \] Siguiente recordar que para\( k \in (1, \infty) \), la\( k \) -norma de una variable aleatoria de valor real\( X \) es\( \|X\|_k = \left[\E(|X|^k)\right]^{1/k} \), y el espacio vectorial\( \mathscr{L}_k \) consiste en todas las variables aleatorias de valor real para las cuales esta norma es finita. El siguiente teorema es la versión normal de la desigualdad máxima de Doob.

    Supongamos nuevamente que\( \bs X \) es una martingala. Para\( t \in T \), vamos\( W_t = \sup\{|X_s|: s \in T_t\} \). Entonces para\( k \gt 1 \),\[ \|W_t\|_k \le \frac{k}{k - 1} \|X_t\|_k\]

    Prueba

    Arreglar\( t \in T \). Si\( \E(|X_t|^k) = \infty \), la desigualdad trivial sostiene, entonces asumamos eso\( \E(|X_t|^k) \lt \infty \), y así eso\( X_t \in \mathscr{L}_k \). La prueba se basa fundamentalmente en la desigualdad de Hölder, y para que esa desigualdad funcione, necesitamos truncar la variable\( W_t \) y considerar en su lugar la variable aleatoria delimitada\( W_t \wedge c \) donde\( c \in (0, \infty) \). Primero tenemos que demostrar que\[ \P(W_t \wedge c \ge x) \le \frac{1}{x} \E(|X_t|; W_t \wedge c \ge x), \quad x \in (0, \infty) \] si\( c \lt x \), ambos lados son 0. Si\( c \ge x \),\( \{W_t \wedge c \ge x\} = \{W_t \ge x\} \) y así desde la desigualdad máxima anterior,\[ \P(W_t \wedge c \ge x) = \P(W_t \ge x) \le \frac{1}{x} \E(|X_t|; W_t \ge x) = \E(|X_t|; W_t \wedge c \ge x) \] Siguiente recordamos que\[ \|W_t \wedge c\|_k^k = \E[(W_t \wedge c)^k] = \int_0^\infty k x^{k-1} \P(W_t \wedge c \ge x) dx \] Aplicando la desigualdad da\[ \E[(W_t \wedge c)^k] \le \int_0^\infty k x^{k-2} \E[|X_t|; W_t \wedge c \ge x] dx \] Por el teorema de Fubini podemos intercambiar el valor esperado y la integral que da\[ \E[(W_t \wedge c)^k] \le \E\left[\int_0^{W_t \wedge c} k x^{k-2} |X_t| dx\right] = \frac{k}{k - 1} \E[|X_t| (W_t \wedge c)^{k-1}] \] Pero\( X_t \in \mathscr{L}_k \) y\( (W_t \wedge c)^{k-1} \in \mathscr{L}_j \) donde \( j = k / (k - 1) \)es el exponente conjugado a\( k \). Entonces una aplicación de la desigualdad de Hölder da\[ \|W_t \wedge c\|_k^k \le \frac{k}{k - 1}\|X_t\|_k \, \|(W_t \wedge c)^{k-1}\|_j = \frac{k}{k - 1}\|X_t\|_k \|W_t \wedge c\|_k^{k-1} \] donde hemos utilizado el simple hecho de que\( \|(W_t \wedge c)^{k-1}\|_j = \|W_t \wedge c\|_k^{k-1} \). Dividir por este factor da\[ \|W_t \wedge c\|_k \le \frac{k}{k - 1} \|X_t\|_k \] Finalmente,\( \|W_t \wedge c\|_k \uparrow \|W_t\|_k\) como\( c \to \infty \) por el teorema de convergencia monótona. Entonces, dejar\( c \to \infty \) entrar la última ecuación mostrada da\[ \|W_t\|_k \le \frac{k}{k - 1} \|X_t\|_k \]

    Una vez más,\( \bs W = \{W_t: t \in T\} \) es el proceso máximo asociado con\( |\bs X| = \{\left|X_t\right|: t \in T\} \). Como se señala en la prueba,\( j = k / (k - 1) \) es el exponente conjugado a\( k \), satisfactorio\( 1 / j + 1 / k = 1 \). Por lo que esta versión de la desigualdad máxima establece que la\( k \) norma del máximo de la martingala\( \bs X \) sobre\( T_t \) está delimitada por\( j \) tiempos la\( k \) norma de\( X_t \), dónde\( j \) y\( k \) son exponentes conjugados. Declarada solo en términos de valor esperado, más que normas, la desigualdad\( \mathscr{L}_k \) máxima es\[ \E\left(\left|W_t\right|^k\right) \le \left(\frac{k}{k - 1}\right)^k \E\left(\left|X_t\right|^k\right) \] Nuestro resultado final en esta discusión es una variación de la desigualdad máxima para las súper martingales.

    Supongamos que\( \bs X = \{X_t: t \in T\} \) es una súper martingala no negativa, y vamos\( U_\infty = \sup\{X_t: t \in T\} \). Entonces\[ \P(U_\infty \ge x) \le \frac{1}{x} \E(X_0), \quad x \in (0, \infty) \]

    Prueba

    Dejemos\( Y_t = -X_t \) para\( t \in T \). Ya que\( \bs X \) es una super-martingala,\( \bs Y \) es un sub-martinagle. Y ya que no\( \bs X \) es negativo,\( Y_t^+ = X_t \) para\( t \in T \). Dejemos\( U_t = \sup\{X_s: s \in T_t\} = \sup\{Y_s^+: s \in T_t\} \) para\( t \in T \). Por la desigualdad máxima para los sub-martingales, y ya que\( \bs X \) es una super-martingala tenemos para\( t \in T \),\[ \P(U_t \ge x) \le \frac{1}{x} \E(Y_t^+) = \frac{1}{x} \E(X_t) \le \frac{1}{x} \E(X_0), \quad x \in (0, \infty) \] Siguiente nota que\( U_t \uparrow U_\infty \) como\( t \to \infty \). Dejar\( x \in (0, \infty) \) y\( \epsilon \in (0, x) \). Si\( U_\infty \ge x \) entonces\( U_t \ge x - \epsilon \) por suficientemente grande\( t \in T \). De ahí\[ \{U_\infty \ge x\} \subseteq \bigcup_{k=1}^\infty \{U_k \ge x - \epsilon\} \] usando el teorema de continuidad para eventos crecientes, y nuestro resultado por encima tenemos\[ \P(U_\infty \ge x) \le \lim_{k \to \infty} \P(U_k \ge x - \epsilon) \le \frac{1}{x - \epsilon} \E(X_0) \] Ya que esto se sostiene para todos\( \epsilon \in (0, x) \), se deduce que\( \P(U_\infty \ge x) \le \frac{1}{x} \E(X_0) \).

    La desigualdad de cruce

    La desigualdad ascendente da un límite sobre cuánto puede oscilar una sub-martingala (o super-martingala), y es la herramienta principal en los teoremas de convergencia de la martingala que se estudiará en la siguiente sección. Ya no debería sorprender que la desigualdad se deba a Joseph Doob. Comenzamos con el caso de tiempo discreto.

    Supongamos que\( \bs x = (x_n: n \in \N) \) es una secuencia de números reales, y eso\( a, \, b \in \R \) con\( a \lt b \). Definir\( t_0(\bs x) = 0 \) y luego definir recursivamente\ begin {align*} s_ {k+1} (\ bs x) & =\ inf\ {n\ in\ N: n\ ge t_k (\ bs x), x_n\ le a\},\ quad k\ in\ N\\ t_ {k+1} (\ bs x) & =\ inf\ {n\ in\ N: n\ ge {k+1} (\ bs x), x_n\ ge b\},\ cuádruple k\ in\ N\ final {alinear*}

    1. El número de cruces ascendentes del intervalo\( [a, b] \) por la secuencia\( \bs x \) hasta el tiempo\( n \in \N \) es\[ u_n(a, b, \bs x) = \sup\{k \in \N: t_k(\bs x) \le n\} \]
    2. El número total de cruces ascendentes del intervalo\( [a, b] \) por la secuencia\( \bs x \) es\[ u_\infty(a, b, \bs x) = \sup\{k \in \N: t_k(\bs x) \lt \infty\} \]
    Detalles

    Como es habitual, definimos\( \inf(\emptyset) = \infty \). Tenga en cuenta que si\( (x_n: n = s_k(\bs x), \ldots t_k(\bs x)) \) es\( t_k(\bs x) \lt \infty \) for\( k \in \N_+ \), entonces es el\( k \) th cruce ascendente del intervalo\( [a, b] \) por la secuencia\( \bs x \).

    Entonces informalmente, como su nombre indica,\( u_n(a, b, \bs x) \) es el número de veces que la secuencia\( (x_0, x_1, \ldots, x_n) \) va de un valor inferior\( a \) a uno superior\( b \), y\( u(a, b, \bs x) \) es el número de veces que toda la secuencia\( \bs x \) va de un valor por debajo\( a \) a uno por encima\( b \). Estas son algunas de las propiedades simples:

    Supongamos nuevamente que\( \bs x = (x_n: n \in \N) \) es una secuencia de números reales y eso\( a, \, b \in \R \) con\( a \lt b \).

    1. \( u_n(a, b, \bs x) \)está aumentando en\( n \in \N \).
    2. \( u_n(a, b, \bs x) \to u(a, b, \bs x) \)como\( n \to \infty \).
    3. Si\( c, \, d \in \R \) con\( a \lt c \lt d \lt b \) entonces\( u_n(c, d, \bs x) \ge u_n(a, b, \bs x) \) para\( n \in \N \), y\( u(c, d, \bs x) \ge u(a, b, \bs x) \).
    Prueba
    1. Tenga en cuenta que\(\{k \in \N: t_k(\bs x) \le n\} \subseteq \{k \in \N: t_k(\bs x) \le n + 1\}\).
    2. Tenga en cuenta que\( \bigcup_{n=0}^\infty \{k \in \N: t_k(\bs x) \le n\} = \{k \in \N: t_k(\bs x) \le \infty\} \).
    3. Cada cruce ascendente de también\( [a, b] \) es un cruce ascendente de\( [c, d] \).

    La importancia de las definiciones se encuentra en el siguiente teorema. Recordemos que\( \R^* = \R \cup \{-\infty, \infty\} \) es el conjunto de números reales extendidos, y\( \Q \) es el conjunto de números reales racionales.

    Supongamos nuevamente que\( \bs x = (x_n: n \in \N) \) es una secuencia de números reales. Entonces\( \lim_{n \to \infty} x_n \) existe en\( \R^* \) es y sólo si\( u_\infty(a,b, \bs x) \lt \infty\) para cada uno\( a, \, b \in \Q \) con\( a \lt b \).

    Prueba

    Demostramos lo contrapositivo. Tenga en cuenta que las siguientes declaraciones son equivalentes:

    1. \( \lim_{n \to \infty} x_n \)no existe en en\( \R^* \).
    2. \( \liminf_{n \to \infty} x_n \lt \limsup_{n \to \infty} x_n \).
    3. Existe\( a, \, b \in \Q \) con\( a \lt b \) y con\( x_n \le a \) para infinitamente muchos\( n \in \N \) y\( x_n \ge b \) para infinitamente muchos\( n \in \N \).
    4. Existe\( a, \, b \in \Q \) con\( a \lt b \) y\( u_\infty(a, b, \bs x) = \infty \).

    Claramente el teorema es cierto con\( \Q \) reemplazado por\( \R \), pero la contabilidad de\( \Q \) será importante en el teorema de convergencia martingala. Como simple corolario, si\( \bs x \) está acotado y\( u_\infty(a, b, \bs x) \lt \infty \) para cada uno\( a, \, b \in \Q \) con\( a \lt b \), entonces\( \bs x \) converge en\( \R \). La desigualdad ascendente para una martingala de tiempo discreto\( \bs X \) da un límite superior sobre el número esperado de cruces ascendentes de\( \bs X \) hasta el tiempo\( n \in \N \) en términos de un momento de\( X_n \).

    Supongamos que\( \bs X = \{X_n: n \in \N\} \) satisface los supuestos básicos con respecto a la filtración\( \mathfrak F = \{\mathscr{F}_n: n \in \N\} \), y vamos\( a, \, b \in \R \) con\( a \lt b \). Let\( U_n = u_n(a, b, \bs X) \), el número aleatorio de cruces ascendentes de\( [a, b] \) por\( \bs X \) hasta el tiempo\( n \in \N\).

    1. Si\( \bs X \) es una super-martingala relativa a\( \mathfrak F \) entonces\[ \E(U_n) \le \frac{1}{b - a} \E[(X_n - a)^-] \le \frac{1}{b - a}\left[\E(X_n^-) + |a|\right] \le \frac{1}{b - a} \left[\E(|X_n|) + |a|\right], \quad n \in \N \]
    2. Si\( \bs X \) es una sub-martingala relativa a\( \mathfrak F \) entonces\[ \E(U_n) \le \frac{1}{b - a} \E[(X_n - a)^+] \le \frac{1}{b - a}\left[\E(X_n^+) + |a|\right] \le \frac{1}{b - a}\left[\E(|X_n|) + |a|\right], \quad n \in \N \]
    Prueba

    En el contexto de la definición arriba-cruce anterior, let\( \sigma_k = s_k(\bs X) \) y\( \tau_k = t_k(\bs X) \). Estos son los tiempos aleatorios que definen los cruces ascendentes de\( \bs X \). Dejar\( Y_k = X_{\tau_k \wedge n} - X_{\sigma_k \wedge n} \) y luego definir\( Z_n = \sum_{k=1}^n Y_k \). Para entender la suma, tomemos casos para el término\( k \) th\( Y_k \):

    • Si\( \tau_k \le n \) entonces\( Y_k = X_{\tau_k} - X_{\sigma_k} \ge b - a \). Por definición, los primeros\( U_n \) términos son de esta forma.
    • Si\( \sigma_k \le n \lt \tau_k \) entonces\( Y_k = X_n - X_{\sigma_k} \ge X_n - a \). Hay a lo sumo uno de esos términos, con índice\( k = U_n + 1 \).
    • Si\( \sigma_k \gt n \) entonces\( Y_k = X_n - X_n = 0 \).

    De ahí\( Z_n \ge (b - a)U_n + (X_n - a) \bs{1} \left(\sigma_{U_n + 1} \le n\right) \) y así\( (b - a)U_n \le Z_n - (X_n - a) \bs{1} \left(\sigma_{U_n + 1} \le n\right) \) Siguiente nota que\( \sigma_k \wedge n \) y\( \tau_k \wedge n \) son acotados los tiempos de parada y por supuesto\( \sigma_k \wedge n \le \tau_k \wedge n \).

    1. Si\( \bs X \) es una super-martingala, se deduce del teorema de detención opcional que\[ \E(Y_k) = \E\left(X_{\tau_k \wedge n}\right) - \E\left(X_{\sigma_k \wedge n}\right) \le 0 \] y por lo tanto\( \E(Z_n) \le 0 \). Por último,\(-(X_n - a) \bs{1} \left(\sigma_{U_n + 1} \le n\right) \le (X_n - a)^-\). Tomando valores esperados da\[(b - a) \E(U_n) \le \E(Z_n) + \E[(X_n - a)^-] \le \E[(X_n - a)^-]\] Las partes restantes de la desigualdad siguen desde\( (x - a)^- \le x^- + |a| \le |x| + |a| \) para\( x \in \R \).
    Detalles adicionales

    El proceso\( \bs Z = \{Z_n: n \in \N\} \) en la prueba puede ser visto como una transformación de\( \bs X = \{X_n: n \in \N\} \) por un proceso predecible. Específicamente, para\( n \in \N_+ \), vamos\( I_n = 1 \) si\( \sigma_k \lt n \le \tau_k \) para algunos\( k \in \N \), y dejar que\( I_n = 0 \) lo contrario. Desde\( \sigma_k \) y\( \tau_k \) son tiempos de parada, tenga en cuenta que\( \{I_n = 1\} \in \mathscr{F}_{n-1} \) para\( n \in \N_+ \). De ahí que el proceso\( \bs I = \{I_n: n \in \N_+\} \) sea predecible con respecto a\( \mathfrak F \). Además, la transformación de\( \bs X \) by\( \bs I \) es\[ (\bs I \cdot \bs X)_n = \sum_{j=1}^n I_j (X_j - X_{j-1}) = \sum_{k=1}^n \left(X_{\tau_k \wedge n} - X_{\sigma_k \wedge n}\right) = Z_n, \quad n \in \N \]\( \bs I \) Since es un proceso no negativo, si\( \bs X \) es una martingala (sub-martingala, super-martingala), entonces también\( \bs I \cdot \bs X \) es una martingala (sub-martingala, super-martingala).

    Por supuesto si\( \bs X \) es una martingala con respecto a\( \mathfrak F \) entonces se aplican ambas desigualdades. En tiempo continuo, como es habitual, los conceptos son más complicados y técnicos.

    Supongamos eso\( \bs x: [0, \infty) \to \R \) y aquello\( a, \, b \in \R \) con eso\( a \lt b \).

    1. Si\( I \subset [0, \infty) \) es finito, define\( t^I_0(\bs x) = 0 \) y luego define recursivamente\ begin {align*} s^i_ {k+1} (\ bs x) & =\ inf\ left\ {t\ in I: t\ ge t^i_k (\ bs x), x_t\ le a\ right\},\ quad k\ in\ N\ t^i_ {k+1} (\ bs x) & =\ inf\ izquierda\ {t\ in I: t\ ge s^i_ {k+1} (\ bs x), x_t\ ge b\ derecha\},\ quad k\ in\ N\ end {align*} El número de cruces ascendentes del intervalo\( [a, b] \) por la función\( \bs x \) restringida a\( I \) es\[ u_I(a, b, \bs x) = \sup \left\{k \in \N: t^I_k(\bs x) \lt \infty\right\} \]
    2. Si\( I \subseteq [0, \infty) \) es infinito, el número de cruces ascendentes del intervalo\( [a, b] \) por\( \bs x \) restringido a\( I \) es\[ u_I(a, b, \bs x) = \sup\{u_J(a, b, \bs x): J \text{ is finite and } J \subset I\} \]

    Para simplificar la notación, dejaremos\( u_t(a, b, \bs x) = u_{[0, t]}(a, b, \bs x) \), el número de cruces ascendentes de\( [a, b] \) por\( \bs x \) on\( [0, t] \), y\( u_\infty(a, b, \bs x) = u_{[0, \infty)}(a, b, \bs x) \), el número total de cruces ascendentes de\( [a, b] \) by\( \bs x \). En tiempo continuo, la definición de cruces ascendentes se construye a partir de subconjuntos fintos de\( [0, \infty) \) preocupaciones de mensurabilidad, que surgen cuando reemplazamos la función\( \bs x \) determinista por un proceso estocástico\( \bs X \). Aquí están las propiedades simples que son análogas a nuestras anteriores.

    Supongamos otra vez eso\( \bs x: [0, \infty) \to \R \) y\( a, \, b \in \R \) aquello con\( a \lt b \).

    1. Si\( I, \, J \subseteq [0, \infty) \) con\( I \subseteq J \), entonces\( u_I(a, b, \bs x) \le u_J(a, b, \bs x) \).
    2. Si\( (I_n: n \in \N) \) es una secuencia creciente de conjuntos en\( [0, \infty) \) y\( J = \bigcup_{n=0}^\infty I_n \) luego\( u_{I_n}(a, b, \bs x) \to u_J(a, b, \bs x) \) como\( n \to \infty \).
    3. Si\( c, \, d \in \R \) con\( a \lt c \lt d \lt b \) y\( I \subset [0, \infty) \) luego\( u_I(c, d, \bs x) \ge u_I(a, b, \bs x) \).
    Prueba
    1. El resultado se desprende fácilmente de las definiciones si\( I \) es finito (y\( J \) ya sea finito o infinito). Si\( I \) es infinito (y por lo tanto también lo es\( J \)), tenga en cuenta que\[ \{u_K(a, b, \bs x): K \text{ is finite and } K \subseteq I\} \subseteq \{u_K(a, b, \bs x): K \text{ is finite and } K \subseteq J\} \]
    2. Dado que\( I_n \) está aumentando en\( n \in \N \) (en el orden parcial del subconjunto), tenga en cuenta que si\( K \subset [0, \infty)\) es finito, entonces\( K \subseteq J \) si y solo si\( K \subseteq I_n \) para algunos\( n \in \N \).
    3. Cada cruce ascendente de\( [a, b] \) es un cruce ascendente de\( [c, d] \).

    El siguiente resultado es la razón para estudiar los cruces ascendentes en primer lugar. Tenga en cuenta que la definición construida a partir de un conjunto finito es suficiente.

    Supongamos que\( \bs x: [0, \infty) \to \R \). Entonces\( \lim_{t \to \infty} x_t \) existe en\( \R^* \) si y solo si\( u_\infty(a, b, \bs x) \lt \infty \) para cada\( a, \, b \in \Q \) con\( a \lt b \).

    Prueba

    Al igual que en el caso del tiempo discreto, demostramos lo contrapositivo. La prueba es casi la misma: Las siguientes declaraciones son equivalentes:

    1. \( \lim_{t \to \infty} x_t \)no existe en en\( \R^* \).
    2. \( \liminf_{t \to \infty} x_t \lt \limsup_{t \to \infty} x_t \).
    3. Existe\( a, \, b \in \Q \) con\( a \lt b \) y existe\( s_n, \, t_n \in [0, \infty) \) con\( x_{s_n} \le a \) para\( n \in \N \) y\( x_{t_n} \ge b \) para\( n \in \N \).
    4. Existe\( a, \, b \in \Q \) con\( a \lt b \) y\( u_\infty(a, b, \bs x) = \infty \).

    Finalmente, aquí está la desigualdad ascendente para las martingales en tiempo continuo. Una vez más, la desigualdad da un límite sobre el número esperado de cruces ascendentes.

    Supongamos que\( \bs X = \{X_t: t \in [0, \infty)\} \) satisface los supuestos básicos con respecto a la filtración\( \mathfrak F = \{\mathscr{F}_t: t \in [0, \infty)\} \), y vamos\( a, \, b \in \R \) con\( a \lt b \). Let\( U_t = u_t(a, b, \bs X) \), el número aleatorio de cruces ascendentes de\( [a, b] \) por\( \bs X \) hasta el tiempo\( t \in [0, \infty) \).

    1. Si\( \bs X \) es una super-martingala relativa a\( \mathfrak F \) entonces\[ \E(U_t) \le \frac{1}{b - a} \E[(X_t - a)^-] \le \frac{1}{b - a}\left[\E(X_t^-) + |a|\right] \le \frac{1}{b - a}\left[\E(|X_t|) + |a|\right], \quad t \in [0, \infty) \]
    2. Si\( \bs X \) es una sub-martingala relativa a\( \mathfrak F \) entonces\[ \E(U_t) \le \frac{1}{b - a} \E[(X_t - a)^+] \le \frac{1}{b - a} \left[\E(X_t^+) + |a|\right] \le \frac{1}{b - a} \left[\E(|X_t|) + |a|\right], \quad t \in [0, \infty) \]
    Prueba

    Supongamos que\( \bs X \) es una sub-martingala; la prueba para una super-martingala es análoga. Fijar\( t \in [0, \infty) \) y\( a, \, b \in \R \) con\( a \lt b \). Para el\( I \subseteq [0, \infty) \) let\( U_I = u_I(a, b, \bs X) \), el número de cruces ascendentes de\( [a, b] \) por\( \bs X \) restringido a\( I \). Supongamos que\( I \) es finito y ese\( t \in I \) es el máximo de\( I \). Dado que\( \bs X \) restringido a\( I \) es también una sub-martingala, se aplica el teorema de cruce ascendente de tiempo discreto y así\[ \E(U_I) \le \frac{1}{b - a} \E[(X_t - a)^+] \] Desde\( U_t = \sup\{U_I: I \text{ is finite and } I \subset [0, t]\} \), existe finito\( I_n \) para\( n \in \N \) con\( U_{I_n} \uparrow U_t \) as\( n \to \infty \). En particular,\( U_t \) es medible. Por propiedad (a) en el teorema anterior, existe tal secuencia con\( I_n \) incremento en\( n \) y\( t \in I_n \) para cada uno\( n \in \N \). Por el teorema de convergencia monótona,\( \E\left(U_{I_n}\right) \to \E(U_t) \) como\( n \to \infty \). Entonces, por la ecuación mostrada arriba,\[ \E(U_t) \le \frac{1}{b - a} \E[(X_t - a)^+] \]

    Ejemplos y Aplicaciones

    Desigualdad de Kolmogorov

    Supongamos que\( \bs X = \{X_n: n \in \N_+\} \) es una secuencia de variables independientes con\( \E(X_n) = 0 \) y\( \var(X_n) = \E(X_n^2) \lt \infty \) para\( n \in \N_+ \). Dejar\( \bs Y = \{Y_n: n \in \N\} \) ser el proceso de suma parcial asociado a\( \bs X \), para que\[ Y_n = \sum_{i=1}^n X_i, \quad n \in \N \] Desde la Introducción sepamos que\( \bs Y \) es una martingala. Una simple aplicación de la desigualdad máxima da el siguiente resultado, que se conoce como la desigualdad de Kolmogorov, llamada así por Andrei Kolmogorov.

    Para\( n \in \N \), vamos\( U_n = \max\left\{\left|Y_i\right|: i \in \N_n\right\} \). Entonces\[ \P(U_n \ge x) \le \frac{1}{x^2} \var(Y_n) = \frac{1}{x^2} \sum_{i=1}^n \E(X_i^2), \quad x \in (0, \infty)\]

    Prueba

    Como se señaló anteriormente,\( \bs Y \) es una martingala. Dado que la función\( x \mapsto x^2 \) on\( \R \) es convexa,\( \bs{Y}^2 = \{Y_n^2: n \in \N\} \) es una sub-martingala. Vamos\( V_n = \max\{Y_i^2: i \in \N_n\} \) por\( n \in \N \), y vamos\( x \in (0, \infty) \). Aplicando la desigualdad máxima para sub-martingales tenemos\[ \P(U_n \ge x) = \P(V_n \ge x^2) \le \frac{1}{x^2} \E(Y_n^2) = \frac{1}{x^2} \var(Y_n)\] Finalmente, ya que\( \bs X \) es una secuencia independiente,\[ \var(Y_n) = \sum_{i=1}^n \var(X_i) = \sum_{i=1}^n \E(X_i^2) \]

    Rojo y Negro

    En el juego de rojo y negro, un jugador juega una secuencia de juegos de Bernoulli con parámetro de éxito\( p \in (0, 1) \) en apuestas pares. El jugador comienza con una fortuna inicial\( x \) y juega hasta que o bien se arruina o alcanza una fortuna objetivo especificada\( a \), donde\( x, \, a \in (0, \infty) \) con\( x \lt a \). Cuando\( p \le \frac{1}{2} \), para que los juegos sean justos o injustos, una estrategia óptima es el juego audaz: en cada juego, el jugador apuesta toda su fortuna o simplemente lo que se necesita para alcanzar el objetivo, lo que sea más pequeño. En el apartado de juego atrevido demostramos que cuando\( p = \frac{1}{2} \), para que los juegos sean justos, la probabilidad de ganar (es decir, alcanzar el objetivo\( a \) empezando por\( x \)) es\( x / a \). Podemos usar la desigualdad máxima para los súper martingales para demostrar que efectivamente, uno no puede hacerlo mejor.

    Para configurar la notación y revisar diversos conceptos, vamos a\( X_0 \) denotar la fortuna inicial del jugador y dejar\( X_n \) denotar el resultado del juego\( n \in \N_+ \), donde 1 denota una victoria y\( -1 \) una derrota. Así\( \{X_n: n \in \N\} \) es una secuencia de variables independientes con\( \P(X_n = 1) = p \) y\( \P(X_n = -1) = 1 - p \) para\( n \in \N_+ \). (La fortuna inicial\( X_0 \) tiene una distribución no especificada en\( (0, \infty) \).) El jugador está en un casino después de todo, así que claro\( p \le \frac{1}{2} \). Vamos\[ Y_n = \sum_{i=0}^n X_i, \quad n \in \N \] así que ese\( \bs Y = \{Y_n: n \in \N\} \) es el proceso de suma parcial asociado con\( \bs X = \{X_n: n \in \N\} \). Recordemos que también\( \bs Y \) se conoce como el simple paseo aleatorio con parámetro\( p \), y ya que\( p \le \frac{1}{2} \), es una super-martingala. El proceso\( \{X_n: n \in \N_+\} \) es la secuencia de diferencia asociada con\( \bs Y \). Siguiente vamos a\( Z_n \) denotar la cantidad que el jugador apuesta en juego\( n \in \N_+ \). El proceso\( \bs Z = \{Z_n: n \in \N_+\} \) es predecible con respecto a\( \bs X = \{X_n: n \in \N\} \), por lo que\( Z_n \) es medible con respecto a\( \sigma\{X_0, X_1, \ldots, X_{n-1}\} \) for\( n \in \N_+ \). Entonces la fortuna del jugador después de\( n \) los juegos es\[ W_n = X_0 + \sum_{i=1}^n Z_i X_i = X_0 + \sum_{i=1}^n Z_i (Y_i - Y_{i-1}) \] Recall que\( \bs W = \{W_n: n \in \N\} \) es la transformación de\( \bs Z \) con\( \bs Y \), denotado\( \bs W = \bs Z \cdot \bs Y \). Al jugador no se le permite endeudarse y así debemos tener\( Z_n \le W_{n-1} \) para\( n \in \N_+ \): la apuesta del jugador en juego\( n \) no puede superar su fortuna tras juego\( n - 1 \). ¿Cuál es la probabilidad de que el jugador pueda alcanzar o superar el objetivo\( a \) comenzando con la fortuna\( x \lt a \)?

    Vamos\( U_\infty = \sup\{W_n: n \in \N\} \). Supongamos que\( x, \, a \in (0, \infty) \) con\( x \lt a \) y eso\( X_0 = x \). Entonces\[ \P(U_\infty \ge a) \le \frac{x}{a} \]

    Prueba

    Dado que\( \bs Y \) es una súper martingala y no\( \bs Z \) es negativa, la transformación también\( \bs W = \bs Z \cdot \bs Y \) es una súper martingala. Por la desigualdad para las súper martingales no negativas arriba:\[ \P(U_\infty \ge a) \le \frac{1}{a} \E(W_0) = \frac{x}{a} \]

    Tenga en cuenta que los únicos supuestos que se hacen sobre la secuencia de apuestas del jugador\( \bs Z \) es que la secuencia es predecible, de modo que el jugador no puede ver el futuro, y ese jugador no puede endeudarse. Bajo estos supuestos básicos, ninguna estrategia puede hacer nada mejor que el juego audaz. Sin embargo, hay estrategias que hacen lo mismo que el juego audaz; estas son variaciones en el juego audaz.

    Abre la simulación del juego rojo y negro. Seleccione juego en negrita y\( p = \frac{1}{2} \). Juega el juego con diversos valores de fortunas iniciales y objetivo.


    This page titled 17.4: Desigualdades is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.