Saltar al contenido principal
LibreTexts Español

4.12: Variables uniformemente integrables

  • Page ID
    151926
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)
    \(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\cov}{\text{cov}}\)\(\newcommand{\cor}{\text{cor}}\)\(\renewcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Dos de los modos de convergencia más importantes en la teoría de la probabilidad son la convergencia con probabilidad 1 y la convergencia en la media. Como hemos señalado varias veces, ninguno de los modos de convergencia implica el otro. Sin embargo, si imponemos una condición adicional a la secuencia de variables, la convergencia con probabilidad 1 implicará convergencia en la media. El propósito de esta breve, pero avanzada sección, es explorar la condición adicional que se necesita. Esta sección es particularmente importante para la teoría de las martingales.

    Teoría Básica

    Como es habitual, nuestro punto de partida es un experimento aleatorio modelado por un espacio de probabilidad\( (\Omega, \mathscr{F}, \P) \). Así\( \Omega \) es el conjunto de resultados,\( \mathscr{F} \) es el\( \sigma \) -álgebra de eventos, y\( \P \) es la medida de probabilidad en el espacio muestral\( (\Omega, \mathscr F) \). En esta sección, se asume que todas las variables aleatorias que se mencionan son de valor real, a menos que se indique lo contrario. A continuación, recordar de la sección sobre espacios vectoriales que para\( k \in [1, \infty) \),\( \mathscr{L}_k \) es el espacio vectorial de variables aleatorias\( X \) con\( \E(|X|^k) \lt \infty \), dotadas de la norma\( \|X\|_k = \left[\E(X^k)\right]^{1/k} \). En particular,\( X \in \mathscr{L}_1 \) simplemente significa\( \E(|X|) \lt \infty \) eso para que\( \E(X) \) exista como un número real. De la sección sobre el valor esperado como integral, recordemos la siguiente notación, asumiendo por supuesto que el valor esperado tiene sentido:\[ \E(X; A) = \E(X \bs{1}_A) = \int_A X \, d\P \]

    Definición

    El siguiente resultado es la motivación para la definición principal en esta sección.

    Si\( X \) es una variable aleatoria entonces\( \E(|X|) \lt \infty \) si y solo si\( \E(|X|; |X| \ge x) \to 0 \) como\( x \to \infty \).

    Prueba

    Tenga en cuenta que eso no\( |X| \bs{1}(|X| \le x) \) es negativo, aumentando en\( x \in [0, \infty) \) y\( |X| \bs{1}(|X| \le x) \to |X| \) como\( x \to \infty \). Del teorema de convergencia monótona,\( \E(|X|; |X| \le x) \to \E(|X|) \) como\( x \to \infty \). Por otro lado,\[ \E(|X|) = \E(|X|; |X| \le x) + \E(|X|; |X| \gt x) \] si\( \E(|X|) \lt \infty \) entonces tomar límites en la ecuación mostrada muestra que\( \E(|X|: |X| \gt x) \to 0 \) como\( x \to \infty \). Por otro lado,\( \E(|X|; |X| \le x) \le x \). Entonces si\( \E(|X|) = \infty \) entonces\( \E(|X|; |X| \gt x) = \infty \) para cada\( x \in [0, \infty) \).

    Supongamos ahora que\( X_i \) es una variable aleatoria para cada uno\( i \) en un conjunto de índices no vacíos\( I \) (no necesariamente contable). La definición crítica para esta sección es exigir que la convergencia en el teorema anterior se mantenga uniformemente para la colección de variables aleatorias\( \bs X = \{X_i: i \in I\} \).

    La colección\( \bs X = \{X_i: i \in I\} \) es integrable uniformemente si para cada uno\( \epsilon \gt 0 \) existe\( x \gt 0 \) tal que para todos\( i \in I \),\[ \E(|X_i|; |X_i| \gt x) \lt \epsilon \] Equivalentemente\( \E(|X_i|; |X_i| \gt x) \to 0 \) como\( x \to \infty \) uniformemente en\( i \in I \).

    Propiedades

    Nuestra siguiente discusión se centra en las condiciones que aseguran que la colección de variables aleatorias\( \bs X = \{X_i: i \in I\} \) sea integrable de manera uniforme. Aquí hay una caracterización equivalente:

    La colección\( \bs X = \{X_i: i \in I\} \) es integrable de manera uniforme si y solo si se mantienen las siguientes condiciones:

    1. \( \{\E(|X_i|): i \in I\} \)está acotado.
    2. Para cada uno\( \epsilon \gt 0 \) existe\( \delta \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) entonces\( \E(|X_i|; A) \lt \epsilon \) para todos\( i \in I \).
    Prueba

    Supongamos que\( \bs X \) es uniformemente integrable. Con\( \epsilon = 1 \) existe\( x \gt 0 \) tal que\( \E(|X_i|; |X_i| \gt x) \lt 1 \) para todos\( i \in I \). De ahí\[ \E(|X_i|) = \E(|X_i|; |X_i| \le x) + \E(|X_i|; |X_i| \gt x) \le x + 1, \quad i \in I \] que así (a) se sostiene. Para (b), vamos\( \epsilon \gt 0 \). Existe\( x \gt 0 \) tal que\( \E(|X_i|; |X_i| \gt x) \lt \epsilon / 2 \) para todos\( i \in I \). Vamos\( \delta = \epsilon / 2 x \). Si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) luego\[ \E(|X_i|; A) = \E(|X_i|; A \cap \{|X| \le x\}) + \E(|X_i|; A \cap \{|X| \gt x\}) \le x \P(A) + \E(|X_i|; |X| \gt x) \lt \epsilon / 2 + \epsilon / 2 = \epsilon\] Por el contrario, supongamos que (a) y (b) se mantienen. Por (a), existe\( c \gt 0 \) tal que\( \E(|X_i|) \le c \) para todos\( i \in I \). Vamos\( \epsilon \gt 0 \). Por (b) existe\( \delta \gt 0 \) tal que si\( A \in \mathscr{F} \) con\( \P(A) \lt \delta \) entonces\( \E(|X_i|; A) \lt \epsilon \) para todos\( i \in I \). A continuación, por la desigualdad de Markov,\[ \P(|X_i| \gt x) \le \frac{\E(|X_i|)}{x} \le \frac{c}{x}, \quad i \in I \] Pick\( x \gt 0 \) tal que\( c / x \lt \delta \),\(\P(|X_i| \gt x) \lt \delta\) para que para cada uno\( i \in I \). Entonces para cada uno\( j \in I \),\( \E(|X_i|; |X_j| \gt x) \lt \epsilon \) para todos\( i \in I \) y así en particular,\( \E(|X_i|; |X_i| \gt x) \lt \epsilon \) para todos\( i \in I \). De ahí\( \bs X \) que sea integrable de manera uniforme.

    Condición (a) significa que\( \bs X \) está delimitado (en norma) como un subconjunto del espacio vectorial\( \mathscr{L}_1 \). Trivialmente, una colección finita de variables aleatorias integrables es uniformemente integrable.

    Supongamos que\( I \) es finito y eso\( \E(|X_i|) \lt \infty \) para cada uno\( i \in I \). Entonces\( \bs X = \{X_i: i \in I\} \) es uniformemente integrable.

    Un subconjunto de un conjunto de variables integrables de manera uniforme también es integrable de manera uniforme.

    Si\( \{X_i: i \in I\} \) es uniformemente integrable y\( J \) es un subconjunto no vacío de\( I \), entonces\( \{X_j: j \in J\} \) es uniformemente integrable.

    Si las variables aleatorias de la colección están dominadas en valor absoluto por una variable aleatoria con media finita, entonces la colección es integrable uniformemente.

    Supongamos que\( Y \) es una variable aleatoria no negativa con\( \E(Y) \lt \infty \) y que\( |X_i| \le Y \) para cada uno\( i \in I \). Entonces\( \bs X = \{X_i: i \in I\} \) es uniformemente integrable.

    Prueba

    Claramente\( \E(|X_i|; |X_i| \gt x) \le E(Y; Y \gt x) \) para\( x \in [0, \infty) \) y para todos\( i \in I \). El lado derecho es independiente de\( i \in I \), y por el teorema anterior, converge a 0 as\( x \to \infty \). De ahí\( \bs X \) que sea integrable de manera uniforme.

    El siguiente resultado es más general, pero esencialmente funciona la misma prueba.

    Supongamos que\( \bs Y = \{X_j: j \in J\} \) es uniformemente integrable, y\( \bs X = \{X_i: i \in I\} \) es un conjunto de variables con la propiedad que para cada uno\( i \in I \) existe\( j \in J \) tal que\( |X_i| \le |Y_j| \). Entonces\( \bs X \) es uniformemente integrable.

    Como corolario simple, si las variables están delimitadas en valor absoluto entonces la colección es integrable uniformemente.

    Si existe\( c \gt 0 \) tal que\( |X_i| \le c \) para todos\( i \in I \) entonces\( \bs X = \{X_i: i \in I\} \) es uniformemente integrable.

    El simple hecho de haber\( \E(|X_i|) \) acotado en\( i \in I \) (condición (a) en la caracterización anterior) no es suficiente\( \bs X = \{X_i: i \in I\} \) para ser integrable de manera uniforme; a continuación se da un contraejemplo. Sin embargo, si\( \E(|X_i|^k) \) está acotado\( i \in I \) para algunos\( k \gt 1 \), entonces\( \bs X \) es uniformemente integrable. Esta condición significa que\( \bs X \) está delimitada (en norma) como un subconjunto del espacio vectorial\( \mathscr{L}_k \).

    Si\( \left\{\E(|X_i|^k: i \in I\right\} \) está acotado para algunos\( k \gt 1 \), entonces\( \{X_i: i \in I\} \) es integrable de manera uniforme.

    Prueba

    Supongamos que para algunos\( k \gt 1 \) y\( c \gt 0 \),\( \E(|X_i|^k) \le c \) para todos\( i \in I \). Entonces\( k - 1 \gt 0 \) y así\( t \mapsto t^{k-1} \) va aumentando\( (0, \infty) \). Entonces si\( |X_i| \gt x \) para\( x \gt 0 \) entonces\[ |X_i|^k = |X_i| |X_i|^{k-1} \ge |X_i| x^{k-1} \] De ahí\( |X_i| \le |X_i|^k / x^{k-1} \) en el suceso\( |X_i| \gt x \). Por lo tanto\[ \E(|X_i|; |X_i| \gt x) \le \E\left(\frac{|X_i|^k}{x^{k-1}}; |X_i| \gt x\right) \le \frac{\E(|X_i|^k)}{x^{k-1}} \le \frac{c}{x^{k-1}} \] La última expresión es independiente\( i \in I \) y converge a 0 as\( x \to \infty \). De ahí\( \bs X \) que sea integrable de manera uniforme.

    La integrabilidad uniforme se cierra bajo las operaciones de adición y multiplicación escalar.

    Supongamos que\( \bs X = \{X_i: i \in I\} \) y\( \bs Y = \{Y_i: i \in I\} \) son uniformemente integrables y eso\( c \in \R \). Entonces cada una de las siguientes colecciones también es integrable de manera uniforme.

    1. \( \bs X + \bs Y = \{X_i + Y_i: i \in I\} \)
    2. \( c \bs X = \{c X_i: i \in I\} \)
    Prueba

    Utilizamos la caracterización anterior. Las pruebas utilizan técnicas estándar, así que pruébalas tú mismo.

    1. Existe\( a, \, b \in (0, \infty) \) tal que\( \E(|X_i|) \le a \) y\( \E(|Y_i|) \le b \) para todos\( i \in I \). De ahí\[ \E(|X_i + Y_i|) \le \E(|X_i| + |Y_i|) \le \E(|X_i|) + \E(|Y_i|) \le a + b, \quad i \in I \] Siguiente vamos\( \epsilon \gt 0 \). Existe\( \delta_1 \gt 0 \) tal que si\( A \in \mathscr{F} \) con\( \P(A) \lt \delta_1 \) entonces\( \E(|X_i|; A) \lt \epsilon / 2 \) para todos\( i \in I \), y de manera similar, existe\( \delta_2 \gt 0 \) tal que si\( A \in \mathscr{F} \) con\( \P(A) \lt \delta_2 \) entonces\( \E(|Y_i|; A) \lt \epsilon / 2 \) para todos\( i \in I \). De ahí si\( A \in \mathscr{F} \) con\( \P(A) \lt \delta_1 \wedge \delta_2 \) entonces\[ \E(|X_i + Y_i|; A) \le \E(|X_i| + |Y_i|; A) = \E(|X_i|; A) + \E(|Y_i|; A) \lt \epsilon / 2 + \epsilon / 2 = \epsilon, \quad i \in I \]
    2. Existe\( a \in (0, \infty) \) tal que\( \E(|X_i|) \le a \) para todos\( i \in I \). De ahí\[ \E(|c X_i|) = |c| \E(|X_i|) \le c a, \quad i \in I \] que la segunda condición sea trivial si\( c = 0 \), así supongamos\( c \ne 0 \). Porque\( \epsilon \gt 0 \) existe\( \delta \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) entonces\( \E(|X_i|; A) \lt \epsilon / c \) para todos\( i \in I \). De ahí\( \E(|c X_i|; A) = |c| \E(|X_i|; A) \lt \epsilon \).

    El siguiente corolario es trivial, pero será necesario en nuestra discusión de convergencia a continuación.

    Supongamos que\( \{X_i: i \in I\} \) es uniformemente integrable y que\( X \) es una variable aleatoria con\( \E(|X|) \lt \infty \). Entonces\( \{X_i - X: i \in I\} \) es uniformemente integrable.

    Prueba

    Dejar\( Y_i = X \) para cada uno\( i \in I \). Entonces\( \{Y_i: i \in I\} \) es uniformemente integrable, por lo que el resultado se desprende del teorema anterior.

    Convergencia

    Ahora llegamos a los principales resultados, y la razón de la definición de integrabilidad uniforme en primer lugar. Para configurar la notación, supongamos que\( X_n \) es una variable aleatoria para\( n \in \N_+ \) y que\( X \) es una variable aleatoria. Sabemos que si\( X_n \to X \) como\( n \to \infty \) en media entonces\( X_n \to X \) como\( n \to \infty \) en probabilidad. Lo contrario también es cierto si y solo si la secuencia es uniformemente integrable. Aquí está la primera mitad:

    Si\( X_n \to X \) como\( n \to \infty \) en media, entonces\( \{X_n: n \in \N\} \) es uniformemente integrable.

    Prueba

    La hipótesis significa que\( X_n \to X \) como\( n \to \infty \) en el espacio vectorial\( \mathscr{L}_1 \). Es decir,\( \E(|X_n|) \lt \infty \) para\( n \in \N_+ \),\( \E(|X|) \lt \infty \), y\( E(|X_n - X|) \to 0 \) como\( n \to \infty \). Desde el último apartado, sabemos que esto implica que\( \E(|X_n|) \to \E(|X|) \) como\( n \to \infty \), así\( \E(|X_n|) \) está acotado en\( n \in \N \). Vamos\( \epsilon \gt 0 \). Entonces existe\( N \in \N_+ \) tal que si\( n \gt N \) entonces\( \E(|X_n - X|) \lt \epsilon/2 \). Ya que todas nuestras variables están adentro\( \mathscr{L}_1 \), para cada una\( n \in \N_+ \) existe\( \delta_n \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta_n \) entonces\( \E(|X_n - X|; A) \lt \epsilon / 2 \). De igual manera, existe\( \delta_0 \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta_0 \) entonces\( \E(|X|; A) \lt \epsilon / 2 \). Que\( \delta = \min\{\delta_n: n \in \{0, 1, \ldots, N\}\} \) así\( \delta \gt 0 \). Si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) luego\[\E(|X_n|; A) = \E(|X_n - X + X|; A) \le \E(|X_n - X|; A) + \E(|X|; A), \quad n \in \N_+\] Si\( n \le N \) entonces\( \E(|X_n - X|; A) \le \epsilon / 2 \) desde\( \delta \le \delta_n \). Si\( n \gt N \) entonces\( \E(|X_n - X|; A) \le \E(|X_n - X|) \lt \epsilon / 2 \). Para todos\( n \),\( E(|X|; A) \lt \epsilon / 2 \) ya que\( \delta \le \delta_0 \). Entonces para todos\( n \in \N_+ \),\( \E(|X_n|: A) \lt \epsilon \) y por lo tanto\( \{X_n: n \in \N_+\} \) es integrable de manera uniforme.

    Aquí está la mitad más importante, conocida como el teorema de integrabilidad uniforme:

    Si\( \{X_n: n \in \N_+\} \) es integrable uniformemente y\( X_n \to X \) como\( n \to \infty \) en probabilidad, entonces\( X_n \to X \) como\( n \to \infty \) en media.

    Prueba

    Ya que\( X_n \to X \) como\( n \to \infty \) en probabilidad, sabemos que existe una subsecuencia\( \left(X_{n_k}: k \in \N_+\right) \) de\( (X_n: n \in \N_+) \) tal que\( X_{n_k} \to X \) como\( k \to \infty \) con probabilidad 1. Por la integrabilidad uniforme,\( \E(|X_n|) \) está acotada en\( n \in \N_+ \). De ahí por el lema de Fatou\[ \E(|X|) = \E\left(\liminf_{k \to \infty} \left|X_{n_k}\right|\right) \le \liminf_{n \to \infty} \E\left(\left|X_{n_k}\right|\right) \le \limsup_{n \to \infty} \E\left(\left|X_{n_k}\right|\right) \lt \infty \] Let\( Y_n = X_n - X \) for\( n \in \N_+ \). Por el corolario anterior, sabemos que\( \{Y_n: n \in \N_+\} \) es integrable uniformemente, y también sabemos que\( Y_n \) converge a 0 como\( n \to \infty \) en probabilidad. De ahí que tengamos que demostrar eso\( Y_n \to 0 \) como\( n \to \infty \) en la media. Vamos\( \epsilon \gt 0 \). Por integrabilidad uniforme, existe\( \delta \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) entonces\( \E(|Y_n|: A) \lt \epsilon / 2 \) para todos\( n \in \N \). Ya que\( Y_n \to 0 \) como\( n \to \infty \) en probabilidad, existe\( N \in \N_+ \) tal que si\( n \gt N \) entonces\( \P(|Y_n| \gt \epsilon / 2) \lt \delta \). De ahí si\( n \gt N \) entonces\[ \E(|Y_n|) = \E(|Y_n|; |Y_n| \le \epsilon / 2) + \E(|Y_n|; |Y_n| \gt \epsilon / 2) \lt \epsilon / 2 + \epsilon / 2 = \epsilon \] Por lo tanto\( Y_n \to 0 \) como\( n \to \infty \) en media.

    Como corolario, recordemos que si\( X_n \to X \) como\( n \to \infty \) con probabilidad 1, entonces\( X_n \to X \) como\( n \to \infty \) en probabilidad. De ahí\( \bs X = \{X_n: n \in \N_+\} \) que si es integrable uniformemente entonces\( X_n \to X \) como\( n \to \infty \) en media.

    Ejemplos

    Nuestro primer ejemplo muestra que\( \mathscr{L}_1 \) la norma acotada no es suficiente para una integrabilidad uniforme.

    Supongamos que\( U \) se distribuye uniformemente en el intervalo\( (0, 1) \) (también lo\( U \) ha hecho la distribución uniforme estándar). Para\( n \in \N_+ \), vamos\( X_n = n \bs{1}(U \le 1 / n) \). Entonces

    1. \( \E(|X_n|) = 1 \)para todos\( n \in \N_+ \)
    2. \( \E(|X_n|; |X_n| \gt x) = 1 \)para\( x \gt 0 \),\( n \in \N_+ \) con\( n \gt x \)
    Prueba

    Primero tenga en cuenta que\( |X_n| = X_n \) desde\( X_n \ge 0 \).

    1. Por definición,\( \E(X_n) = n \P(U \le 1 / n) = n / n = 1 \) para\( n \in \N_+ \).
    2. Si\( n \gt x \gt 0 \) entonces\( X_n \gt x \) si y solo\( X_n = n \) si y solo si\( U \le 1/n \). De ahí\( \E(X_n; X_n \gt x) = n \P(U \le 1/n) = 1 \) como antes.

    Por parte (b),\( \E(|X_n|; |X_n| \gt x) \) no converge a 0 tan\( x \to \infty \) uniformemente en\( n \in \N_+ \), por lo que no\( \bs X = \{X_n: n \in \N_+\} \) es uniformemente integrable.

    El siguiente ejemplo da una aplicación importante al valor esperado condicional. Recordemos que si\( X \) es una variable aleatoria con\( \E(|X|) \lt \infty \) y\( \mathscr{G} \) es un\( \sigma \) subálgebra de\( \mathscr{F} \) entonces\( \E(X \mid \mathscr{G}) \) es el valor esperado de\( X \) dada la información en\( \mathscr{G} \), y es la variable aleatoria\( \mathscr{G} \) -mensurable más cercana\( X \) en cierto sentido. En efecto si\( X \in \mathscr{L}_2(\mathscr{F}) \) entonces\( \E(X \mid \mathscr{G}) \) es la proyección de\( X \) sobre\( \mathscr{L}_2(\mathscr{G}) \). La colección de todos los valores esperados condicionales de\( X \) es uniformemente integrable:

    Supongamos que\( X \) es una variable aleatoria de valor real con\( \E(|X|) \lt \infty \). Entonces\( \{\E(X \mid \mathscr{G}): \mathscr{G} \text{ is a sub }\sigma\text{-algebra of } \mathscr{F}\}\) es uniformemente integrable.

    Prueba

    Utilizamos la caracterización anterior. Dejar\( \mathscr{G} \) ser un sub\( \sigma \) -álgebra de\( \mathscr{F} \). Recordemos eso\( \left|\E(X \mid \mathscr{G})\right| \le \E(|X| \mid \mathscr{G})\) y de ahí\[ \E[|\E(X \mid \mathscr{G})|] \le \E[\E(|X| \mid \mathscr{G})] = \E(|X|) \] Así que la propiedad (a) sostiene. Siguiente vamos\( \epsilon \gt 0 \). Ya que\( \E(|X|) \lt \infty \), existe\( \delta \gt 0 \) tal que si\( A \in \mathscr{F} \) y\( \P(A) \lt \delta \) entonces\( \E(|X|; A) \lt \epsilon \). Supongamos que\( A \in \mathscr{G} \) con\( \P(A) \lt \delta \). Entonces\(|\E(X \mid \mathscr{G})| \bs{1}_A \le \E(|X| \mid \mathscr{G}) \bs{1}_A\) así\[ \E[|\E(X \mid \mathscr{G})|; A] \le \E[\E(|X| \mid \mathscr{G}); A] = \E[\E(|X| \bs{1}_A \mid \mathscr{G}] = \E(|X|; A) \lt \epsilon \] Así condición (b) sostiene. Tenga en cuenta que la primera igualdad en la ecuación mostrada se mantiene desde\( A \in \mathscr{G} \).

    Tenga en cuenta que la colección de sub\( \sigma \) álgebras de\( \mathscr{F} \), y así también la colección de valores esperados condicionales anteriores, bien podría ser incontable. Los valores esperados condicionales van desde\( \E(X) \), cuándo\( \mathscr{G} = \{\Omega, \emptyset\} \) a\( X \) sí mismo, cuándo\( \mathscr{G} = \mathscr{F} \).


    This page titled 4.12: Variables uniformemente integrables is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.