Saltar al contenido principal
LibreTexts Español

5.3: Distribuciones estables

  • Page ID
    151736
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\cov}{\text{cov}}\)\(\newcommand{\cor}{\text{cor}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)\(\newcommand{\sgn}{\,\text{sgn}}\)\(\newcommand{\bs}{\boldsymbol}\)

    En esta sección se discute un tema teórico que quizás quieras omitir si eres un nuevo estudiante de probabilidad.

    Teoría Básica

    Las distribuciones estables son una clase general importante de distribuciones de probabilidad\( \R \) que se definen en términos de transformaciones a escala de ubicación. Las distribuciones estables ocurren como límites (en distribución) de sumas escaladas y centradas de variables independientes distribuidas idénticamente. Tales límites generalizan el teorema del límite central, y así las distribuciones estables generalizan la distribución normal en cierto sentido. El trabajo pionero en distribuciones estables fue realizado por Paul Lévy.

    Definición

    En esta sección, consideramos variables aleatorias de valor real cuyas distribuciones no son degeneradas (es decir, no concentradas en un solo valor). Después de todo, una variable aleatoria con una distribución degenerada no es realmente aleatoria, y por lo tanto no es de mucho interés.

    La variable aleatoria\( X \) tiene una distribución estable si se mantiene la siguiente condición: Si\( n \in \N_+ \) y\( (X_1, X_2, \ldots, X_n) \) es una secuencia de variables independientes, cada una con la misma distribución que\( X \), entonces\( X_1 + X_2 + \cdots + X_n \) tiene la misma distribución que\( a_n + b_n X \) para algunas\( a_n \in \R \) y \( b_n \in (0, \infty) \). Si\( a_n = 0 \) para\( n \in \N_+ \) entonces la distribución de\( X \) es estrictamente estable.

    1. Los parámetros\( a_n \) para\( n \in \N_+ \) son los parámetros de centrado.
    2. Los parámetros\( b_n \) para\( n \in \N_+ \) son los parámetros de normalización.
    Detalles

    Dado que la distribución de no\( X \) es masa puntual a 0, tenga en cuenta que si la distribución de\( a + b X \) es la misma que la distribución de\( c + d X \) para algunos\( a, \, c \in \R \) y\( b, \, d \in (0, \infty) \), entonces\( a = c \) y\( b = d \). Por lo tanto, los parámetros de centrado\( a_n \) y los parámetros de normalización\( b_n \) se definen de manera única para\( n \in \N_+ \).

    Recordemos que dos distribuciones sobre las\( \R \) que están relacionadas por una transformación a escala de ubicación se dice que son del mismo tipo, y que al ser del mismo tipo define una relación de equivalencia en la clase de distribuciones en\( \R \). Con esta terminología, la definición de estabilidad tiene una expresión más elegante:\( X \) tiene una distribución estable si la suma de un número finito de copias independientes de\( X \) es del mismo tipo que\( X \). Como veremos, los parámetros de normalización son más importantes que los parámetros de centrado, y de hecho, solo pueden ocurrir ciertos parámetros de normalización.

    Propiedades Básicas

    Comenzamos con algunos resultados muy simples que se siguen fácilmente de la definición, antes de pasar a los resultados más profundos.

    Supongamos que\( X \) tiene una distribución estable con varianza media\( \mu \) y finita. Entonces los parámetros de normalización son\( \sqrt{n} \) y los parámetros de centrado son\( \left(n - \sqrt{n}\right) \mu \) para\( n \in \N_+ \).

    Prueba

    Como de costumbre, vamos\( a_n \) y\( b_n \) denotan los parámetros de centrado y normalización de\( X \) for\( n \in \N_+ \), y let\( \sigma^2 \) denotan la varianza (finita) de\( X \). Supongamos que\( n \in \N_+ \) y que\( (X_1, X_2, \ldots, X_n) \) es una secuencia de variables independientes, cada una con la distribución de\( X \). Entonces\( X_1 + X_2 + \cdots + X_n \) tiene la misma distribución que\( a_n + b_n X \). Tomando varianzas da\( n \sigma^2 = b_n^2 \sigma^2 \) y por lo tanto\( b_n = \sqrt{n} \). Tomando valores esperados ahora da\( n \mu = a_n + \sqrt{n} \mu \).

    Resultará que la única distribución estable con varianza finita es la distribución normal, pero el resultado anterior es útil como paso intermedio. A continuación, parece bastante claro a partir de la definición que la familia de distribuciones estables es en sí misma una familia a escala de ubicación.

    Supongamos que la distribución de\( X \) es estable, con parámetros de centrado\( a_n \in \R \) y parámetros de normalización\( b_n \in (0, \infty) \) para\( n \in \N_+ \). Si\( c \in \R \) y\( d \in (0, \infty) \), entonces la distribución de también\( Y = c + d X \) es estable, con parámetros de centrado\( d a_n + (n - b_n) c \) y parámetros de normalización\( b_n \) para\( n \in \N_+ \).

    Prueba

    Supongamos que\( n \in \N_+ \) y esa\( (Y_1, Y_2, \ldots, Y_n) \) es una secuencia de variables independientes, cada una con la misma distribución que\( Y \). Entonces\( Y_1 + Y_2 + \cdots + Y_n \) tiene la misma distribución\( n c + d(X_1 + X_2 + \cdots + X_n) \) donde\( (X_1, X_2, \ldots) \) hay una secuencia de variables independientes, cada una con la misma distribución que\( X \). Por estabilidad,\( X_1 + X_2 + \cdots + X_n \) tiene la misma distribución que\( a_n + b_n X \). De ahí que\( Y_1 + Y_2 + \cdots + Y_n \) tenga la misma distribución que\( (n c + d a_n) + d b_n X \), que a su vez tiene la misma distribución que\( [d a_n + (n - b_n) c] + b_n Y \).

    Un punto importante es que los parámetros de normalización no se modifican bajo una transformación de escala de ubicación.

    Supongamos que la distribución de\( X \) es estable, con parámetros de centrado\( a_n \in \R\) y parámetros de normalización\( b_n \in (0, \infty)\) para\( n \in \N_+ \). Entonces la distribución de\( -X \) es estable, con parámetros de centrado\( -a_n \) y parámetros de normalización\( b_n \) para\( n \in \N_+ \).

    Prueba

    Si\( n \in \N_+ \) y\( (X_1, X_2, \ldots, X_n) \) es una secuencia de variables independientes, cada una con la misma distribución que\( X \) entonces\( (-X_1, -X_2, \ldots, -X_n) \) es una secuencia de variables independientes cada una con la misma distribución que\( -X \). Por estabilidad,\( -\sum_{i=1}^n X_i \) tiene la misma distribución que\( -(a_n + b_n X) = - a_n + b_n (-X) \).

    De los dos últimos resultados, si\( X \) tiene una distribución estable, entonces también lo hace\( c + d X \), con los mismos parámetros de normalización, para cada uno\( c, \, d \in \R \) con\( d \neq 0 \). Las distribuciones estables también se cierran bajo convolución (correspondientes a sumas de variables independientes) si los parámetros de normalización son los mismos.

    Supongamos que\( X \) y\( Y \) son variables independientes. Supongamos también que\( X \) tiene una distribución estable con parámetros de centrado\( a_n \in \R \) y parámetros de normalización\( b_n \in (0, \infty)\) para\( n \in \N_+ \), y que\( Y \) tiene una distribución estable con parámetros de centrado\( c_n \in \R \) y los mismos parámetros de normalización\( b_n \) para\( n \in \N_+ \). Entonces\( Z = X + Y \) tiene una distribución estable con parámetros de centrado\( a_n + c_n \) y parámetros de normalización\( b_n \) para\( n \in \N_+ \).

    Prueba

    Supongamos que\( n \in \N_+ \) y esa\( (Z_1, X_2, \ldots, Z_n) \) es una secuencia de variables independientes, cada una con la misma distribución que\( Z \). Entonces\( \sum_{i=1}^n Z_i \) tiene la misma distribución que\( \sum_{i=1}^n X_i + \sum_{i=1}^n Y_i \) donde\( \bs{X} = (X_1, X_2, \ldots, X_n) \) hay una secuencia de variables independientes, cada una con la misma distribución que\( X \), y\( \bs{Y} = (Y_1, Y_2, \ldots, Y_n) \) es una secuencia de variables independientes, cada una con la misma distribución que\( Y \), y donde\( \bs{X} \) y\( \bs{Y} \) son independiente. Por estabilidad, esto es lo mismo que la distribución de\( (a_n + b_n X) + (c_n + b_n Y) = (a_n + c_n) + b_n (X + Y) \).

    Ahora podemos dar otra caracterización de estabilidad que solo involucra dos copias independientes de\( X \).

    \( X \)La variable aleatoria tiene una distribución estable si y solo si se mantiene la siguiente condición: Si\( X_1, \, X_2 \) son variables independientes, cada una con la misma distribución que\( X \) y\( d_1, d_2 \in (0, \infty) \) luego\( d_1 X_1 + d_2 X_2 \) tiene la misma distribución que\( a + b X \) para algunos\( a \in \R \) y\( b \in (0, \infty) \).

    Prueba

    Supongamos que la condición en el teorema sostiene. Mostraremos por inducción que la condición en la definición sostiene. Para\( n = 2 \), la condición de estabilidad es un caso especial de la condición en el teorema, con\( d_1 = d_2 = 1 \). Supongamos que la condición de estabilidad se mantiene para un dado\( n \in \N_+ \). Supongamos que\( (X_1, X_2, \ldots, X_n, X_{n+1}) \) es una secuencia de variables aleatorias independientes, cada una con la distribución de\( X \). Por la hipótesis de inducción,\( Y_n = X_1 + X_2 + \cdots + X_n \) tiene la misma distribución que\( a_n + b_n X \) para algunos\( a_n \in \R \) y\( b_n \in (0, \infty) \). Por independencia,\( Y_{n+1} = X_1 + X_2 + \cdots + X_n + X_{n+1} \) tiene la misma distribución que\( a_n + b_n X_1 + X_{n+1} \). Por otra aplicación de la condición anterior,\( b_n X_1 + X_{n+1} \) tiene la misma distribución que\( c + b_{n+1} X \) para algunos\( c \in \R \) y\( b_{n+1} \in (0, \infty) \). Pero entonces\( Y_{n+1} \) tiene la misma distribución que\( (a_n + c) + b_{n+1} X \).

    Como corolario de un par de los resultados anteriores, tenemos lo siguiente:

    Supongamos que\( X \) y\( Y \) son independientes con la misma distribución estable. Entonces la distribución de\( X - Y \) es estrictamente estable, con los mismos parámetros de normalización.

    Tenga en cuenta que la distribución de\( X - Y \) es simétrica (aproximadamente 0). El último resultado es útil porque nos permite deshacernos de los parámetros de centrado al probar hechos sobre los parámetros de normalización. Aquí está el más importante de esos hechos:

    Supongamos que\( X \) tiene una distribución estable. Entonces los parámetros normadores tienen la forma\( b_n = n^{1/\alpha} \) para\( n \in \N_+ \), para algunos\( \alpha \in (0, 2] \). El parámetro\( \alpha \) se conoce como el índice o exponente característico de la distribución.

    Prueba

    La prueba se encuentra en varios pasos, y se basa en la prueba de Una introducción a la teoría de la probabilidad y sus aplicaciones, Volumen II, de William Feller. La prueba utiliza el truco básico de escribir una suma de\( X \) copias independientes de diferentes maneras para obtener relaciones entre las constantes normadoras\( b_n \).

    Primero podemos suponer de nuestro último resultado que la distribución de\( X \) es simétrica y estrictamente estable. Dejar\( (X_1, X_2, \ldots) \) ser una secuencia de variables independientes, cada una con la distribución de\( X \). Dejemos\( Y_n = \sum_{i=1}^n X_i \) para\( n \in \N_+ \). Ahora vamos\( n, \, m \in \N_+ \) y consideremos\( Y_{m n} \). Directamente desde la estabilidad,\( Y_{m n} \) tiene la misma distribución que\( b_{m n} X \). Por otro lado,\( Y_{m n} \) puede pensarse como una suma de\( m \) bloques, donde cada bloque es una suma de copias\( n \) independientes de\( X \). Cada bloque tiene la misma distribución que\( b_n X \), y como los bloques son independientes, se deduce que\( Y_{m n} \) tiene la misma distribución que\[ b_n X_1 + b_n X_2 + \cdots + b_n X_m = b_n (X_1 + X_2 + \cdots + X_m) \] Pero por otra aplicación de estabilidad, la variable aleatoria de la derecha tiene la misma distribución que\( b_n b_m X \). Se deduce entonces eso\( b_{m n} = b_m b_n \) para todos\( m, \, n \in \N_+ \) lo que a su vez lleva a\( b_{n^k} = b_n^k \) para todos\( n, \, k \in \N_+ \).

    Volvemos a usar el mismo truco, esta vez con una suma. Dejemos\( m, \, n \in \N_+ \) y consideremos\( Y_{m+n} \). Directamente desde la estabilidad,\( Y_{m + n} \) tiene la misma distribución que\( b_{m+n} X \). Por otro lado,\( Y_{m+n} \) puede pensarse como la suma de dos bloques. El primero es la suma de copias\( m \) independientes de\( X \) y por lo tanto tiene la misma distribución que\( b_m X \), mientras que el segundo es la suma de copias\( n \) independientes de\( X \) y por lo tanto tiene la misma distribución que\( b_n X \). Dado que los bloques son independientes, se deduce que\( b_{m+n} X \) tiene la misma distribución que\( b_m X_1 + b_n X_2 \), o equivalentemente,\( X \) tiene la misma distribución que\[ U = \frac{b_m}{b_{m+n}} X_1 + \frac{b_n}{b_{m+n}} X_2 \] Siguiente nota que para\( x \gt 0 \),\[ \left\{X_1 \ge 0, X_2 \gt \frac{b_{m+n}}{b_n} x\right\} \subseteq \{U \gt x\} \] y así por independencia,\[ \P(U \gt x) \ge \P\left(X_1 \ge 0, X_2 \gt \frac{b_{m + n}}{b_n} x \right) = \P(X_1 \ge 0) \P\left(X_2 \gt \frac{b_{m+n}}{b_n} x \right) \] Pero por simetría,\( \P(X_1 \ge 0) \ge \frac{1}{2} \). También\( X_2 \) y\( U \) tienen la misma distribución que\( X \), por lo que concluimos que De\[ \P(X \gt x) \ge \frac{1}{2} \P\left(X \gt \frac{b_{m+n}}{b_n} x\right), \quad x \gt 0\] ello se deduce que los ratios\( b_n \big/ b_{m+n} \) están acotados para\( m, \, n \in \N_+ \). Si ese no fuera el caso, podríamos encontrar una secuencia de enteros\( m, \, n \) con\( b_{m+n} \big/ b_n \to 0 \), en cuyo caso la ecuación mostrada arriba daría la contradicción\( \P(X \gt x) \ge \frac{1}{4} \) para todos\( x \gt 0 \). Reiterando, las proporciones\( b_k / b_n \) están delimitadas por\( k, \, n \in \N_+ \) con\( k \lt n \).

    Arreglar\( r \in \N_+ \). Existe un único\( \alpha \in (0, \infty) \) con\( b_r = r^{1/\alpha} \). Se deduce entonces del paso 1 anterior que\( b_n = n^{1/\alpha} \) para cada uno\( n = r^j \) con\( j \in \N_+ \). Del mismo modo\( s \in \N_+ \), si, existe\( \beta \in (0, \infty) \) con\( b_s = s^{1/\beta} \) y luego\( b_m = m^{1/\beta} \) para cada\( m = s^k \) con\( k \in \N_+ \). Para nuestro siguiente paso, lo demostramos\( \alpha = \beta \) y luego lo sigue\( b_n = n^{1/\alpha} \) para cada uno\( n \in \N_+ \). Hacia ese fin, tenga en cuenta que si\( m = s^k \) con\( k \in \N_+ \) existe\( n = r^j \) con\( j \in \N_+ \) con\(n \le m \le r n\). De ahí\[ b_m = m^{1/\beta} \le (r n)^{1/\beta} = r^{1/\beta} b_n^{\alpha / \beta} \] Por lo tanto\[ \frac{b_m}{b_n} \le r^{1/\beta} b_n^{\alpha/ \beta - 1} \] Dado que los coeficientes no\( b_n \) están acotados en\( n \in \N_+ \), pero los ratios\( b_n / b_m \) están acotados para\( m, \, n \in \N_+ \) con\( m \gt n \), la última desigualdad implica eso\( \beta \le \alpha \). Revertir los roles de\( m \) y\( n \) luego da\( \alpha \le \beta \) y por lo tanto\( \alpha = \beta \).

    Todo lo que queda por mostrar es eso\( \alpha \le 2 \). Esto lo haremos demostrando que si\( \alpha \gt 2 \), entonces\( X \) debe tener varianza finita, en cuyo caso la propiedad de varianza finita anterior conduce a la contradicción\( \alpha = 2 \). Ya que no\( X^2 \) es negativo,\[ \E\left(X^2\right) = \int_0^\infty \P\left(X^2 \gt x\right) dx = \int_0^\infty \P\left(\left|X\right| \gt \sqrt{x}\right) dx = \sum_{k=1}^\infty \int_{2^{k-1}}^{2^k} \P\left(\left|X\right| \gt \sqrt{x}\right) dx \] Entonces la idea es encontrar límites en las integrales de la derecha para que la suma converja. Hacia ese fin, tenga en cuenta que para\( t \gt 0 \) y\( n \in \N_+ \)\[ \P(\left|Y_n\right| \gt t b_n) = \P(b_n \left|X\right| \gt t b_n) = \P(\left|X\right| \gt t) \] por lo tanto podemos elegir\( t \) para que\( \P(\left|Y_n\right| \gt t b_n) \le \frac{1}{4} \). Por otro lado, el uso de una desigualdad especial para las distribuciones simétricas,\[ \frac{1}{2}\left(1 - \exp\left[-n \P\left(\left|X\right| \gt t b_n\right)\right]\right) \le \P(\left|Y_n\right| \gt t b_n)\] Esto implica que\( n \P\left(\left|X\right| \gt t b_n\right) \) está acotado en\( n \) o de otra manera las dos desigualdades juntas conducirían a\( \frac{1}{2} \le \frac{1}{4} \). Sustituir\( x = t b_n = t n^{1/\alpha} \) conduce a\( \P(\left|X\right| \gt x) \le M x^{-\alpha} \) para algunos\( M \gt 0 \). Se deduce entonces que\[ \int_{2^{k-1}}^{2^k} \P\left(\left|X\right| \gt \sqrt{x}\right) dx \le M 2^{k(1 - \alpha / 2)} \]\( \alpha \gt 2 \) If, la serie con los términos a la derecha converge y tenemos\( \E(X^2) \lt \infty \).

    Cada distribución estable es continua.

    Prueba

    Al igual que en la prueba del teorema anterior, supongamos que\( X \) tiene una distribución estable simétrica con parámetros normadores\( b_n \) para\( n \in \N_+ \). Como caso especial de la última prueba, para\( n \in \N_+ \),\( X \) tiene la misma distribución que\[ \frac{1}{b_{n + 1}} X_1 + \frac{b_n}{b_{n + 1}} X_2 \] donde\( X_1 \) y\( X_2 \) son independientes y además tienen esta distribución. Supongamos ahora que\(\P(X = x) = p \) para alguna parte\( x \ne 0 \)\( p \gt 0 \). Entonces\[ \P\left(X = \frac{1 + b_n}{b_{1 + n}} x\right) \ge \P(X_1 = x) \P(X_2 = x) = p^2 \gt 0 \] si el índice\( \alpha \ne 1 \), los puntos\[ \frac{(1 + b_n)}{b_{1 + n}} x = \frac{1 + n^{1/\alpha}}{(1 + n)^{1/\alpha}} x, \quad n \in \N_+ \] son distintos, lo que nos da infinitamente muchos átomos, cada uno con probabilidad al menos\( p^2 \) —claramente una contradicción.

    A continuación, supongamos que el único átomo es\( x = 0 \) y ahí\( \P(X = 0) = p \) donde\( p \in (0, 1) \). Entonces\( X_1 + X_2 \) tiene la misma distribución que\( b_2 X \). Pero\( P(X_1 + X_2 = 0) = \P(X_1 = 0) \P(X_2 = 0) = p^2 \) mientras\( \P(b_2 X = 0) = \P(X = 0) = p \), otra contradicción.

    El siguiente resultado es una declaración precisa del teorema del límite aludido en el párrafo introductorio.

    Supongamos que\( (X_1, X_2, \ldots) \) es una secuencia de variables aleatorias independientes, distribuidas idénticamente, y let\( Y_n = \sum_{i=1}^n X_i \) for\( n \in \N_+ \). Si existen constantes\( a_n \in \R \) y\( b_n \in (0, \infty) \) para\( n \in \N_+ \) tal que\( (Y_n - a_n) \big/ b_n \) tiene una distribución limitante (no degenerada) como\( n \to \infty \), entonces la distribución limitante es estable.

    El siguiente teorema caracteriza completamente las distribuciones estables en términos de la función característica.

    Supongamos que\( X \) tiene una distribución estable. La función característica de\( X \) tiene la siguiente forma, para algunos\( \alpha \in (0, 2] \),\( \beta \in [-1, 1] \)\( c \in \R \), y\( d \in (0, \infty) \)\[ \chi(t) = \E\left(e^{i t X}\right) = \exp\left(i t c - d^\alpha \left|t\right|^\alpha \left[1 + i \beta \sgn(t) u_\alpha(t)\right]\right), \quad t \in \R \] dónde\( \sgn \) está la función de signo habitual, y donde\[ u_\alpha(t) = \begin{cases} \tan\left(\frac{\pi \alpha}{2}\right), & \alpha \ne 1 \\ \frac{2}{\pi} \ln(|t|), & \alpha = 1 \end{cases} \]

    1. El parámetro\( \alpha \) es el índice, como antes.
    2. El parámetro\( \beta \) es el parámetro de asimetría.
    3. El parámetro\( c \) es el parámetro de ubicación.
    4. El parámetro\( d \) es el parámetro de escala.

    Así, la familia de distribuciones estables es una familia de 4 parámetros. El parámetro índice\( \alpha \) y y el parámetro de asimetría\( \beta \) pueden considerarse parámetros de forma. Cuando el parámetro de ubicación\( c = 0 \) y el parámetro de escala\( d = 1 \), obtenemos la forma estándar de las distribuciones estables, con función característica\[ \chi(t) = \E\left(e^{i t X}\right) = \exp\left(-\left|t\right|^\alpha \left[1 + i \beta \sgn(t) u_\alpha(t)\right]\right), \quad t \in \R \]

    La función característica da otra prueba de que las distribuciones estables se cierran bajo convolución (correspondientes a sumas de variables independientes), si el índice es fijo.

    Supongamos que\( X_1 \) y\( X_2 \) son variables aleatorias independientes,\( X_1 \) y que y\( X_2 \) tienen la distribución estable con índice común\( \alpha \in (0, 2] \), parámetro de asimetría\( \beta_k \in [-1, 1] \)\( c_k \in \R \), parámetro de ubicación y parámetro de escala\( d_k \in (0, \infty)\). Luego\( X_1 + X_2 \) tiene la distribución estable con índice\( \alpha \), parámetro de ubicación\( c = c_1 + c_2 \)\( d = \left(d_1^\alpha + d_2^\alpha\right)^{1/\alpha} \), parámetro de escala y parámetro de asimetría\[ \beta = \frac{\beta_1 d_1^\alpha + \beta_2 d_2^\alpha}{d_1^\alpha + d_2^\alpha} \]

    Prueba

    Dejar\( \chi_k \) denotar la función característica de\( X_k \) for\( k \in \{1, 2\} \). Entonces\( X_1 + X_2 \) tiene función característica\( \chi = \chi_1 \chi_2 \). El resultado se desprende del uso de la forma de la función característica anterior y algo de álgebra.

    Casos Especiales

    Tres familias paramétricas especiales de distribuciones estudiadas en este capítulo son estables. En las pruebas de esta subsección, utilizamos la definición de estabilidad y diversas propiedades importantes de las distribuciones. Estas propiedades, a su vez, se verifican en las secciones dedicadas a las distribuciones. También damos pruebas basadas en la función característica, lo que nos permite identificar el parámetro de asimetría.

    La distribución normal es estable con índice\( \alpha = 2 \). No hay ningún parámetro de asimetría.

    Prueba

    Si\( n \in \N_+ \) y\( (Z_1, Z_2, \ldots, Z_n) \) es una secuencia de variables independientes, cada una con la distribución normal estándar, entonces\( Z_1 + Z_2 + \cdots + Z_n \) tiene la distribución normal con media 0 y varianza\( n \). Pero esta es también la distribución de\( \sqrt{n} Z \) donde\( Z \) tiene la distribución normal estándar. De ahí que la distribución normal estándar sea estrictamente estable, con índice\( \alpha = 2 \). La distribución normal con media\( \mu \in \R \) y desviación estándar\( \sigma \in (0, \infty) \) es la distribución de\( \mu + \sigma Z \). De nuestras propiedades básicas anteriores, esta distribución es estable con parámetros de índice\( \alpha = 2 \) y centrado\( \left(n - \sqrt{n}\right) \mu \) para\( n \in \N \).

    En términos de la función característica, tenga en cuenta que si\( \alpha = 2 \) entonces\( u_\alpha(t) = \tan(\pi) = 0 \) es así el parámetro de asimetría\( \beta \) cae por completo. La función característica en forma estándar\( \chi(t) = e^{-t^2} \) para\( t \in \R \), que es la función característica de la distribución normal con media 0 y varianza 2.

    Por supuesto, la distribución normal tiene varianza finita, así que una vez que sabemos que es estable, se deduce de la propiedad de varianza finita por encima de que el índice debe ser 2. Además, la función característica muestra que la distribución normal es la única distribución estable con índice 2, y de ahí la única distribución estable con varianza finita.

    Abra el simulador de distribución especial y seleccione la distribución normal. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Para diversos valores de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La distribución de Cauchy es estable con parámetros de índice\( \alpha = 1 \) y asimetría\( \beta = 0 \).

    Prueba

    Si\( n \in \N_+ \) y\( (Z_1, Z_2, \ldots, Z_n) \) es una secuencia de variables independientes, cada una con la distribución estándar de Cauchy, entonces\( Z_1 + Z_2 + \cdots + Z_n \) tiene el parámetro de escala de distribución de Cauchy\( n \). Por definición esto es lo mismo que la distribución de\( n Z \) donde\( Z \) tiene la distribución estándar de Cauchy. De ahí que la distribución estándar de Cauchy sea estrictamente estable, con índice\( \alpha = 1 \). La distribución de Cauchy con parámetro de ubicación\( a \in \R \) y parámetro de escala\( b \in (0, \infty) \) es la distribución de\( a + b Z \). De nuestras propiedades básicas anteriores, esta distribución es estrictamente estable con índice\( \alpha = 1 \).

    Cuándo\( \alpha = 1 \) y\( \beta = 0 \) la función característica en forma estándar es\( \chi(t) = \exp\left(-\left|t\right|\right) \) para\( t \in \R \), que es la función característica de la distribución estándar de Cauchy.

    Abra el simulador de distribución especial y seleccione la distribución de Cauchy. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Para diversos valores de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La distribución de Lévy es estable con parámetros de índice\( \alpha = \frac{1}{2} \) y asimetría\( \beta = 1 \).

    Prueba

    Si\( n \in \N_+ \) y\( (Z_1, Z_2, \ldots, Z_n) \) es una secuencia de variables independientes, cada una con la distribución estándar de Lévy, entonces\( Z_1 + Z_2 + \cdots + Z_n \) tiene el parámetro de escala de distribución de Lévy\( n^2 \). Por definición esto es lo mismo que la distribución de\( n^2 Z \) donde\( Z \) tiene la distribución estándar de Lévy. De ahí que la distribución estándar de Lévy sea estrictamente estable, con índice\( \alpha = \frac{1}{2} \). La distribución de Lévy con parámetro de ubicación\( a \in \R \) y parámetro de escala\( b \in (0, \infty) \) es la distribución de\( a + b Z \). De nuestras propiedades básicas anteriores, esta distribución es estable con parámetros de índice\( \alpha = \frac{1}{2} \) y centrado\( (n - n^2) a \) para\( n \in \N_+ \).

    Cuando\( \alpha = \frac{1}{2} \) tenga en cuenta eso\( u_\alpha(t) = \tan\left(\frac{\pi}{4}\right) = 1 \). Entonces la función característica en forma estándar con\( \alpha = \frac{1}{2} \) y\( \beta = 1 \) es\[ \chi(t) = \exp\left(-\left|t\right|^{1/2}\left[1 + i \sgn(t)\right]\right) \] que es la función característica de la distribución estándar de Lévy.

    Abra el simulador de distribución especial y seleccione la distribución Lévy. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Para diversos valores de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Las distribuciones normal, Cauchy y Lévy son las únicas distribuciones estables para las que se conoce la función de densidad de probabilidad en forma cerrada.


    This page titled 5.3: Distribuciones estables is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.