Saltar al contenido principal
Library homepage
 
LibreTexts Español

5.25: La distribución Irwin-Hall

  • Page ID
    151698
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\R}{\mathbb{R}} \)\( \newcommand{\N}{\mathbb{N}} \)\( \newcommand{\Z}{\mathbb{Z}} \)\( \newcommand{ \E}{\mathbb{E}} \)\( \newcommand{\P}{\mathbb{P}} \)\( \newcommand{\var}{\text{var}} \)\( \newcommand{\sd}{\text{sd}} \)\( \newcommand{\bs}{\boldsymbol} \)\( \newcommand{\sgn}{\text{sgn}} \)\( \newcommand{\skw}{\text{skew}} \)\( \newcommand{\kur}{\text{kurt}} \)

    La distribución Irwin-Hall, llamada así por Joseph Irwin y Phillip Hall, es la distribución que gobierna la suma de variables aleatorias independientes, cada una con la distribución uniforme estándar. También se le conoce como la distribución uniforme de la suma. Dado que el uniforme estándar es una de las distribuciones más simples y básicas (y corresponde en informática a un número aleatorio), el Irwin-Hall es una familia natural de distribuciones. También sirve como un bonito ejemplo del teorema del límite central, conceptualmente fácil de entender.

    Teoría Básica

    Definición

    Supongamos que\( \bs{U} = (U_1, U_2, \ldots) \) es una secuencia de variables aleatorias indpendientes, cada una con la distribución uniforme en el intervalo\( [0, 1] \) (la distribución uniforme estándar). Para\( n \in \N_+ \), vamos\[ X_n = \sum_{i=1}^n U_i \] Entonces\( X_n \) tiene la distribución del orden Irwin-Hall\( n \).

    Así\( X_n \) tiene una distribución continua en el intervalo\( [0, n] \) para\( n \in \N_+ \).

    Funciones de distribución

    Let\( f \) denotar la función de densidad de probabilidad de la distribución uniforme estándar, de modo que\( f(x) = 1 \) para\( 0 \le x \le 1 \) (y es 0 en caso contrario). De ello se deduce inmediatamente que la función\( f_n \) de densidad de probabilidad de\( X_n \) satisface\( f_n = f^{*n} \), donde por supuesto\( f^{*n} \) es el poder de convolución\( n \) -fold de\( f \). Podemos computar\( f_2 \) y\( f_3 \) a mano.

    La función de densidad de probabilidad\( f_2 \) de\( X_2 \) viene dada por\[ f_2(x) = \begin{cases} x, & 0 \le x \le 1 \\ x - 2 (x - 1), & 1 \le x \le 2 \end{cases} \]

    Prueba

    Tenga en cuenta que\( X_2 \) toma valores en\( [0, 2] \) y\( f_2(x) = \int_\R f(u) f(x - u) \, du \) para\( x \in [0, 2] \). La integral reduce a\( \int_0^x 1 \, du = x \) for\( 0 \le x \le 1 \) y la integral reduce a\( \int_{x-1}^1 1 \, du = 2 - x \) for\( 1 \le x \le 2 \).

    Tenga en cuenta que la gráfica de\( f_2 \) on\( [0, 2] \) consta de dos líneas, repartidas de manera continua en\( x = 1 \). La forma dada anteriormente no es la más sencilla, sino que deja clara la continuidad, y será útil cuando generalicemos.

    En el simulador de distribución especial, seleccione la distribución y el conjunto Irwin-Hall\( n = 2 \). Observe la forma de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La función de densidad de probabilidad\( f_3 \) de\( X_3 \) viene dada por\[ f_3(x) = \begin{cases} \frac{1}{2} x^2, & 0 \le x \le 1 \\ \frac{1}{2} x^2 - \frac{3}{2}(x - 1)^2, & 1 \le x \le 2 \\ \frac{1}{2} x^2 - \frac{3}{2}(x - 1)^2 + \frac{3}{2}(x - 2)^2, & 2 \le x \le 3 \end{cases} \]

    Tenga en cuenta que la gráfica de\( f_3 \) on\( [0, 3] \) consta de tres parábolas remontadas de manera continua en\( x = 1 \) y\( x = 2 \). Las expresiones\( f_3(x) \) para\( 1 \le x \le 2 \) y se\( 2 \le x \le 3 \) pueden ampliar y simplificar, pero nuevamente la forma dada anteriormente deja clara la continuidad, y será útil cuando generalicemos.

    En el simulador de distribución especial, seleccione la distribución y el conjunto Irwin-Hall\( n = 3 \). Observe la forma de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Naturalmente, no queremos realizar las circunvoluciones una a la vez; nos gustaría una fórmula general. Para exponer la fórmula sucintamente, necesitamos recordar la función floor:\[ \lfloor x \rfloor = \max\{ n \in \Z: n \le x\}, \quad x \in \R \] para que\( \lfloor x \rfloor = j \) si\( j \in \Z \) y\( j \le x \lt j + 1 \).

    Para\( n \in \N_+ \), la función de densidad de probabilidad\( f_n \) de\( X_n \) viene dada por\[ f_n(x) = \frac{1}{(n - 1)!} \sum_{k=0}^{\lfloor x \rfloor} (-1)^k \binom{n}{k} (x - k)^{n-1}, \quad x \in \R \]

    Prueba

    Dejar\( f_n \) denotar la función dada por la fórmula anterior. Claramente\( X_n \) toma valores adentro\( [0, n] \), así que primero notemos que\( f_n \) da el valor correcto fuera de este intervalo. Si\( x \lt 0 \), la suma está por encima de un conjunto de índices vacío y por lo tanto es 0. Supongamos\( x \gt n \). Ya que\( \binom{n}{k} = 0 \) para\( k \gt n \), tenemos\[ f_n(x) = \frac{1}{(n - 1)!} \sum_{k=0}^n (-1)^k \binom{n}{k} (x - k)^{n-1}, \quad x \in \R \] Usando el teorema binomial,\ begin {align*}\ sum_ {k=0} ^n (-1) ^k\ binom {n} {k} (x - k) ^ {n-1} & =\ sum_ {k=0} ^n (-1) ^k\ binom {n} {k}\ sum_ {j=0} ^ {n-1}\ binom om {n - 1} {j} x^j (-k) ^ {n - 1 - j}\\ & =\ suma_ {j=0} ^ {n-1} (-1) ^ {n - 1 - j}\ binom {n - 1} {j} x^j\ suma_ {k =0} ^n (-1) ^k\ binom {n} {k} k^ {n - 1 - j}\ end {align*} La segunda suma en la última expresión es 0 para\( j \in \{0, 1, \ldots n - 1\} \) por la identidad de serie alterna para coeficientes binomiales. Volveremos a ver esta identidad.

    Para demostrar que la fórmula es correcta en\( [0, n] \) usamos inducción en\( n \). Supongamos que\( n = 1 \). Si\( 0 \lt x \lt 1 \), entonces\( \lfloor x \rfloor = 0 \) así\[ f_1(x) = \frac{1}{0!} (-1)^0 \binom{1}{0} x^0 = 1 = f(x) \] Supongamos ahora que la fórmula es correcta para un dado\( n \in \N_+ \). Tenemos que demostrarlo\( f_n * f = f_{n+1} \). Tenga en cuenta que\[ (f_n * f)(x) = \int_\R f_n(y) f (x - y) d y = \int_{x-1}^x f_n(y) dy \] Como a menudo con convoluciones, debemos tomar casos. Supongamos que\( j \le x \lt j + 1 \) donde\( j \in \{0, 1, \ldots, n\} \). Entonces\[ (f_n * f)(x) = \int_{x-1}^x f_n(y) dy = \int_{x-1}^j f_n(y) dy + \int_j^x f_n(y) dy \] Sustituyendo la fórmula por\( f_n(y) \) e integrando da\ begin {align*} &\ int_ {x-1} ^j f_n (y) dy =\ frac {1} {n!} \ sum_ {k=0} ^ {j-1} (-1) ^k\ binom {n} {k} (j - k) ^n -\ frac {1} {n!} \ sum_ {k=0} ^ {j-1} (-1) ^k\ binom {n} {k} (x - 1 - k) ^n\\ &\ int_j^x f_n (y) dy =\ frac {1} {n!} \ sum_ {k=0} ^j (-1) ^k\ binom {n} {k} (x - k) ^n -\ frac {1} {n!} \ sum_ {k=0} ^j (-1) ^k\ binom {n} {k} (j - k) ^n\ end {align*} Sumando estos juntos, tenga en cuenta que la primera suma en la primera ecuación cancela la segunda suma en la segunda ecuación. Reindexando la segunda suma en la primera ecuación que tenemos\[ (f_n * f)(x) = \frac{1}{n!}\sum_{k=1}^j (-1)^k \binom{n}{k - 1}(x - k)^n + \frac{1}{n!} \sum_{k=0}^n (-1)^k \binom{n}{k} (x - k)^n \] Finalmente, usando la famosa identidad binomial\( \binom{n}{k - 1} + \binom{n}{k} = \binom{n+1}{k} \) para\( k \in \{1, 2, \ldots n\} \) tenemos\[ (f_n * f)(x) = \frac{1}{n!} \sum_{k=0}^j (-1)^k \binom{n+1}{k} (x - k)^n = f_{n+1}(x) \]

    Tenga en cuenta que para\( n \in \N_+ \), la gráfica de\( f_n \) on\( [0, n] \) consiste en\( n \) polinomios de\( n - 1 \) grado reconstituidos de manera continua. Tal construcción se conoce como spline polinomial. Los puntos donde se conectan los polinomios se conocen como nudos. Así\( f_n \) es una spline polinomial de grado\( n - 1 \) con nudos en\( x \in \{1, 2, \ldots, n - 1\} \). Hay otra representación de\( f_n \) como suma. Para afirmar esto de manera sucinta, necesitamos recordar la función sign:\[ \sgn(x) = \begin{cases} -1, & x \lt 0 \\ 0, & x = 0 \\ 1, & x \gt 0 \end{cases} \]

    Para\( n \in \N_+ \), la función de densidad de probabilidad\( f_n \) de\( X_n \) viene dada por\[ f_n(x) = \frac{1}{2 (n - 1)!} \sum_{k=0}^n (-1)^k \binom{n}{k} \sgn(x - k) (x - k)^{n-1}, \quad x \in \R \]

    Prueba Directa

    Dejar\( g_n \) denotar la función definida en el teorema. Mostraremos directamente eso\( g_n = f_n \), la función de densidad de probabilidad dada en el teorema anterior. Supongamos eso\( j \le x \lt j + 1 \), así que eso\( \lfloor x \rfloor = j \). Tenga en cuenta que\( \sgn(x - k) = 1 \) para\( k \lt j \) y\( \sgn(x - k) = - 1 \) para\( k \gt j \). De ahí que\[ g_n(x) = \frac{1}{2(n - 1)!} \sum_{k=0}^j (-1)^k \binom{n}{k} (x - k)^{n-1} - \frac{1}{2(n - 1)!} \sum_{k=j+1}^n (-1)^k \binom{n}{k} (x - k)^{n-1} \] sumar y restar una copia del primer término da\ begin {align*} g_n (x) & =\ frac {1} {(n - 1)!} \ sum_ {k=0} ^j (-1) ^k\ binom {n} {k} (x - k) ^ {n-1} -\ frac {1} {2 (n - 1)!} \ sum_ {k=0} ^n (-1) ^k\ binom {n} {k} (x - k) ^ {n-1}\\ & = f_n (x) -\ frac {1} {2 (n - 1)!} \ sum_ {k=0} ^n (-1) ^k\ binom {n} {k} (x - k) ^ {n-1}\ end {align*} La última suma es idénticamente 0, a partir de la prueba del teorema anterior.

    Prueba por inducción

    Para\( n = 1 \) la fórmula mostrada es\[ \frac{1}{2}[\sgn(x) x^0 - \sgn(x - 1) (x - 1)^0] = \frac{1}{2}[\sgn(x) - \sgn(x - 1)] = \begin{cases} 1, & 0 \lt x \lt 1 \\ 0, & \text{otherwise} \end{cases} \] Entonces la fórmula es correcta para\( n = 1 \). Supongamos ahora que la fórmula es correcta para\( n \in \N_+ \). Entonces\ comienza {align} f_ {n+1} (x) & = (f_n * f) (x) =\ int_\ R\ frac {1} {2 (n - 1)!} \ sum_ {k=0} ^n (-1) ^k\ binom {n} {k}\ sgn (u - k) (u - k) ^ {n-1} f (x - u)\, du\\ & =\ frac {1} {2 (n - 1)!} \ sum_ {k=0} ^n (-1) ^k\ binom {n} {k}\ int_ {x-1} ^x\ sgn (u - k) (u - k) ^ {n-1}\, du\ end {align} Pero\( \int_{x-1}^x \sgn(u - k) (u - k)^{n-1} \, du = \frac{1}{n}\left[\sgn(x - k) (x - k)^n - \sgn(x - k - 1) (x - k - 1)^n\right] \) para\( k \in \{0, 1, \ldots, n\} \). Entonces sustituyendo y reindexando una de las sumas da\[ f_{n+1}(x) = \frac{1}{2 n!} \sum_{k=0}^n (-1)^k \binom{n}{k} \sgn(x - k) (x - k)^n + \frac{1}{2 n!} \sum_{k=1}^{n+1} (-1)^k \binom{n}{k-1} \sgn(x - k) (x - k)^n \] Usando la famosa identidad\( \binom{n}{k} + \binom{n}{k-1} = \binom{n + 1}{k} \) para finalmente\( k \in \{1, 2, \ldots, n\} \) obtenemos\[ f_{n+1}(x) = \frac{1}{2 n!} \sum_{k=0}^{n+1} (-1)^k \binom{n+1}{k} \sgn(x - k) (x - k)^n \] lo que verifica la fórmula para\( n + 1 \).

    Abra el simulador de distribución especial y seleccione la distribución Irwin-Hall. Empezar con\( n = 1 \) y aumentar\( n \) sucesivamente al máximo\( n = 10 \). Observe la forma de la función de densidad de probabilidad. Para varios valores de\( n \), ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Para\( n \in \{2, 3, \ldots\} \), la distribución Irwin-Hall es simétrica y unimodal, con modo en\( n / 2 \).

    La función\( F_n \) de distribución de\( X_n \) viene dada por\[ F_n(x) = \frac{1}{n!} \sum_{k=0}^{\lfloor x \rfloor} (-1)^k \binom{n}{k} (x - k)^n, \quad x \in [0, n] \]

    Prueba

    Esto se desprende de la primera forma del PDF y la integración.

    Así\( F_n \) es una spline polinomial de grado\( n \) con nudos en\( \{1, 2, \ldots, n - 1\} \). La alternancia de la función de densidad de probabilidad conduce a una forma alternativa de la función de distribución.

    La función\( F_n \) de distribución de\( X_n \) viene dada por\[ F_n(x) = \frac{1}{2} + \frac{1}{2 n!} \sum_{k=0}^n (-1)^k \binom{n}{k} \sgn(x - k) (x - k)^n, \quad x \in [0, n] \]

    Prueba

    El resultado sigue desde la segunda forma del PDF y la integración.

    La función cuantil\( F_n^{-1} \) no tiene una representación simple, pero por supuesto por simetría, la mediana es\( n/2 \).

    Abra la calculadora de distribución especial y seleccione la distribución Irwin-Hall. \( n \)Varía de 1 a 10 y anote la forma de la función de distribución. Por cada valor de\( n \) computar el primer y tercer cuartiles.

    Momentos

    Los momentos de la distribución Irwin-Hall son fáciles de obtener a partir de la representación como una suma de variables uniformes estándar independientes. Una vez más, suponemos que\( X_n \) tiene la distribución del orden Irwin-Hall\( n \in \N_+ \).

    La media y varianza de\( X_n \) son

    1. \( \E(X_n) = n / 2 \)
    2. \( \var(X_n) = n / 12 \)
    Prueba

    Esto se desprende inmediatamente de la representación\( X_n = \sum_{i=1}^n U_i \) donde\( \bs U = (U_1, U_2, \ldots) \) se encuentra una secuencia de variables uniformes estándar independientes, ya que\( \E(U_i) = 1/2 \) y\( \var(U_i) = 1/12 \)

    Abra el simulador de distribución especial y seleccione la distribución Irwin-Hall. \( n \)Varía y anote la forma y ubicación de la barra de desviación\( \pm \) estándar media. Para valores seleccionados de\( n \) ejecutar la simulación 1000 veces y comparar la media empírica y la desviación estándar con la media de distribución y desviación estándar.

    La asimetría y curtosis de\( X_n \) son

    1. \( \skw(X_n) = 0 \)
    2. \( \kur(X_n) = 3 - \frac{6}{5 n} \)
    Prueba

    El hecho de que la skweness sea 0 se desprende inmediatamente de la simetría de la distribución (una vez que sabemos que\( X_n \) tiene momentos de todos los órdenes). El resultado de la curtosis se desprende de la fórmula habitual y de los momentos de la distribución uniforme estándar.

    Tenga en cuenta que\( \kur(X_n) \to 3 \), la curtosis de la distribución normal, como\( n \to \infty \). Es decir, el exceso de curtosis\( \kur(X_n) - 3 \to 0 \) como\( n \to \infty \).

    Abra el simulador de distribución especial y seleccione la distribución Irwin-Hall. Varíe\( n \) y anote la forma y la función de densidad de probabilidad a la luz de los resultados previos sobre asimetría y curtosis. Para los valores seleccionados de\( n \) ejecutar la simulación 1000 veces y comparar la función de densidad empírica, la media y la desviación estándar con sus contrapartes distribucionales.

    La función\( M_n \) de generación de momento\( X_n \) está dada por\( M_n(0) = 1 \) y\[ M_n(t) = \left(\frac{e^t - 1}{t}\right)^n, \quad t \in \R \setminus\{0\} \]

    Prueba

    Esto se desprende inmediatamente de la representación\( X_n = \sum_{i=1}^n U_i \) donde\( \bs{U} = (U_1, U_2, \ldots) \) se encuentra una secuencia de variables uniformes estándar independientes. Recordemos que la distribución uniforme estándar tiene MGF\( t \mapsto (e^t - 1) / t \), y el MGF de una suma de variables independientes es el producto de los MGF.

    Distribuciones Relacionadas

    La conexión más importante es con la distribución uniforme estándar en la definición: La distribución Irwin-Hall de orden\( n \in \N_+ \) es la distribución de la suma de variables\( n \) independientes, cada una con la distribución uniforme estándar. La distribución Irwin-Hall del orden 2 también es una distribución triangular:

    La distribución Irwin-Hall del orden 2 es la distribución triangular con el parámetro de ubicación 0, el parámetro de escala 2 y el parámetro de forma\( \frac{1}{2} \).

    Prueba

    Esto se deduce inmediatamente del PDF\( f_2 \).

    La distribución Irwin-Hall está conectada a la distribución normal a través del teorema del límite central.

    Supongamos que\( X_n \) tiene la distribución Irwin-Hall de orden\( n \) para cada uno\( n \in \N_+ \). Entonces la distribución de\[ Z_n = \frac{X_n - n/2}{\sqrt{n/12}} \] converge a la distribución normal estándar como\( n \to \infty \).

    Prueba

    Esto se desprende inmediatamente del teorema del límite central, ya que\( X_n = \sum_{i=1}^n U_i \) donde\( (U_1, U_2, \ldots) \) se encuentra una secuencia de variables independientes, cada una con la distribución uniforme estándar. Tenga en cuenta que\( Z_n \) es la puntuación estándar de\( X_n \).

    Así, si\( n \) es grande,\( X_n \) tiene aproximadamente una distribución normal con media\( n/2 \) y varianza\( n/12 \).

    Abra el simulador de distribución especial y seleccione la distribución Irwin-Hall. Empezar con\( n = 1 \) y aumentar\( n \) sucesivamente al máximo\( n = 10 \). Observe cómo la función de densidad de probabilidad se vuelve más normal a medida que\( n \) aumenta. Para varios valores de\( n \), ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La distribución de orden Irwin-Hall\( n \) es trivial de simular, como la suma de números\( n \) aleatorios. Dado que la función de densidad de probabilidad está limitada en un intervalo de soporte limitado, la distribución también se puede simular a través del método de rechazo. Computacionalmente, esto es una tontería de hacer, claro, pero aún puede ser un ejercicio divertido.

    Abra el experimento del método de rechazo y seleccione la distribución Irwin-Hall. Para diversos valores de\( n \), ejecutar la simulación 2000 veces. Comparar la función de densidad empírica, la media y la desviación estándar con sus contrapartes distribucionales.


    This page titled 5.25: La distribución Irwin-Hall is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.