Saltar al contenido principal
LibreTexts Español

5.27: La distribución sinusoidal

  • Page ID
    151687
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\cov}{\text{cov}}\)\(\newcommand{\cor}{\text{cor}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)

    La distribución sinusoidal es una distribución de probabilidad simple basada en una porción de la curva sinusoidal. También es conocida como distribución sinusoidal de Gilbert, llamada así por el geólogo estadounidense Grove Karl (GK) Gilbert que utilizó la distribución en 1892 para estudiar cráteres en la luna.

    La distribución sinusoidal estándar

    Funciones de distribución

    La distribución sinusoidal estándar es una distribución continua\( [0, 1] \) con función de densidad de probabilidad\(g\) dada por\[g(z) = \frac{\pi}{2} \sin(\pi z), \quad z \in [0, 1] \]

    1. \(g\)es simétrico sobre\( z = \frac 1 2 \).
    2. \(g\)aumenta y luego disminuye con el modo en\( z = \frac 1 2 \).
    3. \( g \)es cóncavo hacia abajo.
    Prueba

    Del cálculo simple,\( g \) es una función de densidad de probabilidad:\( \sin(\pi x) \ge 0 \) for\( x \in [0, 1] \) y\[ \int_0^1 \sin(\pi z) dz = \frac{2}{\pi} \] Las propiedades siguen del cálculo básico desde\ begin {align} g^\ prime (z) & =\ frac {\ pi^2} {2}\ cos (\ pi z),\ quad z\ in [0, 1]\ g^ {\ prime\ prime} (z) & = -\ frac {\ pi^3} {2}\ sin (\ pi z),\ quad z\ en [0, 1]\ end {align}

    Abra el Simulador de Distribución Especial y seleccione la distribución sinusoidal. Ejecute la simulación 1000 veces y compare la función de densidad emprical con la función de densidad de probabilidad.

    La función de distribución\(G\) viene dada por\( G(z) = \frac{1}{2} [1 - \cos(\pi z)]\) for\( z \in [0, 1] \).

    Prueba

    Esto se desprende del PDF anterior y cálculo simple.

    La función cuantil\(G^{-1}\) viene dada por\( G^{-1}(p) = \frac{1}{\pi} \arccos(1 - 2 p) \) for\( p \in [0, 1] \).

    1. El primer cuartil es\(q_1 = \frac{1}{3} \).
    2. La mediana es\( \frac{1}{2} \).
    3. El tercer cuartil es\(q_3 = \frac{2}{3} \).
    Prueba

    La fórmula para la función cuantil sigue inmediatamente del CDF anterior resolviendo\(p = G(z)\) para\(z\) en términos de\(p \in [0, 1]\).

    Abra la Calculadora de Distribución Especial y seleccione la distribución sinusoidal. Calcular algunos cuantiles.

    Momentos

    Supongamos que\( Z \) tiene la distribución sinusoidal estándar. La función de generación de momento se puede dar en forma cerrada.

    La función de generación\( m \) de momento\( Z \) está dada por\[ m(t) = \E\left(e^{t Z}\right) = \frac{\pi^2 (1 + e^t)}{2(t^2 + \pi^2)}, \quad t \in \R \]

    Prueba

    Tenga en cuenta primero que\[ m(t) = \frac{\pi}{2} \int_0^1 e^{t z} \sin(\pi z) \, dz \] Integrar por partes con\( u = e^{t z} \) y\( dv = \sin(\pi z) dz \) da\[ m(t) = \frac{t}{2} (1 + e^t) + \frac{t}{2} \int_0^1 e^{t z} \cos(\pi z) \, dz \] Integrando por partes nuevamente con\( u = e^{t z} \) y\( dv = \cos(\pi z) dz \) da\[ m(t) = \frac{t}{2} (1 + e^t) - \frac{t^2}{\pi^2} m(t) \] Resolviendo para\( m(t) \) da el resultado.

    Los momentos de todos los órdenes existen, pero una fórmula general es complicada e implica funciones especiales. Sin embargo, la media y la varianza son fáciles de calcular.

    La media y varianza\( Z \) de

    1. \(\E(Z) = 1/2 \)
    2. \(\var(Z) = 1/4 - 2 / \pi^2\)
    Prueba
    1. Sabemos que la media existe ya que el PDF es continuo en un intervalo acotado. Por simetría, la media debe ser\( 1/2 \).
    2. Integración por partes (dos veces) da\[ \E(Z^2) = \int_0^1 z^2 \frac{\pi}{2} \sin(\pi z) \, dz = \frac{1}{2} - \frac{2}{\pi^2} \] La varianza se desprende entonces de la fórmula computacional habitual\( \var(Z) = \E(Z^2) - [\E(Z)]^2 \).

    Por supuesto, la media y varianza también podrían obtenerse diferenciando el MGF.

    Numéricamente,\( \sd(Z) \approx 0.2176 \).

    Abra el Simulador de Distribución Especial y seleccione la distribución sinusoidal. Anote la posición y el tamaño de la barra de desviación\(\pm \) estándar media. Ejecute la simulación 1000 veces y compare la media empírica y la desviación stadard con la media de distribución y la desviación estándar.

    La asimetría y curtosis de\(Z\) son

    1. \(\skw(Z) = 0\)
    2. \(\kur(Z) = (384 - 48 \pi^2 + \pi^4) / (\pi^2 - 8)^2\)
    Prueba
    1. La asimetría es 0 por la simetría de la distribución.
    2. La fórmula para la curtosis se desprende de la fórmula computacional habitual y de los primeros cuatro momentos:\( \E(Z) = 1/2 \),,\( \E(Z^2) = 1/2 - 2 / \pi^2 \),\( \E(Z^3) = 1/2 - 3 / \pi^2 \),\( \E(Z^4) = 1/2 + 24 / \pi^4 - 6 / \pi^2 \).

    Numéricamente,\( \kur(Z) \approx 2.1938 \).

    Distribuciones Relacionadas

    Dado que la función de distribución y la función cuantil tienen representaciones de forma cerrada, la distribución sinusoidal estándar tiene la conexión habitual con la distribución uniforme estándar.

    1. Si\( U \) tiene la distribución uniforme estándar entonces\( Z = G^{-1}(U) = \frac{1}{\pi} \arccos(1 - 2 U) \) tiene la distribución sinusoidal estándar.
    2. Si\( Z \) tiene la distribución sinusoidal estándar entonces\( U = G(Z) = \frac{1}{2} [1 - \cos(\pi Z)] \) tiene la distribución uniforme estándar.

    La parte (a), por supuesto, conduce al método de simulación de cuantiles aleatorios.

    Abra el simulador de cuantiles aleatorios y seleccione la distribución sinusoidal. Tenga en cuenta la forma de las funciones de distribución y densidad. Ejecute la simulación 1000 veces y anote los cuantiles aleatorios. Comparar la función de densidad empírica con la función de densidad de probabilidad.

    Dado que la función de densidad de probabilidad es continua y se define en un intervalo cerrado y delimitado, la distribución sinusoidal estándar también se puede simular utilizando el método de rechazo.

    Abra la app del método de rechazo y seleccione la distribución sinusoidal. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La distribución sinusoidal general

    Al igual que con tantas otras distribuciones estándar, la distribución sinusoidal estándar se generaliza agregando parámetros de ubicación y escala.

    Supongamos que\(Z\) tiene la distribución sinusoidal estándar. Para\(a \in \R\) y\( b \in (0, \infty) \), la variable aleatoria\( X = a + b Z \) tiene la distribución sinusoidal con parámetro de ubicación\(a\) y parámetro de escala\(h\).

    Funciones de distribución

    Las analogías de los resultados anteriores para la distribución sinusoidal estándar se derivan fácilmente de las propiedades básicas de la transformación a escala de ubicación. Supongamos que\( X \) tiene la distribución sinusoidal con parámetro de ubicación\( a \in \R \) y parámetro de escala\( b \in (0, \infty) \). Así\( X \) tiene una distribución continua en el intervalo\( [a, a + b] \).

    La función de densidad de probabilidad\( f \) de\( X \) viene dada por\[ f(x) = \frac{\pi}{2 b} \sin\left(\pi \frac{x - a}{b}\right), \quad x \in [a, a + b] \]

    1. \( f \)es simétrico sobre\( x = a + b / 2 \).
    2. \( f \)aumenta y luego disminuye, con modo\( x = a + b / 2 \).
    3. \( f \)es cóncavo hacia abajo.
    Prueba

    Recordemos que\[ f(x) = \frac{1}{b} g\left(\frac{x - a}{b}\right), \quad x \in \R \] dónde\( g \) está el PDF estándar.

    Las transformaciones de escala pura (\( a = 0 \)y\( b \gt 0 \)) son particularmente comunes, ya que\( X \) a menudo representa un ángulo aleatorio. La transformación de escala con\( b = \pi \) da el ángulo en radianes. En este caso la función de densidad de probabilidad es\( f(x) = \frac{1}{2} \sin(x) \) para\( x \in [0, \pi] \). Dado que el radián es la unidad angular estándar, esta distribución también podría considerarse la estándar. La transformación de escala con\( b = 90 \) da el ángulo en grados. En este caso, la función de densidad de probabilidad es\( f(x) = \frac{\pi}{180} \sin\left(\frac{\pi}{90} x\right) \) para\( x \in [0, 90] \). Esta fue la formulación original de Gilbert.

    En el simulador de distribución especial, seleccione la distribución sinusoidal. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La función\( F \) de distribución de\( X \) viene dada por\[ F(x) = \frac{1}{2}\left[1 - \cos\left(\pi \frac{x - a}{b}\right)\right], \quad x \in [a, a + b] \]

    Prueba

    Recordemos que\[ F(x) = G\left(\frac{x - a}{b}\right), \quad x \in \R \] donde\( G \) está el CDF estándar.

    La función cuantil\( F^{-1} \) de\( X \) viene dada por\[ F^{-1}(p) = a + \frac{b}{\pi} \arccos(1 - 2 p), \quad p \in (0, 1) \]

    1. El primer cuartil es\( a + b / 3\).
    2. La mediana es\( a + b / 2 \).
    3. El tercer cuartil es\( a + 2 b / 3\)
    Prueba

    Recordemos que\( F^{-1}(p) = a + b G^{-1}(p) \) para\( p \in (0, 1) \), donde\( G^{-1} \) está la función cuantil estándar.

    En la calculadora de distribución especial, seleccione la distribución sinusoidal. Variar los parámetros y anotar la forma y ubicación de la función de densidad de probabilidad y la función de distribución. Para valores seleccionados de los parámetros, encuentre los cuantiles de orden 0.1 y 0.9.

    Momentos

    Supongamos nuevamente que\( X \) tiene la distribución sinusoidal con parámetro de ubicación\( a \in \R \) y parámetro de escala\( b \in (0, \infty) \).

    La función de generación\( M \) de momento\( X \) está dada por\[ M(t) = \frac{\pi^2 \left(e^{a t} + e^{(a + b) t}\right)}{2 \left(b^2 t^2 + \pi^2\right)}, \quad t \in \R \]

    Prueba

    Recordemos que\( M(t) = e^{a t} m(b t) \) donde\( m \) está el MGF estándar.

    La media y varianza\( X \) de

    1. \(\E(X) = a + b / 2\)
    2. \(\var(X) = b^2 (1 / 4 - 2 / \pi^2)\)
    Prueba

    Por definición podemos suponer\( X = a + b Z \) donde\( Z \) tiene la distribución sinusoidal estándar. Usando la media y varianza de\( Z \) tenemos

    1. \( \E(X) = a + b \E(Z) = a + b / 2\)
    2. \( \var(X) = b^2 \var(Z) = b^2 (1 / 4 - 2 / \pi^2) \)

    En el simulador de distribución especial, seleccione la distribución sinusoidal. Varíe los parámetros y anote la forma y ubicación de la barra de desviación\( \pm \) estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

    La asimetría y curtosis de\( X \) son

    1. \( \skw(X) = 0 \)
    2. \(\kur(X) = (384 - 48 \pi^2 + \pi^4) / (\pi^2 - 8)^2 \)
    Prueba

    Recordemos que la asimetría y la curtosis se definen en términos de la puntuación estándar, y por lo tanto son invariantes bajo transformaciones de escala de ubicación. Entonces la asimetría y curtosis de\( X \) son las mismas que la asimetría y curtosis de\( Z \).

    Distribuciones Relacionadas

    La distribución sinusoidal general es una familia a escala de ubicación, por lo que se cierra trivialmente bajo transformaciones a escala de ubicación.

    Supongamos que\( X \) tiene la distribución sinusoidal con parámetro de ubicación\( a \in \R \) y parámetro de escala\( b \in (0, \infty) \), y eso\( c \in \R \) y\( d \in (0, \infty) \). Luego\( Y = c + d X \) tiene la distribución sinusoidal con parámetro de ubicación\( c + a d \) y parámetro de escala\( b d \).

    Prueba

    Nuevamente por definición podemos tomar\( X = a + b Z \) donde\( Z \) tiene la distribución sinusoidal estándar. Entonces\( Y = c + d X = (c + a d) + (b d) Z \).


    This page titled 5.27: La distribución sinusoidal is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.