Saltar al contenido principal
Library homepage
 
LibreTexts Español

4.4: Asimetría y Curtosis

  • Page ID
    151902
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)\(\renewcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)

    Como es habitual, nuestro punto de partida es un experimento aleatorio, modelado por un espacio de probabilidad\((\Omega, \mathscr F, P)\). Entonces, para revisar,\(\Omega\) es el conjunto de resultados,\(\mathscr F\) la recolección de eventos, y\( \P \) la medida de probabilidad en el espacio muestral\((\Omega, \mathscr F)\). Supongamos que\(X\) es una variable aleatoria de valor real para el experimento. Recordemos que la media de\( X \) es una medida del centro de la distribución de\( X \). Además, la varianza de\(X\) es el segundo momento de\(X\) aproximadamente la media, y mide la dispersión de la distribución de\(X\) alrededor de la media. El tercer y cuarto momentos de\(X\) aproximadamente la media también miden características interesantes (pero más sutiles) de la distribución. El tercer momento mide la asimetría, la falta de simetría, mientras que el cuarto momento mide la curtosis, aproximadamente una medida de la gordura en las colas. Las medidas numéricas reales de estas características se estandarizan para eliminar las unidades físicas, dividiendo por una potencia apropiada de la desviación estándar. Como es habitual, suponemos que todos los valores esperados que se dan a continuación existen, y vamos a dejar\(\mu = \E(X)\) y\(\sigma^2 = \var(X)\). Suponemos eso\(\sigma \gt 0\), para que la variable aleatoria sea realmente aleatoria.

    Teoría Básica

    Asimetría

    La asimetría de\(X\) es el tercer momento de la puntuación estándar de\( X \):\(X\) Se dice que\[ \skw(X) = \E\left[\left(\frac{X - \mu}{\sigma}\right)^3\right] \] la distribución de está sesgada positivamente, sesgada negativamente o no sesgada dependiendo de si\(\skw(X)\) es positiva, negativa o 0.

    En el caso unimodal, si la distribución está sesgada positivamente entonces la función de densidad de probabilidad tiene una cola larga a la derecha, y si la distribución está sesgada negativamente entonces la función de densidad de probabilidad tiene una cola larga a la izquierda. Una distribución simétrica no está sesgada.

    Supongamos que la distribución de\(X\) es simétrica sobre\(a\). Entonces

    1. \(\E(X) = a\)
    2. \(\skw(X) = 0\).
    Prueba

    Por supuesto, la distribución de\( a - X \) es la misma que la distribución de\( X - a \). Demostramos la parte (a) en la sección sobre propiedades de Valor esperado. Por lo tanto,\( \skw(X) = \E\left[(X - a)^3\right] \big/ \sigma^3 \). Pero por simetría y linealidad,\( \E\left[(X - a)^3\right] = \E\left[(a - X)^3\right] = - \E\left[(X - a)^3\right] \), así se deduce de eso\( \E\left[(X - a)^3\right] = 0 \).

    Lo contrario no es cierto: una distribución no simétrica puede tener asimetría 0. Se dan ejemplos en los ejercicios (30) y (31) a continuación.

    \(\skw(X)\)se puede expresar en términos de los tres primeros momentos de\(X\). \[ \skw(X) = \frac{\E\left(X^3\right) - 3 \mu \E\left(X^2\right) + 2 \mu^3}{\sigma^3} = \frac{\E\left(X^3\right) - 3 \mu \sigma^2 - \mu^3}{\sigma^3} \]

    Prueba

    Tenga en cuenta tht\( (X - \mu)^3 = X^3 - 3 X^2 \mu + 3 X \mu^2 - \mu^3 \). De la linealidad del valor esperado tenemos\[ \E\left[(X - \mu)^3\right] = \E\left(X^3\right) - 3 \mu \E\left(X^2\right) + 3 \mu^2 \E(X) - \mu^3 = E\left(X^3\right) - 3 \mu \E\left(X^2\right) + 2 \mu^3 \] La segunda expresión se deriva de la sustitución\( \E\left(X^2\right) = \sigma^2 + \mu^2 \).

    Dado que la asimetría se define en términos de una potencia impar de la puntuación estándar, es invariante bajo una transformación lineal con pendiente positiva (una transformación a escala de ubicación de la distribución). Por otro lado, si la pendiente es negativa, la asimetría cambia de signo.

    Supongamos que\(a \in \R\) y\(b \in \R \setminus \{0\}\). Entonces

    1. \( \skw(a + b X) = \skw(X) \)si\( b \gt 0 \)
    2. \( \skw(a + b X) = - \skw(X) \)si\( b \lt 0 \)
    Prueba

    Vamos\( Z = (X - \mu) / \sigma \), la puntuación estándar de\( X \). Recordemos de la sección sobre varianza que la puntuación estándar de\( a + b X \) es\( Z \) si\( b \gt 0 \) y es\( -Z \) si\( b \lt 0 \).

    Recordemos que las transformaciones a escala de ubicación a menudo surgen cuando se cambian las unidades físicas, como pulgadas a centímetros, o grados Fahrenheit a grados Celsius.

    Curtosis

    La curtosis de\(X\) es el cuarto momento de la puntuación estándar:\[ \kur(X) = \E\left[\left(\frac{X - \mu}{\sigma}\right)^4\right] \]

    Curtosis proviene de la palabra griega para abultamiento. La curtosis siempre es positiva, ya que hemos asumido que\( \sigma \gt 0 \) (la variable aleatoria realmente es aleatoria), y por lo tanto\( \P(X \ne \mu) \gt 0 \). En el caso unimodal, la función de densidad de probabilidad de una distribución con curtosis grande tiene colas más gordas, en comparación con la función de densidad de probabilidad de una distribución con curtosis más pequeña.

    \(\kur(X)\)se puede expresar en términos de los primeros cuatro momentos de\(X\). \[ \kur(X) = \frac{\E\left(X^4\right) - 4 \mu \E\left(X^3\right) + 6 \mu^2 \E\left(X^2\right) - 3 \mu^4}{\sigma^4} = \frac{\E\left(X^4\right) - 4 \mu \E\left(X^3\right) + 6 \mu^2 \sigma^2 + 3 \mu^4}{\sigma^4} \]

    Prueba

    Tenga en cuenta que\( (X - \mu)^4 = X^4 - 4 X^3 \mu + 6 X^2 \mu^2 - 4 X \mu^3 + \mu^4 \). De linealidad del valor esperado, tenemos\[ \E\left[(X - \mu)^4\right] = \E\left(X^4\right) - 4 \mu \E\left(X^3\right) + 6 \mu^2 \E\left(X^2\right) - 4 \mu^3 \E(X) + \mu^4 = \E(X^4) - 4 \mu \E(X^3) + 6 \mu^2 \E(X^2) - 3 \mu^4 \] La segunda expresión se deriva de la sustitución\( \E\left(X^2\right) = \sigma^2 + \mu^2 \).

    Dado que la curtosis se define en términos de una potencia par de la puntuación estándar, es invariante bajo transformaciones lineales.

    Supongamos que\(a \in \R\) y\(b \in \R \setminus\{0\}\). Entonces\(\kur(a + b X) = \kur(X)\).

    Prueba

    Como antes, vamos a\( Z = (X - \mu) / \sigma \) denotar la puntuación estándar de\( X \). Entonces la puntuación estándar de\( a + b X \) es\( Z \) si\( b \gt 0 \) y es\( -Z \) si\( b \lt 0 \).

    Mostraremos a continuación que la curtosis de la distribución normal estándar es 3. Usando la distribución normal estándar como punto de referencia, se define que el exceso de curtosis de una variable aleatoria\(X\) es\(\kur(X) - 3\). Algunos autores utilizan el término curtosis para referirse a lo que hemos definido como exceso de curtosis.

    Ejercicios Computacionales

    Como siempre, asegúrate de probar los ejercicios tú mismo antes de ampliar las soluciones y respuestas en el texto.

    Variables de indicador

    Recordemos que una variable aleatoria indicadora es aquella que solo toma los valores 0 y 1. Las variables indicadoras son los bloques de construcción de muchas variables aleatorias de conteo. La distribución correspondiente se conoce como la distribución de Bernoulli, llamada así por Jacob Bernoulli.

    Supongamos que\(X\) es una variable indicadora con\(\P(X = 1) = p\) donde\( p \in (0, 1) \). Entonces

    1. \( \E(X) = p \)
    2. \( \var(X) = p (1 - p) \)
    3. \(\skw(X) = \frac{1 - 2 p}{\sqrt{p (1 - p)}}\)
    4. \(\kur(X) = \frac{1 - 3 p + 3 p^2}{p (1 - p)}\)
    Prueba

    Las partes (a) y (b) se han derivado antes. Las cuatro partes se derivan fácilmente del hecho de que\( X^n = X \) y por lo tanto\( \E\left(X^n\right) = p \) para\( n \in \N_+ \).

    Abra el experimento de monedas binomiales y conéctelo\( n = 1 \) para obtener una variable indicadora. Varíe\( p \) y anote el cambio en la forma de la función de densidad de probabilidad.

    Dados

    Recordemos que un dado justo es aquel en el que las caras son igualmente probables. Además de los dados justos, existen varios tipos de dados torcidos. Aquí hay tres:

    • Un dado plano ace-seis es un dado de seis lados en el que las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una mientras que las caras 2, 3, 4 y 5 tienen probabilidad\(\frac{1}{8}\) cada una.
    • Un dado plano de dos y cinco es un dado de seis lados en el que las caras 2 y 5 tienen probabilidad\(\frac{1}{4}\) cada una mientras que las caras 1, 3, 4 y 6 tienen probabilidad\(\frac{1}{8}\) cada una.
    • Un troquel plano de tres y cuatro es un dado de seis lados en el que las caras 3 y 4 tienen probabilidad\(\frac{1}{4}\) cada una mientras que las caras 1, 2, 5 y 6 tienen probabilidad\(\frac{1}{8}\) cada una.

    Un dado plano, como su nombre indica, es un dado que no es un cubo, sino que es más corto en una de las tres direcciones. Las probabilidades particulares que utilizamos (\( \frac{1}{4} \)y\( \frac{1}{8} \)) son ficticias, pero la propiedad esencial de una matriz plana es que las caras opuestas en el eje más corto tienen probabilidades ligeramente mayores que las otras cuatro caras. Los dados planos a veces son utilizados por los apostadores para hacer trampa.

    Se lanza un dado estándar, justo y\(X\) se registra el puntaje. Compute cada uno de los siguientes:

    1. \(\E(X)\)
    2. \(\var(X)\)
    3. \(\skw(X)\)
    4. \(\kur(X)\)
    Contestar
    1. \( \frac{7}{2} \)
    2. \( \frac{35}{12} \)
    3. \(0\)
    4. \(\frac{303}{175}\)

    Se lanza un dado plano ace-seis y\(X\) se registra el marcador. Compute cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \(\skw(X)\)
    4. \(\kur(X)\)
    Contestar
    1. \( \frac{7}{2} \)
    2. \( \frac{15}{4} \)
    3. \(0\)
    4. \(\frac{37}{25}\)

    Se lanza un dado plano de dos-cinco y\(X\) se registra el marcador. Compute cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \(\skw(X)\)
    4. \(\kur(X)\)
    Contestar
    1. \( \frac{7}{2} \)
    2. \( \frac{11}{4} \)
    3. \(0\)
    4. \(\frac{197}{121}\)

    Se lanza un dado plano de tres-cuatro y\(X\) se registra el marcador. Compute cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \(\skw(X)\)
    4. \(\kur(X)\)
    Contestar
    1. \( \frac{7}{2} \)
    2. \( \frac{9}{4} \)
    3. \(0\)
    4. \(\frac{59}{27}\)

    Las cuatro distribuciones anteriores tienen la misma media\( \frac{7}{2} \) y son simétricas (y por lo tanto tienen asimetría 0), pero difieren en varianza y curtosis.

    Abre el experimento de dados y listo\( n = 1 \) para obtener un solo dado. Seleccione cada uno de los siguientes, y anote la forma de la función de densidad de probabilidad en comparación con los resultados computacionales anteriores. En cada caso, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    1. feria
    2. ace-six plano
    3. dos-cinco planos
    4. tres y cuatro planos

    Distribuciones Uniformes

    Recordemos que la distribución uniforme continua en un intervalo acotado corresponde a seleccionar un punto al azar del intervalo. Las distribuciones uniformes continuas surgen en probabilidad geométrica y una variedad de otros problemas aplicados.

    Supongamos que\(X\) tiene una distribución uniforme en el intervalo\([a, b]\), donde\( a, \, b \in \R \) y\( a \lt b \). Entonces

    1. \( \E(X) = \frac{1}{2}(a + b) \)
    2. \( \var(X) = \frac{1}{12}(b - a)^2 \)
    3. \(\skw(X) = 0\)
    4. \(\kur(X) = \frac{9}{5}\)
    Prueba

    Partes (a) y (b) que hemos visto antes. Para las partes (c) y (d), recordar que\( X = a + (b - a)U \) donde\( U \) tiene la distribución uniforme en\( [0, 1] \) (la distribución uniforme estándar). De ahí que se deduce de las fórmulas de asimetría y curtosis bajo transformaciones lineales que\( \skw(X) = \skw(U) \) y\( \kur(X) = \kur(U) \). Ya que\( \E(U^n) = 1/(n + 1) \) para\( n \in \N_+ \), es fácil calcular la asimetría y curtosis de\( U \) a partir de las fórmulas computacionales asimetría y curtosis. Por supuesto, el hecho que\( \skw(X) = 0 \) también se desprende trivialmente de la simetría de la distribución de\( X \) alrededor de la media.

    Abra el simulador de distribución especial y seleccione la distribución uniforme continua. Varíe los parámetros y anote la forma de la función de densidad de probabilidad en comparación con los resultados de momento en el último ejercicio. Para los valores seleccionados del parámetro, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    La distribución exponencial

    Recordemos que la distribución exponencial es una distribución continua\( [0, \infty) \) con función de densidad de probabilidad\( f \) dada por\[ f(t) = r e^{-r t}, \quad t \in [0, \infty) \] donde\(r \in (0, \infty)\) es el parámetro with rate. Esta distribución es ampliamente utilizada para modelar tiempos de falla y otros tiempos de llegada. La distribución exponencial se estudia en detalle en el capítulo sobre el Proceso de Poisson.

    Supongamos que\(X\) tiene la distribución exponencial con parámetro rate\(r \gt 0\). Entonces

    1. \( \E(X) = \frac{1}{r} \)
    2. \( \var(X) = \frac{1}{r^2} \)
    3. \(\skw(X) = 2\)
    4. \(\kur(X) = 9\)
    Prueba

    Estos resultados se derivan de las fórmulas computacionales para asimetría y curtosis y la fórmula general de momento\( \E\left(X^n\right) = n! / r^n \) para\( n \in \N \).

    Tenga en cuenta que la asimetría y curtosis no dependen del parámetro de tasa\( r \). Eso\( 1 / r \) es porque es un parámetro de escala para la distribución exponencial

    Abrir el experimento gamma y establecer\( n = 1 \) para obtener la distribución exponencial. Varíe el parámetro de tasa y anote la forma de la función de densidad de probabilidad en comparación con los resultados de momento en el último ejercicio. Para los valores seleccionados del parámetro, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    Distribución Pareto

    Recordemos que la distribución de Pareto es una distribución continua\( [1, \infty) \) con función de densidad de probabilidad\( f \) dada por\[ f(x) = \frac{a}{x^{a + 1}}, \quad x \in [1, \infty) \] donde\(a \in (0, \infty)\) es un parámetro. La distribución de Pareto lleva el nombre de Vilfredo Pareto. Se trata de una distribución de cola pesada que es ampliamente utilizada para modelar variables financieras como el ingreso. La distribución de Pareto se estudia en detalle en el capítulo sobre Distribuciones Especiales.

    Supongamos que\(X\) tiene la distribución de Pareto con parámetro shape\(a \gt 0\). Entonces

    1. \( \E(X) = \frac{a}{a - 1} \)si\( a \gt 1 \)
    2. \(\var(X) = \frac{a}{(a - 1)^2 (a - 2)}\)si\( a \gt 2 \)
    3. \(\skw(X) = \frac{2 (1 + a)}{a - 3} \sqrt{1 - \frac{2}{a}}\)si\( a \gt 3 \)
    4. \(\kur(X) = \frac{3 (a - 2)(3 a^2 + a + 2)}{a (a - 3)(a - 4)}\)si\( a \gt 4 \)
    Prueba

    Estos resultados se derivan de las fórmulas computacionales estándar para asimetría y curtosis y la fórmula general de momento\( \E\left(X^n\right) = \frac{a}{a - n} \) si\( n \in \N \) y\( n \lt a \).

    Abra el simulador de distribución especial y seleccione la distribución de Pareto. Variar el parámetro shape y anotar la forma de la función de densidad de probabilidad en comparación con los resultados de momento en el último ejercicio. Para los valores seleccionados del parámetro, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    La distribución normal

    Recordemos que la distribución normal estándar es una distribución continua\( \R \) con función de densidad de probabilidad\( \phi \) dada por

    \[ \phi(z) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{1}{2} z^2}, \quad z \in \R \]

    Las distribuciones normales son ampliamente utilizadas para modelar mediciones físicas sujetas a pequeños errores aleatorios y se estudian en detalle en el capítulo sobre Distribuciones Especiales.

    Supongamos que\(Z\) tiene la distribución normal estándar. Entonces

    1. \( \E(Z) = 0 \)
    2. \( \var(Z) = 1 \)
    3. \(\skw(Z) = 0\)
    4. \(\kur(Z) = 3\)
    Prueba

    Las partes (a) y (b) se derivaron en las secciones anteriores sobre el valor esperado y la varianza. La parte (c) se desprende de la simetría. Para la parte d), recordemos eso\( \E(Z^4) = 3 \E(Z^2) = 3 \).

    De manera más general, para\(\mu \in \R\) y\(\sigma \in (0, \infty)\), recordemos que la distribución normal con media\(\mu\) y desviación estándar\(\sigma\) es una distribución continua\(\R\) con función de densidad de probabilidad\( f \) dada por\[ f(x) = \frac{1}{\sqrt{2 \pi} \sigma} \exp\left[-\frac{1}{2}\left(\frac{x - \mu}{\sigma}\right)^2\right], \quad x \in \R \] Sin embargo, también sabemos que\( \mu \) y\( \sigma \) son parámetros de ubicación y escala, respectivamente. Es decir, si\( Z \) tiene la distribución normal estándar entonces\( X = \mu + \sigma Z \) tiene la distribución normal con media\( \mu \) y desviación estándar\( \sigma \).

    Si\(X\) tiene la distribución normal con media\(\mu \in \R\) y desviación estándar\(\sigma \in (0, \infty)\), entonces

    1. \(\skw(X) = 0\)
    2. \(\kur(X) = 3\)
    Prueba

    Los resultados se derivan inmediatamente de las fórmulas de asimetría y curtosis bajo transformaciones lineales y el resultado anterior.

    Abra el simulador de distribución especial y seleccione la distribución normal. Varíe los parámetros y anote la forma de la función de densidad de probabilidad en comparación con los resultados de momento en el último ejercicio. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    La distribución beta

    Las distribuciones de esta subsección pertenecen a la familia de distribuciones beta, las cuales son distribuciones continuas en\( [0, 1] \) ampliamente utilizadas para modelar proporciones y probabilidades aleatorias. La distribución beta se estudia en detalle en el capítulo sobre Distribuciones Especiales.

    Supongamos que\( X \) tiene función de densidad de probabilidad\( f \) dada por\( f(x) = 6 x (1 - x) \) for\( x \in [0, 1] \). Encuentra cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Contestar
    1. \(\frac{1}{2}\)
    2. \(\frac{1}{20}\)
    3. \(0\)
    4. \(\frac{15}{7}\)

    Supongamos que\( X \) tiene función de densidad de probabilidad\( f \) dada por\( f(x) = 12 x^2 (1 - x) \) for\( x \in [0, 1] \). Encuentra cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Contestar
    1. \(\frac{3}{5}\)
    2. \(\frac{1}{25}\)
    3. \(-\frac{2}{7}\)
    4. \(\frac{33}{14}\)

    Supongamos que\( X \) tiene función de densidad de probabilidad\( f \) dada por\( f(x) = 12 x (1 - x)^2 \) for\( x \in [0, 1] \). Encuentra cada uno de los siguientes:

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Contestar
    1. \(\frac{2}{5}\)
    2. \(\frac{1}{25}\)
    3. \(\frac{2}{7}\)
    4. \(\frac{33}{14}\)

    Abra el simulador de distribución especial y seleccione la distribución beta. Seleccione los valores de los parámetros a continuación para obtener las distribuciones en los últimos tres ejercicios. En cada caso, anote la forma de la función de densidad de probabilidad en relación con los resultados de momento calculados. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    1. \( a = 2 \),\( b = 2 \)
    2. \( a = 3 \),\( b = 2 \)
    3. \( a = 2 \),\( b = 3 \)

    Supongamos que\(X\) tiene función de densidad de probabilidad\( f \) dada por\(f(x) = \frac{1}{\pi \sqrt{x (1 - x)}}\) for\(x \in (0, 1) \). Encuentra

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Contestar
    1. \(\frac{1}{2}\)
    2. \(\frac{1}{8}\)
    3. 0
    4. 96

    La distribución beta particular en el último ejercicio también se conoce como la distribución (estándar) del arcoseno. Gobierna la última vez que el proceso de movimiento browniano alcanza 0 durante el intervalo de tiempo\( [0, 1] \). La distribución del arcoseno se estudia en mayor generalidad en el capítulo sobre Distribuciones Especiales.

    Abre el experimento de movimiento browniano y selecciona el último cero. Anote la forma de la función de densidad de probabilidad en relación con los resultados de momento en el último ejercicio. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Contraejemplos

    El siguiente ejercicio da un ejemplo sencillo de una distribución discreta que no es simétrica sino que tiene asimetría 0.

    Supongamos que\( X \) es una variable aleatoria discreta con función de densidad de probabilidad\( f \) dada por\( f(-3) = \frac{1}{10} \),\( f(-1) = \frac{1}{2} \),\( f(2) = \frac{2}{5} \). Encuentra cada uno de los siguientes y luego muestra que la distribución de no\( X \) es simétrica.

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Contestar
    1. 0
    2. 3
    3. 0
    4. \( \frac{5}{3} \)

    El PDF claramente no\( f \) es simétrico alrededor de 0, y la media es el único punto de simetría posible.

    El siguiente ejercicio da una distribución continua más complicada que no es simétrica sino que tiene asimetría 0. Es una de una colección de distribuciones construidas por Erik Meijer.

    Supongamos que\( U \)\( V \),, y\( I \) son variables aleatorias independientes, y que normalmente\( U \) se distribuyen con media\( \mu = -2 \) y varianza\( \sigma^2 = 1 \),\( V \) se distribuyen normalmente con media\( \nu = 1 \) y varianza\( \tau^2 = 2 \), y\( I \) es una variable indicadora con \( \P(I = 1) = p = \frac{1}{3} \). Vamos\( X = I U + (1 - I) V \). Encuentra cada uno de los siguientes y luego muestra que la distribución de no\( X \) es simétrica.

    1. \( \E(X) \)
    2. \( \var(X) \)
    3. \( \skw(X) \)
    4. \( \kur(X) \)
    Solución

    La distribución de\( X \) es una mezcla de distribuciones normales. El PDF es\( f = p g + (1 - p) h \) donde\( g \) está el PDF normal de\( U \) y\( h \) es el PDF normal de\( V \). Sin embargo, lo mejor es trabajar con las variables aleatorias. For\( n \in \N_+ \), tenga en cuenta eso\( I^n = I \)\( (1 - I)^n = 1 - I \) y y tenga en cuenta también que la variable aleatoria\( I (1 - I) \) solo toma el valor 0. De ello se deduce que\[ X^n = I U^n + (1 - I) V^n, \quad n \in \N_+ \] Así que ahora, utilizando resultados estándar para la distribución normal,

    1. \( \E(X) = p \mu + (1 - p) \nu = 0 \).
    2. \( \var(X) = \E(X^2) = p (\sigma^2 + \mu^2) + (1 - p) (\tau^2 + \nu^2) = \frac{11}{3}\)
    3. \( \E(X^3) = p (3 \mu \sigma^2 + \mu^3) + (1 - p)(3 \nu \tau^2 + \nu^3) = 0 \)por lo\( \skw(X) = 0 \)
    4. \( \E(X^4) = p(3 \sigma^4 + 6 \sigma^2 \mu^2 + \mu^4) + (1 - p) (3 \tau^4 + 6 \tau^2 \nu^2 + \nu^4) = 31 \)por lo\( \kur(X) = \frac{279}{121} \approx 2.306 \)

    La gráfica del PDF\( f \) de\( X \) se da a continuación. Tenga en cuenta que no\( f \) es simétrico alrededor de 0. (Nuevamente, la media es el único punto de simetría posible).

    El PDF de\( X \)
    PDF

    This page titled 4.4: Asimetría y Curtosis is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.