Saltar al contenido principal
LibreTexts Español

5.10: La distribución del t estudiantil

  • Page ID
    151787
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)

    En esta sección estudiaremos una distribución que tiene especial importancia en la estadística. En particular, esta distribución surgirá en el estudio de una versión estandarizada de la media muestral cuando la distribución subyacente sea normal.

    Teoría Básica

    Definición

    Supongamos que\(Z\) tiene la distribución normal estándar,\(V\) tiene la distribución chi-cuadrada con\(n \in (0, \infty)\) grados de libertad, y eso\(Z\) y\(V\) son independientes. La variable aleatoria\[ T = \frac{Z}{\sqrt{V / n}} \] tiene la \(t\)distribución estudiantil con\(n\) grados de libertad.

    La\( t \) distribución estudiantil está bien definida para cualquiera\(n \gt 0\), pero en la práctica, solo los valores enteros positivos de\(n\) son de interés. Esta distribución fue estudiada por primera vez por William Gosset, quien publicó bajo el seudónimo de Student.

    Funciones de distribución

    Supongamos que\(T\) tiene la\( t \) distribución con\( n \in (0, \infty) \) grados de libertad. Luego\( T \) tiene una distribución continua\( \R \) con la función de densidad de probabilidad\(f\) dada por\[ f(t) = \frac{\Gamma[(n + 1) / 2]}{\sqrt{n \pi} \, \Gamma(n / 2)} \left( 1 + \frac{t^2}{n} \right)^{-(n + 1) / 2}, \quad t \in \R \]

    Prueba

    Para\( v \gt 0 \), la distribución condicional de\( T \) dado\( V = v \) es normal con media 0 y varianza\( n / v \). Por definición,\( V \) tiene la distribución chi-cuadrada con\( n \) grados de libertad. De ahí que el PDF conjunto de\( (T, V) \) es\[ g(t, v) = \sqrt{\frac{v}{2 \pi n}} e^{-v z^2 / 2 n} \frac{1}{2^{n/2} \Gamma(n/2)} v^{n/2-1} e^{-v/2} = \frac{1}{2^{(n+1)/2} \sqrt{n \pi} \, \Gamma(n/2)} v^{(n+1)/2 - 1} e^{-v(1 + t^2/n)/2}, \quad t \in \R, \, v \in (0, \infty) \] El PDF de\( T \) es\[ f(t) = \int_0^\infty g(t, v) \, dv = \frac{1}{2^{(n+1)/2} \sqrt{n \pi} \, \Gamma(n/2)} \int_0^\infty v^{(n+1)/2 - 1} e^{-v(1 + t^2/n)/2} \, dv, \quad t \in \R \] Excepto por la constante de normalización faltante, el integrando es el PDF gamma con parámetro de forma\( (n + 1)/2 \) y parámetro de escala\( 2 \big/ (1 + t^2/n) \). De ahí\[ f(t) = \frac{1}{2^{(n+1)/2} \sqrt{n \pi} \, \Gamma(n/2)} \Gamma\left[(n + 1)/2\right] \left(\frac{2}{1 + t^2/n}\right)^{(n+1)/2}, \quad t \in \R\] que Simplificar da el resultado.

    La prueba de este teorema proporciona una buena manera de pensar la\(t\) distribución: la distribución surge cuando la varianza de una distribución normal media 0 es aleatorizada de cierta manera.

    En el simulador de distribución especial, seleccione la\(t\) distribución del alumno. Varíe\(n\) y anote la forma de la función de densidad de probabilidad. Para valores seleccionados de\(n\), ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    La función de densidad de probabilidad de Student\( f \) con\( n \in (0, \infty) \) grados de libertad tiene las siguientes propiedades:

    1. \(f\)es simétrico sobre\(t = 0\).
    2. \(f\)aumenta y luego disminuye con el modo\(t = 0\).
    3. \(f\)es cóncavo hacia arriba, luego hacia abajo, luego hacia arriba nuevamente con puntos de inflexión en\( \pm \sqrt{n / (n + 1)}\).
    4. \(f(t) \to 0\)como\(t \to \infty\) y como\(t \to -\infty\).

    En particular, la distribución es unimodal con modo y mediana en\(t = 0\). Tenga en cuenta también que los puntos de inflexión convergen a\( \pm 1 \) as\( n \to \infty \).

    La función de distribución y la función cuantil de la\(t\) distribución general no tienen representaciones simples de forma cerrada. Los valores aproximados de estas funciones se pueden obtener de la calculadora de distribución especial y de la mayoría de los paquetes de software matemáticos y estadísticos.

    En la calculadora de distribución especial, seleccione la distribución del estudiante. Varíe el parámetro y anote la forma de las funciones de densidad de probabilidad, distribución y cuantiles. En cada uno de los siguientes casos, encuentra el primer y tercer cuartiles:

    1. \(n = 2\)
    2. \(n = 5\)
    3. \(n = 10\)
    4. \(n = 20\)

    Momentos

    Supongamos que\(T\) tiene una\(t\) distribución. La representación en la definición se puede utilizar para encontrar la media, varianza y otros momentos de\(T\). El punto principal a recordar en las pruebas que siguen es que ya\( V \) tiene la distribución chi-cuadrada con\( n \) grados de libertad,\( E\left(V^k\right) = \infty \) si\( k \le -\frac{n}{2} \), mientras que si\( k \gt -\frac{n}{2} \),\[ \E\left(V^k\right) = 2^k \frac{\Gamma(k + n / 2)}{\Gamma(n/2)} \]

    Supongamos que\(T\) tiene la\(t\) distribución con\(n \in (0, \infty)\) grados de libertad. Entonces

    1. \(\E(T)\)no está definido si\(0 \lt n \le 1\)
    2. \(\E(T) = 0\)si\(1 \lt n \lt \infty\)
    Prueba

    Por independencia,\( \E(T) = \sqrt{n} \E\left(V^{-1/2}\right) \E(Z) \). Por supuesto\( \E(Z) = 0\). Por otro lado,\( \E\left(V^{-1/2}\right) = \infty \) si\( n \le 1 \) y\( \E\left(V^{-1/2}\right) \lt \infty \) si\( n \gt 1 \).

    Supongamos de nuevo que\(T\) tiene la\(t\) distribución con\(n \in (0, \infty)\) grados de libertad entonces

    1. \(\var(T)\)no está definido si\(0 \lt n \le 1\)
    2. \(\var(T) = \infty\)si\(1 \lt n \le 2\)
    3. \(\var(T) = \frac{n}{n - 2}\)si\(2 \lt n \lt \infty\)
    Prueba

    Por independencia,\( \E\left(T^2\right) = n \E\left(Z^2\right) \E\left(V^{-1}\right) \). Por supuesto\( \E\left(Z^2\right) = 1 \). Por otro lado,\( \E\left(V^{-1}\right) = \infty \) si\( n \le 2 \) y\( \E\left(V^{-1}\right) = 1 \big/ (n - 2) \) si\( n \gt 2 \). Los resultados ahora siguen del resultado anterior sobre la media.

    Tenga en cuenta que\(\var(T) \to 1\) como\(n \to \infty\).

    En la simulación del simulador de distribución especial, seleccione la\(t\) distribución del alumno. \(n\)Varía y anote la ubicación y forma de la barra de desviación\( \pm \) estándar media. Para los valores seleccionados de\(n\), ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

    A continuación damos los momentos generales de la\( t \) distribución.

    Supongamos nuevamente que\(T\) tiene la\(t\) distribución con\(n \in (0, \infty)\) grados de libertad y\( k \in \N \). Entonces

    1. \(\E\left(T^k\right)\)está indefinido si\(k\) es impar y\(k \ge n\)
    2. \(\E\left(T^k\right) = \infty\)si\(k\) es par y\(k \ge n\)
    3. \(\E\left(T^k\right) = 0\)si\(k\) es impar y\(k \lt n\)
    4. Si\(k\) es par y\(k \lt n\) entonces\[ \E\left(T^k\right) = \frac{n^{k/2} 1 \cdot 3 \cdots (k - 1) \Gamma\left((n - k) \big/ 2\right)}{2^{k/2} \Gamma(n/2)} = \frac{n^{k/2} k! \Gamma\left((n - k)\big/2\right)}{2^k (k/2)! \Gamma(n/2)} \]
    Prueba

    Por independencia,\( \E\left(T^k\right) = n^{k/2} \E\left(Z^k\right) \E\left(V^{-k/2}\right) \). Recordemos que\( \E\left(Z^k\right) = 0 \) si\( k \) es impar, mientras que\[ \E\left(Z^k\right) = 1 \cdot 3 \cdots (k - 1) = \frac{k!}{(k/2)! 2^{k/2}} \] si\( k \) es par. También,\( \E\left(V^{-k/2}\right) = \infty \) si\( k \ge n \), mientras que\[ \E\left(V^{-k/2}\right) = \frac{2^{-k/2} \Gamma\left((n - k) \big/ 2\right)}{\Gamma(n/2)} \] si\( k \lt n \). Los resultados ahora siguen considerando los diversos casos.

    A partir de los momentos generales, podemos calcular la asimetría y curtosis de\( T \).

    Supongamos nuevamente que\( T \) tiene la\( t \) distribución con\( n \in (0, \infty) \) grados de libertad. Entonces

    1. \( \skw(T) = 0 \)si\( n \gt 3 \)
    2. \( \kur(T) = 3 + \frac{6}{n - 4} \)si\( n \gt 4 \)
    Prueba
    1. Esto se desprende de la simetría de la distribución de\( T \), aunque\( \skw(T) \) sólo existe si\( \E\left(T^3\right) \) existe.
    2. Para\( n \gt 4 \),\[ \kur(T) = \frac{\E(T^4)}{\left[\E\left(T^2\right)\right]^2} = \frac{3 n^2 \Gamma\left[(n - 4) / 2\right] \big/ 4 \Gamma(n/2)}{\left(n \big/ (n - 2) \right)^2} = \frac{3 (n - 2)^2 \Gamma\left[(n - 4) / 2\right]}{4 \Gamma(n/2)}\] Pero\( \Gamma(n/2) = (n/2 - 1) (n/2 - 2) \Gamma(n/2 - 2) \). Simplificar da el resultado.

    Tenga en cuenta que\( \kur(T) \to 3 \) como\( n \to \infty \) y por lo tanto el exceso de curtosis\( \kur(T) - 3 \to 0 \) como\( n \to \infty \).

    En el simulador de distribución especial, seleccione la\(t\) distribución del alumno. Varíe\(n\) y anote la forma de la función de densidad de probabilidad a la luz de los resultados previos sobre asimetría y curtosis. Para valores seleccionados de\(n\), ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.

    Dado que\( T \) no tiene momentos de todos los órdenes, no hay intervalo alrededor de 0 en el que la función generadora de momento de\( T \) sea finita. La función característica existe, por supuesto, pero no tiene una representación simple, excepto en términos de funciones especiales.

    Relaciones

    La\(t\) distribución con 1 grado de libertad se conoce como la distribución de Cauchy. La función de densidad de probabilidad es\[ f(t) = \frac{1}{\pi (1 + t^2)}, \quad t \in \R \]

    La distribución de Cauchy lleva el nombre de Augustin Cauchy y se estudia con más detalle en una sección separada.

    Probablemente notó que, al menos cualitativamente, la función de densidad de\(t\) probabilidad es muy similar a la función de densidad de probabilidad normal estándar. La similitud también es cuantitativa:

    Dejar\( f_n \) denotar la función de densidad de\( t \) probabilidad con\( n \in (0, \infty) \) grados de libertad. Luego para fijo\(t \in \R\),\[ f_n(t) \to \frac{1}{\sqrt{2 \pi}} e^{-\frac{1}{2} t^2} \text{ as } n \to \infty \]

    Prueba

    A partir de un teorema de límite básico en el cálculo,\[ \left( 1 + \frac{t^2}{n} \right)^{-(n + 1) / 2} \to e^{-t^2/2} \text{ as } n \to \infty \] Una aplicación de la aproximación de Stirling muestra que\[ \frac{\Gamma[(n + 1) / 2]}{\sqrt{n \pi} \, \Gamma(n / 2)} \to \frac{1}{\sqrt{2 \pi}} \text{ as } n \to \infty \]

    Tenga en cuenta que la función de la derecha es la función de densidad de probabilidad de la distribución normal estándar. También podemos obtener convergencia de la\( t \) distribución a la distribución normal estándar a partir de la representación básica de la variable aleatoria en la definición.

    Supongamos que\( T_n \) tiene la\( t \) distribución con\( n \in \N_+ \) grados de libertad, para que podamos representar\( T_n \) como\[ T_n = \frac{Z}{\sqrt{V_n / n}} \] donde\( Z \) tiene la distribución normal estándar,\( V_n \) tiene la distribución chi-cuadrada con\( n \) grados de libertad,\( Z \) y \( V_n \)son independientes. Entonces\( T_n \to Z \) como\( n \to \infty \) con probabilidad 1.

    Prueba

    Podemos representar\( V_n \) como\( V_n = Z_1^2 + Z_2^2 + \cdots Z_n^2 \) donde\( (Z_1, Z_2, \ldots, Z_n) \) son independientes, variables normales estándar, independientes de\( Z \). Tenga en cuenta que al\(V_n / n \to 1\) igual que\(n \to \infty\) con la probabilidad 1 por la fuerte ley de los números grandes.

    La\(t\) distribución tiene más probabilidad en las colas, y en consecuencia menor probabilidad cerca de 0, en comparación con la distribución normal estándar.

    La\( t \) distribución no central

    Una forma natural de generalizar la\( t \) distribución estudiantil es reemplazar la variable normal estándar\( Z \) en la definición anterior por una variable normal que tenga una media arbitraria (pero aún varianza unitaria). La razón por la que esta generalización particular es importante es porque surge en pruebas de hipótesis sobre la media basada en una muestra aleatoria de la distribución normal, cuando la hipótesis nula es falsa. Para más detalles ver las secciones sobre pruebas en el modelo normal y pruebas en el modelo normal bivariado en el capítulo sobre Pruebas de Hipótesis.

    Supongamos que\(Z\) tiene la distribución normal estándar\( \mu \in \R \),,\(V\) tiene la distribución chi-cuadrada con\(n \in (0, \infty)\) grados de libertad, y eso\(Z\) y\(V\) son independientes. La variable aleatoria\[ T = \frac{Z + \mu}{\sqrt{V / n}} \] tiene la \(t\)distribución estudiantil no central con\(n\) grados de libertad y parámetro de no centralidad\( \mu \).

    Las funciones estándar que caracterizan una distribución —la función de densidad de probabilidad, la función de distribución y la función cuantil— no tienen representaciones simples para la\( t \) distribución no central, sino que solo pueden expresarse en términos de otras funciones especiales. De igual manera, los momentos tampoco tienen expresiones de forma simples y cerradas. Para el estudiante principiante de estadística, el hecho más importante es que la función de densidad de probabilidad de la\( t \) distribución no central es similar (pero no exactamente la misma) que la de la\( t \) distribución estándar (con los mismos grados de libertad), pero desplazada y escalada. La función de densidad se desplaza hacia la derecha o hacia la izquierda, dependiendo de si\( \mu \gt 0 \) o\( \mu \lt 0 \).

    Ejercicios Computacionales

    Supongamos que\(T\) tiene la\(t\) distribución con\(n = 10\) grados de libertad. Para cada una de las siguientes, compute el valor verdadero usando la calculadora de distribución especial y luego compute la aproximación normal. Compara los resultados.

    1. \(\P(-0.8 \lt T \lt 1.2)\)
    2. El percentil 90 de\(T\).
    Contestar
    1. \(\P(-0.8 \lt T \lt 1.2) = 0.650\),\(\P(-0.8 \lt T \lt 1.2) \approx 0.673\)
    2. \(x_{0.90} = 1.372\),\(x_{0.90} \approx 1.281\)

    This page titled 5.10: La distribución del t estudiantil is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.