Saltar al contenido principal
LibreTexts Español

6.2: Prueba t de una muestra — Una nueva prueba t

  • Page ID
    150346
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Ahora estamos listos para hablar de la prueba t. Hablaremos de tres de ellos. Comenzamos con la prueba t de una muestra.

    Comúnmente, la prueba t de una muestra se utiliza para estimar las posibilidades de que su muestra provenga de una población en particular. Específicamente, es posible que desee saber si la media que encontró de su muestra, podría haber provenido de una población en particular que tiene una media particular.

    De inmediato, la prueba t de una muestra se vuelve un poco confusa (y aún no la he descrito). Oficialmente, utiliza parámetros conocidos de la población, como la media de la población y la desviación estándar de la población. Sin embargo, ¡la mayoría de las veces no conoces esos parámetros de la población! Entonces, tienes que estimarlos a partir de tu muestra. Recuerde de los capítulos sobre estadística descriptiva y muestreo, nuestra media muestral es una estimación imparcial de la media poblacional. Y, nuestra desviación estándar muestral (aquella en la que dividimos por n-1) es una estimación imparcial de la desviación estándar de la población. Cuando Gosset desarrolló la prueba t, reconoció que podía utilizar estas estimaciones de sus muestras, para hacer la prueba t. Aquí está la fórmula para la prueba t de una muestra, primero usamos palabras y luego nos volvemos más específicos:

     

    Fórmulas para la prueba t de una muestra

    \[\text{name of statistic} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    \[\text{t} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    \[\text{t} = \frac{\text{Mean difference}}{\text{standard error}} \nonumber \]

    \[\text{t} = \frac{\bar{X}-u}{S_{\bar{X}}} \nonumber \]

    \[\text{t} = \frac{\text{Sample Mean - Population Mean}}{\text{Sample Standard Error}} \nonumber \]

    \[\text{Estimated Standard Error} = \text{Standard Error of Sample} = \frac{s}{\sqrt{N}} \nonumber \]

    Donde,\(s\) es la desviación estándar de la muestra.

    Algunos de ustedes pueden haberse vuelto con los ojos cruzados mirando todo esto. Recuerda, lo hemos visto antes cuando dividimos nuestra media por la desviación estándar en el primer bit. La prueba t es solo una medida de una media muestral, dividida por el error estándar de la media muestral. Eso es.

     

    ¿Qué representa t?

    \(t\)nos da una medida de confianza, al igual que nuestra relación anterior para dividir la media por desviaciones estándar. La única diferencia con\(t\), es que dividimos por el error estándar de media (recuerde, esto también es una desviación estándar, es la desviación estándar de la distribución muestral de la media)

    Nota

    ¿Qué significa la prueba t en t? Al parecer nada. Gosset originalmente lo etiquetó z. Y, Fisher luego lo llamó t, tal vez porque t viene después de s, que a menudo se usa para la desviación estándar de la muestra.

    \(t\)es propiedad de los datos que usted recopila. La computas con una media muestral y un error estándar muestral (hay una cosa más en la fórmula de una muestra, la media poblacional, a la que llegamos en un momento). Es por ello que llamamos\(t\), una muestra-estadística. Es una estadística que calculamos a partir de la muestra.

    ¿Qué tipo de números debemos esperar encontrar para estos\(ts\)? ¿Cómo podríamos entenderlo?

    Empecemos poco a poco y trabajemos a través de algunos ejemplos. Imagina que tu media muestral es 5. Se quiere saber si vino de una población que también tiene una media de 5. En este caso, ¿qué\(t\) sería? Sería cero: primero restamos la media muestral de la media poblacional,\(5-5=0\). Debido a que el numerador es 0,\(t\) será cero. Entonces,\(t\) = 0, ocurre, cuando no hay diferencia.

    Digamos que tomas otra muestra, crees que la media será de 5 cada vez, probablemente no. Digamos que la media es 6. Entonces, ¿qué puede\(t\) haber aquí? Será un número positivo, porque\(6-5= +1\). Pero, ¿\(t\)será +1? Eso depende del error estándar de la muestra. Si el error estándar de la muestra es 1, entonces\(t\) podría ser 1, porque\(1/1 = 1\).

    Si el error estándar de la muestra es menor que 1, ¿qué sucede con\(t\)? Se pone más grande, ¿verdad? Por ejemplo, 1 dividido por\(0.5 = 2\). Si el error estándar de la muestra fuera de 0.5,\(t\) sería 2. Y, ¿qué podríamos hacer con esta información? Bueno, sea como una medida de confianza. Como\(t\) get es más grande, podríamos tener más confianza en la diferencia de medias que estamos midiendo.

    ¿Puede\(t\) ser menor que 1? Claro, puede. Si el error estándar de la muestra es grande, digamos como 2, entonces\(t\) será menor que uno (en nuestro caso), por ejemplo,\(1/2 = .5\). La dirección de la diferencia entre la media muestral y la media poblacional, también puede hacer que se\(t\) vuelva negativa. ¿Y si la media de nuestra muestra fuera de 4. Bueno, entonces\(t\) será negativo, porque la diferencia media en el numerador será negativa, y el número en la parte inferior (denominador) siempre será positivo (recuerda por qué, es el error estándar, calculado a partir de la desviación estándar de la muestra, que siempre es positiva por la cuadratura que nos lo hizo.).

    Entonces, esas son algunas intuiciones sobre cuáles son los tipos de valores que puede tomar. \(t\)puede ser positivo o negativo, y grande o pequeño.

    Hagamos una cosa más para construir nuestras intuiciones sobre cómo\(t\) puede verse. ¿Qué tal si muestreamos algunos números y luego medimos la media de la muestra y el error estándar de la media, y luego trazamos esas dos cosas contra cada una de ellas? Esto nos mostrará cómo suele variar una media muestral con respecto al error estándar de la media.

    En la siguiente figura, saqué 1,000 muestras de N=10 de una distribución normal (media = 0, sd = 1). Cada vez medí la media y el error estándar de la muestra. Eso dio dos estadísticas descriptivas para cada muestra, permitiéndonos trazar cada muestra como punto en una gráfica de dispersión

    library(ggplot2)
    sample_mean<-length(1000)
    sample_se<-length(1000)
    for(i in 1:1000){
      s<-rnorm(10,0,1)
      sample_mean[i]<-mean(s)
      sample_se[i]<-sd(s)/sqrt(length(s))
    }
    plot(sample_mean,sample_se)
    Figura\(\PageIndex{1}\): Un diagrama de dispersión con media muestral en el eje x y error estándar de la media en el eje y.

    Lo que obtenemos es una nube de puntos. Podría notar que la nube tiene una calidad circular. Hay más puntos en el medio, y menos puntos a medida que irradian desde el medio. La nube de puntos nos muestra el rango general de la media muestral, por ejemplo la mayoría de los puntos están entre -1 y 1. Del mismo modo, el rango para el error estándar de la muestra es aproximadamente entre .2 y .5. Recuerda, cada punto representa una muestra.

    Podemos mirar los mismos datos de una manera diferente. Por ejemplo, en lugar de usar una gráfica de dispersión, podemos dividir la media para cada punto, por el error estándar para cada punto. A continuación se muestra un histograma que muestra cómo se ve esto:

    sample_mean<-length(1000)
    sample_se<-length(1000)
    for(i in 1:1000){
      s<-rnorm(10,0,1)
      sample_mean[i]<-mean(s)
      sample_se[i]<-sd(s)/sqrt(length(s))
    }
    hist(sample_mean/sample_se, breaks=30)
    Figura\(\PageIndex{2}\): Un histograma de las medias muestrales dividido por los errores estándar de la muestra, esta es una distribución t.

    Interesante, podemos ver que el histograma tiene la forma de una curva normal. Se centra en 0, que es el valor más común. A medida que los valores se vuelven más extremos, se vuelven menos comunes. Si recuerdas, nuestra fórmula para\(t\), fue la media dividida por el error estándar de la media. Eso es lo que hicimos aquí. Este histograma te está mostrando una\(t\) -distribución.

     

    Calcular t a partir de datos

    Calculemos brevemente un valor t a partir de una muestra pequeña. Digamos que hicimos que 10 alumnos hicieran un cuestionario de verdadero/falso con 5 preguntas al respecto. Hay un 50% de probabilidad de que cada respuesta sea correcta.

    Cada alumno completa las 5 preguntas, las calificamos, y luego encontramos su desempeño (media por ciento correcta). Lo que queremos saber es si los alumnos estaban adivinando. Si todos estaban adivinando, entonces la media de la muestra debería ser de aproximadamente 50%, no debería ser diferente al azar, que es 50%. Echemos un vistazo a la mesa:

    suppressPackageStartupMessages(library(dplyr))
    students <- 1:10
    scores <- c(50,70,60,40,80,30,90,60,70,60)
    mean_scores <- mean(scores)
    Difference_from_Mean <- scores-mean_scores
    Squared_Deviations <- Difference_from_Mean^2
    the_df<-data.frame(students,
                       scores,
                       mean=rep(mean_scores,10),
                       Difference_from_Mean,
                       Squared_Deviations)
    the_df <- the_df %>%
      rbind(c("Sums",colSums(the_df[1:10,2:5]))) %>%
      rbind(c("Means",colMeans(the_df[1:10,2:5]))) %>%
      rbind(c(" "," "," ","sd ",round(sd(the_df[1:10,2]),digits=2))) %>%
      rbind(c(" "," "," ","SEM ",round(sd(the_df[1:10,2])/sqrt(10), digits=2))) %>%
      rbind(c(" "," "," ","t",(61-50)/round(sd(the_df[1:10,2])/sqrt(10), digits=2)))
    knitr::kable(the_df)
    |students |scores |mean |Difference_from_Mean |Squared_Deviations |
    |:--------|:------|:----|:--------------------|:------------------|
    |1        |50     |61   |-11                  |121                |
    |2        |70     |61   |9                    |81                 |
    |3        |60     |61   |-1                   |1                  |
    |4        |40     |61   |-21                  |441                |
    |5        |80     |61   |19                   |361                |
    |6        |30     |61   |-31                  |961                |
    |7        |90     |61   |29                   |841                |
    |8        |60     |61   |-1                   |1                  |
    |9        |70     |61   |9                    |81                 |
    |10       |60     |61   |-1                   |1                  |
    |Sums     |610    |610  |0                    |2890               |
    |Means    |61     |61   |0                    |289                |
    |         |       |     |sd                   |17.92              |
    |         |       |     |SEM                  |5.67               |
    |         |       |     |t                    |1.94003527336861   |

    Puedes ver que la columna de puntuaciones tiene todos los puntajes de las pruebas para cada uno de los 10 alumnos. Hicimos las cosas que teníamos que hacer para calcular la desviación estándar.

    Recuerde que la desviación estándar de la muestra es la raíz cuadrada de la varianza de la muestra, o:

    \[\text{sample standard deviation} = \sqrt{\frac{\sum_{i}^{n}({x_{i}-\bar{x})^2}}{N-1}} \nonumber \]

    \[\text{sd} = \sqrt{\frac{2890}{10-1}} = 17.92 \nonumber \]

    El error estándar de la media, es la desviación estándar dividida por la raíz cuadrada de N

    \[\text{SEM} = \frac{s}{\sqrt{N}} = \frac{17.92}{10} = 5.67 \nonumber \]

    \(t\)es la diferencia entre la media de nuestra muestra (61) y la media de nuestra población (50, asumiendo el azar), dividida por el error estándar de la media.

    \[\text{t} = \frac{\bar{X}-u}{S_{\bar{X}}} = \frac{\bar{X}-u}{SEM} = \frac{61-50}{5.67} = 1.94 \nonumber \]

    Y, así es como se calcula\(t\), a mano. Es un dolor. Me molestó hacerlo de esta manera. En el laboratorio, aprendes a calcular\(t\) usando software, por lo que simplemente escupirá\(t\). Por ejemplo en R, todo lo que tienes que hacer es esto:

    scores <- c(50,70,60,40,80,30,90,60,70,60)
    t.test(scores, mu=50)
    	One Sample t-test
    
    data:  scores
    t = 1.9412, df = 9, p-value = 0.08415
    alternative hypothesis: true mean is not equal to 50
    95 percent confidence interval:
     48.18111 73.81889
    sample estimates:
    mean of x 
           61 
    

     

    ¿Cómo se comporta t?

    Si\(t\) es solo un número que podemos calcular a partir de nuestra muestra (es), ¿qué podemos hacer con él? ¿Cómo podemos utilizar\(t\) para la inferencia estadística?

    Recuerde volver al capítulo sobre muestreo y distribuciones, ahí es donde discutimos la distribución muestral de la media muestral. Recuerde, hicimos muchas muestras, luego computamos la media para cada muestra, luego trazamos un histograma de las medias de la muestra. Posteriormente, en esa misma sección, mencionamos que podríamos generar distribuciones de muestreo para cualquier estadística. Para cada muestra, podríamos calcular la media, la desviación estándar, el error estándar, y ahora incluso\(t\), si quisiéramos. Podríamos generar 10,000 muestras y dibujar cuatro histogramas, uno para cada distribución muestral para cada estadística.

    Esto es exactamente lo que hice, y los resultados se muestran en las cuatro cifras que aparecen a continuación. Utilizé un tamaño de muestra de 20, y dibujé observaciones aleatorias para cada muestra a partir de una distribución normal, con media = 0, y desviación estándar = 1. Veamos las distribuciones de muestreo para cada una de las estadísticas. \(t\)se computó asumiendo que con la media poblacional se suponía que era 0.

    Distribuciones de muestreo para la media, desviación estándar, error estándar de la media y t.
    Figura\(\PageIndex{3}\): Distribuciones de muestreo para la media, desviación estándar, error estándar de la media y t.

    Vemos cuatro distribuciones de muestreo. Es así como se comportan los resúmenes estadísticos de estos resúmenes. Hemos usado la palabra ventanas de oportunidad antes. Se trata de cuatro ventanas de oportunidad, que miden diferentes aspectos de la muestra. En este caso, todas las muestras procedían de la misma distribución normal. Debido al error de muestreo, cada muestra no es idéntica. Las medias no son idénticas, las desviaciones estándar no son idénticas, el error estándar muestral de las medias no son idénticas, y las\(t\) s de las muestras no son idénticas. Todos ellos tienen alguna variación, como lo muestran los histogramas. Así se comportan las muestras de talla 20.

    Podemos ver de inmediato, que en este caso, es poco probable que obtengamos una media muestral de 2. Eso está fuera de la ventana. El rango para la distribución muestral de la media es de alrededor de -.5 a +.5, y se centra en 0 (la media poblacional, ¡creería usted!).

    Es poco probable que obtengamos desviaciones estándar de la muestra de entre .6 y 1.5, es decir, un rango diferente, específico a la desviación estándar de la muestra.

    Lo mismo con el error estándar muestral de la media, el rango aquí es aún menor, principalmente entre .1, y .3. Rara vez encontraría una muestra con un error estándar de la media mayor que .3. Prácticamente nunca encontrarías uno de digamos 1 (para esta situación).

    Ahora, miren\(t\). Su rango es básicamente entre -3 y +3 aquí. 3s apenas pasan en absoluto. Casi nunca ves un 5 o -5 en esta situación.

    Todas estas ventanas de muestreo son ventanas de oportunidad, y todas se pueden usar de la misma manera que hemos usado distribuciones de muestreo similares antes (por ejemplo, Crump Test y Randomization Test) para inferencia estadística. Para todos ellos seguiríamos el mismo proceso:

    1. Generar estas distribuciones
    2. Mira tus estadísticas de muestra para los datos que tienes (media, SD, SEM y\(t\))
    3. Encontrar la probabilidad de obtener ese valor o mayor
    4. Obtener esa probabilidad
    5. Ve si crees que tus estadísticas de muestra fueron probables o improbables.

    Vamos a formalizar esto en un segundo. Sólo quiero que sepas que lo que vas a hacer es algo que ya has hecho antes. Por ejemplo, en la prueba Crump y la prueba de aleatorización nos enfocamos en la distribución de las diferencias de medias. Podríamos volver a hacer eso aquí, pero en cambio, nos centraremos en la distribución de\(t\) valores. Luego aplicamos el mismo tipo de reglas de decisión a la\(t\) distribución, como hicimos para las otras distribuciones. A continuación verás una gráfica que ya has visto, excepto que esta vez es una distribución de\(t\) s, no diferencias de medias:

    Recuerde, si obtuvimos una sola\(t\) de una muestra que recolectamos, podríamos consultar esta ventana de oportunidad a continuación para averiguar\(t\) que lo que obtuvimos de la muestra era probable o poco probable que ocurriera por casualidad.

    library(ggplot2)
    options(warn=-1)
    all_df<-data.frame()
    for(i in 1:10000){
      sample<-rnorm(20,0,1)
      sample_mean<-mean(sample)
      sample_sd<-sd(sample)
      sample_se<-sd(sample)/sqrt(length(sample))
      sample_t<-as.numeric(t.test(sample, mu=0)$statistic)
      t_df<-data.frame(i,sample_mean,sample_sd,sample_se,sample_t)
      all_df<-rbind(all_df,t_df)
    }
    sample_t<-all_df$sample_t
    ggplot(all_df,aes(x=sample_t))+
      annotate("rect", xmin=min(sample_t), xmax=max(sample_t), ymin=0,
               ymax=Inf, alpha=0.5, fill="red") +
      annotate("rect", xmin=min(sample_t), xmax=-1.94, ymin=0,
               ymax=Inf, alpha=0.7, fill="light grey") +
      annotate("rect", xmin=1.94, xmax=max(sample_t), ymin=0,
               ymax=Inf, alpha=0.7, fill="light grey") +
      geom_rect(aes(xmin=-Inf, xmax=min(sample_t), ymin=0,
                    ymax=Inf), alpha=.5, fill="lightgreen")+
      geom_rect(aes(xmin=max(sample_t), xmax=Inf, ymin=0,
                    ymax=Inf), alpha=.5, fill="lightgreen")+
      geom_histogram(bins=50, color="white")+
      theme_classic()+
      geom_vline(xintercept = min(sample_t))+
      geom_vline(xintercept = max(sample_t))+
       geom_vline(xintercept = -1.94)+
      geom_vline(xintercept = 1.94)+
      ggtitle("Histogram of mean sample_ts between two samples (n=20) \n
              both drawn from the same normal distribution (u=0, sd=1)")+
       xlim(-8,8)+
      geom_label(data = data.frame(x = 0, y = 250, label = "CHANCE"),
                 aes(x = x, y = y, label = label))+
      geom_label(data = data.frame(x = -7, y = 250, label = "NOT \n CHANCE"),
                 aes(x = x, y = y, label = label))+
      geom_label(data = data.frame(x = 7, y = 250, label = "NOT \n CHANCE"),
                 aes(x = x, y = y, label = label))+
    #  geom_label(data = data.frame(x = min(sample_t), y = 600,
     #                              label = paste0("min \n",round(min(sample_t)))),
      #                             aes(x = x, y = y, label = label))+
       #geom_label(data = data.frame(x = max(sample_t), y = 600,
       #                            label = paste0("max \n",round(max(sample_t)))),
        #                           aes(x = x, y = y, label = label))+
      geom_label(data = data.frame(x = -4, y = 250,
                                   label = "?"),
                                   aes(x = x, y = y, label = label))+
       geom_label(data = data.frame(x = 4, y = 250,
                                   label = "?"),
                                   aes(x = x, y = y, label = label))+
      xlab("mean sample_t")
    Figura\(\PageIndex{4}\): Aplicando criterios de decisión a la distribución t.

     

    Tomar una decisión

    De nuestro ejemplo temprano que involucra los cuestionarios VERDADO/FALSO, ahora estamos listos para tomar algún tipo de decisión sobre lo que sucedió allí. Encontramos una diferencia media de

    scores <- c(50,70,60,40,80,30,90,60,70,60)
    mean(scores)-50
    11

    . Encontramos a\(t\) =

    scores <- c(50,70,60,40,80,30,90,60,70,60)
    t.test(scores, mu=50)$statistic
    t: 1.94117647058824

    . La probabilidad de que esto\(t\) o mayor ocurra es\(p\) =

    scores <- c(50,70,60,40,80,30,90,60,70,60)
    t.test(scores, mu=50)$p.value
    0.0841503080536893

    . Estábamos probando la idea de que nuestra muestra media de

    scores <- c(50,70,60,40,80,30,90,60,70,60)
    mean(scores)
    61

    podría haber provenido de una distribución normal con media = 50. La\(t\) prueba nos dice que el\(t\) para nuestra muestra, o una mayor, ocurriría con p = 0.0841503. En otras palabras, el azar puede hacerlo una especie de pequeña cantidad de tiempo, pero no a menudo. En inglés, esto significa que todos los estudiantes podrían haber estado adivinando, pero no era tan probable que solo estuvieran adivinando.

    Estamos adivinando que todavía estás un poco confundido acerca de\(t\) los valores, y lo que estamos haciendo aquí. Vamos a saltar adelante a la siguiente\(t\) -prueba, llamada prueba t de muestras pareadas. También rellenaremos algunas cosas más sobre\(t\) -pruebas que son más obvias a la hora de discutir muestras pareadas prueba t. De hecho, alerta de spoiler, descubriremos que una prueba t de muestras pareadas es en realidad una prueba t de una muestra disfrazada (¡QUÉ!) , sí lo es. Si la\(t\) prueba de una muestra no tenía sentido para ti, lee la siguiente sección.


    This page titled 6.2: Prueba t de una muestra — Una nueva prueba t is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.