4.1: Prueba T de una muestra
- Page ID
- 149120
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Objetivos de aprendizaje
- Utilice la\(t\) prueba de Student para una muestra cuando tenga una variable de medición y una expectativa teórica de cuál debe ser la media bajo la hipótesis nula. Se prueba si la media de la variable de medición es diferente de la expectativa nula.
Existen varias pruebas estadísticas que utilizan la\(t\) distribución y se pueden llamar prueba\(t\) -. Una es la\(t\) prueba de Student para una muestra, que lleva el nombre de “Student”, el seudónimo que William Gosset usó para ocultar su empleo en la cervecería Guinness a principios del siglo XX (tenían una regla de que a sus empleados no se les permitía publicar, y Guinness no quería que otros empleados supieran eso estaban haciendo una excepción para Gosset). Student\(t\) - prueba para una muestra compara una muestra con una media teórica. Tiene tan pocos usos en biología que no lo cubrí en ediciones anteriores de este Manual, pero luego recientemente me encontré usándolo (McDonald y Dunn 2013), así que aquí está.
Cuándo usarlo
Utilice la\(t\) prueba de Student cuando tenga una variable de medición y desee comparar el valor medio de la variable de medición con alguna expectativa teórica. Se usa comúnmente en campos como la física (has hecho varias observaciones de la masa de una nueva partícula subatómica, ¿la media se ajusta a la masa predicha por el Modelo Estándar de la física de partículas?) y pruebas de producto (ha medido la cantidad de medicamento en varias alícuotas de un nuevo lote, ¿la media del nuevo lote es significativamente menor que el estándar que ha establecido para ese medicamento?). Es raro tener este tipo de expectativa teórica en biología, por lo que probablemente nunca uses la\(t\) prueba de una muestra.
Me ha costado encontrar un ejemplo biológico real de una\(t\) prueba de una muestra, así que imagina que estás estudiando el sentido de la posición conjunta, nuestra capacidad de saber en qué posición se encuentran nuestras articulaciones sin mirarlas ni tocarlas. Quieres saber si las personas sobreestiman o subestiman su ángulo de rodilla. Le vendas los ojos a\(10\) los voluntarios, flexionas la rodilla en\(120^{\circ}\) ángulo durante unos segundos, luego devuelves la rodilla a un\(90^{\circ}\) ángulo. Entonces le pides a cada persona que doble la rodilla en\(120^{\circ}\) ángulo. La variable de medición es el ángulo de la rodilla, y la expectativa teórica de la hipótesis nula es\(120^{\circ}\). Obtienes los siguientes datos imaginarios:
Individuales | Ángulo |
---|---|
A | 120.6 |
B | 116.4 |
C | 117.2 |
D | 118.1 |
E | 114.1 |
F | 116.9 |
G | 113.3 |
H | 121.1 |
I | 116.9 |
J | 117.0 |
Si la hipótesis nula fuera cierta de que las personas no sobreestiman o subestiman su ángulo de rodilla, la media de estos\(10\) números sería\(120\). La media de estos diez números es\(117.2\); la\(t\) prueba de una muestra le dirá si eso es significativamente diferente de\(120\).
Hipótesis nula
La hipótesis estadística nula es que la media de la variable de medición es igual a un número que decidiste antes de hacer el experimento. Para el ejemplo de rodilla, la hipótesis biológica nula es que las personas no subestiman o sobreestiman su ángulo de rodilla. Decidiste mover las rodillas a la gente\(120^{\circ}\), así que la hipótesis estadística nula es que el ángulo medio de las rodillas de los sujetos será\(120^{\circ}\).
Cómo funciona la prueba
Calcular el estadístico de prueba,\(t_s\), usando esta fórmula:
\[t_s=\frac{(\bar{x}-\mu _\theta )}{(s/\sqrt{n})}\]
donde\(\bar{x}\) está la media de la muestra,\(\mu\) es la media esperada bajo la hipótesis nula,\(s\) es la desviación estándar de la muestra y\(n\) es el tamaño de la muestra. El estadístico de prueba,\(t_s\), aumenta a medida que aumenta la diferencia entre las medias observadas y esperadas, a medida que la desviación estándar se hace más pequeña, o a medida que el tamaño de la muestra aumenta.
La aplicación de esta fórmula a los datos imaginarios de la posición de la rodilla da un\(t\) -valor de\(-3.69\).
Se calcula la probabilidad de obtener el\(t_s\) valor observado bajo la hipótesis nula usando la distribución t. La forma de la\(t\) -distribución, y por lo tanto la probabilidad de obtener un\(t_s\) valor particular, depende del número de grados de libertad. Los grados de libertad para una\(t\) prueba de una muestra es el número total de observaciones en el grupo menos\(1\). Para nuestros datos de ejemplo, el\(P\) valor para un\(t\) -valor de\(-3.69\) con\(9\) grados de libertad es\(0.005\), por lo que rechazaría la hipótesis nula y concluiría que las personas devuelven su rodilla a un ángulo significativamente menor que la posición original.
Supuestos
La prueba\(t\) - supone que las observaciones dentro de cada grupo se distribuyen normalmente. Si la distribución es simétrica, como una distribución plana o bimodal, la prueba de una muestra\(t\) no es en absoluto sensible a la no normalidad; obtendrá estimaciones precisas del\(P\) valor, incluso con tamaños de muestra pequeños. Una distribución severamente sesgada puede darte demasiados falsos positivos a menos que el tamaño de la muestra sea grande (más\(50\) o menos). Si tus datos están severamente sesgados y tienes un tamaño de muestra pequeño, deberías probar una transformación de datos para hacerlos menos sesgados. Con tamaños de muestra grandes (las simulaciones que he hecho sugieren\(50\) que son lo suficientemente grandes), la prueba de una muestra\(t\) dará resultados precisos incluso con datos severamente sesgados.
Ejemplo
McDonald y Dunn (2013) midieron la correlación de transferrina (marcada roja) y Rab-10 (marcada verde) en cinco células. La hipótesis biológica nula es que la transferrina y Rab-10 no se colocalizan (se encuentran en las mismas estructuras subcelulares), por lo que la hipótesis estadística nula es que el coeficiente de correlación entre las señales rojas y verdes en cada imagen celular tiene una media de cero. Los coeficientes de correlación fueron\(0.52,\; 0.20,\; 0.59,\; 0.62\) y\(0.60\) en las cinco celdas. La media es\(0.51\), que es muy significativamente diferente de\(0\) (\(t=6.46,\; 4d.f.,\; P=0.003\)), lo que indica que la transferrina y Rab-10 están colocalizados en estas células.
Graficando los resultados
Debido a que solo estás comparando una media observada con un valor esperado, probablemente no pongas los resultados de una prueba de una muestra\(t\) en una gráfica. Si has hecho un montón de ellos, supongo que podrías dibujar un gráfico de barras con una barra por cada media, y una línea horizontal punteada para la expectativa nula.
Pruebas similares
La prueba t pareada es un caso especial de la prueba de una muestra\(t\); prueba la hipótesis nula de que la diferencia media entre dos mediciones (como la fuerza del brazo derecho menos la fuerza del brazo izquierdo) es igual a cero. Los experimentos que utilizan una prueba t pareada son mucho más comunes en biología que los experimentos que utilizan la prueba de una muestra\(t\), por lo que trato la\(t\) prueba pareada como una prueba completamente diferente.
La prueba t de dos muestras compara las medias de dos muestras diferentes. Si una de sus muestras es muy grande, puede tener la tentación de tratar la media de la muestra grande como una expectativa teórica, pero esto es incorrecto. Por ejemplo, digamos que quieres saber si los lanzadores de softbol universitario tienen mayores ángulos de flexión de hombros que la gente normal. Es posible que se vea tentado a buscar el ángulo de flexión del hombro “normal” (\(150^{\circ}\)) y comparar sus datos en lanzadores con el ángulo normal usando una prueba de una muestra\(t\). Sin embargo, el valor “normal” no proviene de alguna teoría, se basa en datos que tienen una media, una desviación estándar y un tamaño de muestra, y por lo menos deberías desenterrar el estudio original y comparar tu muestra con la muestra en la que se basó la\(150^{\circ}\) “normal”, usando una\(t\) prueba de dos muestras que toma en cuenta la variación y el tamaño de la muestra de ambas muestras.
Cómo hacer la prueba
Hojas de Cálculo
He configurado una hoja de cálculo para realizar el one-sample\(t\) —test onesamplettest.xls. Manejará hasta\(1000\) observaciones.
R
El\(R\) compañero de Salvatore Mangiafico tiene un programa R de muestra para la prueba t —muestra.
SAS
Puede usar PROC TTEST para la\(t\) prueba de Student; el parámetro CLASS es la variable nominal y el parámetro VAR es la variable de medición. Aquí hay un programa de ejemplo para los datos de sentido de posición conjunta anteriores. Tenga en cuenta que al\(H0\) parámetro para el valor teórico\(H\) le sigue el número cero, no una letra mayúscula\(O\).
DATOS jps; ángulo de
ENTRADA;
DATALINES;
120.6
116.4
117.2
118.1 114.1
116.9
113.3
121.1
116.9
117.0
;
PROC TTEST data=JPS H0=50; Ángulo
VAR;
RUN;
El resultado incluye algunas estadísticas descriptivas, más el\(t\) -valor y el\(P\) valor. Para estos datos, el\(P\) valor es\(0.005\).
DF t Valor Pr > |t|
9 -3.69 0.0050
Análisis de potencia
Para estimar el tamaño de la muestra para detectar una diferencia significativa entre una media y un valor teórico, se necesita lo siguiente:
- el tamaño del efecto, o la diferencia entre la media observada y el valor teórico que se espera detectar
- la desviación estándar
- alfa, o el nivel de significancia (generalmente\(0.05\))
- beta, la probabilidad de aceptar la hipótesis nula cuando es falsa (\(0.50,\; 0.80\)y\(0.90\) son valores comunes)
El programa G*Power calculará el tamaño de muestra necesario para una\(t\) prueba de una muestra. Elija “t tests” en el menú “Familia de pruebas” y “Medios: Diferencia de constante (un caso de muestra)” en el menú “Prueba estadística”. Da click en el botón “Determinar” e ingresa el valor teórico (“Media\(H0\) “) y una media con la menor diferencia respecto a la teórica que esperas detectar (“Media\(H1\) “). Ingresa una estimación de la desviación estándar. Haga clic en “Calcular y transferir a la ventana principal”. Cambia “colas” a dos, establece tu alfa (esto casi siempre lo será\(0.05\)) y tu poder (\(0.5,\; 0.8,\; or\; 0.9\)se usan comúnmente).
A modo de ejemplo, digamos que quieres dar seguimiento al estudio del sentido de posición de la articulación de la rodilla que hice arriba con un estudio del sentido de posición de la articulación de la cadera. Vas a establecer el ángulo de la cadera en\(70^{\circ}\) (Media\(H0=70\)) y quieres detectar una sobreestimación o subestimación de este ángulo de\(1^{\circ}\), entonces estableces Media\(H1=71\). No tienes ningún dato de ángulo de cadera, por lo que usas la desviación estándar de tu estudio de rodilla e ingresas\(2.4\) para SD. Se quiere hacer una prueba de dos colas a\(P<0.05\) nivel, con una probabilidad de detectar una diferencia tan grande, si existe, de\(90\%\) (\(1-\text {beta}=0.90\)). Ingresar todos estos números en G*Power da un tamaño de muestra de\(63\) personas.
Referencia
- McDonald, J.H., y K.W. Dunn. 2013. Pruebas estadísticas para medidas de colocalización en microscopía biológica. Diario de Microscopía 252:295-302.