Saltar al contenido principal
LibreTexts Español

8.4: Cosas que vale la pena conocer

  • Page ID
    150468
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Medidas Repetidas Los ANOVA tienen algunas propiedades especiales que vale la pena conocer. La propiedad especial principal es que el término de error utilizado para el\(F\) -valor (el MSE en el denominador) siempre será menor que el término de error utilizado para el\(F\) -valor del ANOVA para un diseño entre sujetos. Ya lo discutimos antes. Es menor, porque restamos el error asociado a las medias del sujeto.

    Esto puede tener la consecuencia de hacer generalmente\(F\) -valores en diseños de medidas repetidas mayores que\(F\) -valores en diseños entre sujetos. Cuando el número en la parte inferior de la\(F\) fórmula es generalmente menor, generalmente hará que la relación resultante sea un número mayor. Eso es lo que pasa cuando haces que el número en la parte inferior sea más pequeño.

    Debido a que\(F\) los valores grandes generalmente nos dejan rechazar la idea de que las diferencias en nuestras medias se deben al azar, el ANOVA de medidas repetidas se convierte en una prueba más sensible de las diferencias (sus\(F\) valores suelen ser mayores).

    Al mismo tiempo, aquí hay una compensación. El ANOVA de medidas repetidas utiliza diferentes grados de libertad para el término de error, y estos suelen ser un número menor de grados de libertad. Entonces, las\(F\) -distribuciones para las medidas repetidas y los diseños entre sujetos son en realidad diferentes\(F\) -distribuciones, porque tienen diferentes grados de libertad.

     

    ANOVA repetida vs entre sujetos

    Hagamos un par de simulaciones para ver algunas diferencias entre el ANOVA para un diseño de medidas repetidas y el ANOVA para un diseño entre sujetos.

    Haremos lo siguiente.

    1. Simular un diseño con tres condiciones, A, B y C
    2. muestra 10 puntuaciones en cada condición de la misma distribución normal (media = 100, DE = 10)
    3. Incluiremos un factor sujeto para la versión de medidas repetidas. Aquí hay 10 asignaturas, cada una aportando tres puntuaciones, una de cada condición
    4. Para el diseño entre asignaturas hay 30 asignaturas diferentes, cada una aportando una puntuación en la condición a la que se les asignó (realmente el grupo).

    Realizamos 1000 experimentos simulados para cada diseño. Calculamos el\(F\) para cada experimento, tanto para los diseños de medidas medias como repetidas. Aquí están las dos distribuciones de muestreo de\(F\) para ambos diseños.

    library(ggplot2)
    b_f<-length(1000)
    w_f<-length(1000)
    for(i in 1:1000){
    scores <- rnorm(30,100,10)
    conditions <- as.factor(rep(c("A","B","C"), each=10))
    subjects <-as.factor(rep(1:10,3))
    df<-data.frame(scores,conditions,subjects)
    between_out<-summary(aov(scores~conditions,df))
    b_f[i] <- between_out[[1]]$`F value`[1]
    within_out<-summary(aov(scores~conditions + Error(subjects/conditions),df))
    w_f[i] <- within_out[[2]][[1]]$`F value`[1]
    }
    plot_df<-data.frame(fs=c(b_f,w_f), type=rep(c("between","repeated"),each=1000))
    crit_df<-data.frame(type=c("between","repeated"),
               crit=c(qf(.95, 2, 27),
                      qf(.95, 2, 18)))
    ggplot(plot_df, aes(x=fs))+
      geom_histogram(color="white", bins=30)+
      geom_vline(data=crit_df,aes(xintercept=crit))+
      geom_label(data = crit_df, aes(x = crit, y = 150, label = round(crit,digits=2)))+
      theme_classic()+
      facet_wrap(~type)
    Figura\(\PageIndex{1}\): Comparación de valores críticos de F para un diseño de medidas intermedias y repetidas.

    Estas dos distribuciones\(F\) de muestreo se ven bastante similares. No obstante, son sutilmente diferentes. La\(F\) distribución entre tiene grados de libertad 2, y 27, para el numerador y denominador. Hay 3 condiciones, por lo que\(\textit{df}_{1}\) = 3-1 = 2. Hay 30 sujetos, por lo que\(\textit{df}_{2}\) = 30-3 =27. El valor crítico, asumiendo un alfa de 0.05 es 3.35. Esto significa que\(F\) es 3.35 o más 5% del tiempo bajo el nulo.

    La\(F\) distribución de medidas repetidas tiene grados de libertad 2, y 18, para el numerador y denominador. Hay 3 condiciones, por lo que\(\textit{df}_{1}\) = 3-1 = 2. Hay 10 sujetos, así\(\textit{df}_{2}\) = (10-1) (3-1) = 92 = 18. El valor crítico, asumiendo un alfa de 0.05 es 3.55. Esto significa que\(F\) es 3.55 o más 5% del tiempo bajo el nulo.

    El valor crítico para la versión de medidas repetidas es ligeramente superior. Esto se debe a que cuando\(\textit{df}_{2}\) (el denominador) es menor, la\(F\) distribución -se extiende un poco hacia la derecha. Cuando se asienta así, obtenemos algunos más grandes\(F\) una mayor proporción del tiempo.

    Entonces, para detectar una diferencia real, se necesita una\(F\) de 3.35 o superior en un diseño entre sujetos, o una\(F\) de 3.55 o superior para un diseño de medidas repetidas. El problema aquí es que cuando hay una diferencia real entre las medias, la detectarás más a menudo con el diseño de medidas repetidas, aunque necesites un mayor\(F\) (para pasar el\(F\) valor crítico más alto para el diseño de medidas repetidas).

     

    medidas repetidas diseños son más sensibles

    Para ilustrar por qué los diseños de medidas repetidas son más sensibles, realizaremos otro conjunto de simulaciones.

    Esta vez haremos algo ligeramente diferente. Nos aseguraremos de que los puntajes para la condición A, sean siempre un poco más altos que los otros puntajes. En otras palabras, programaremos en una verdadera diferencia real. Específicamente, los puntajes para condición serán muestreados a partir de una distribución normal con media = 105, y DE = 10. Esta media es 5 mayor que la media para las otras dos condiciones (todavía establecida en 100).

    Con una diferencia real en los medios, ahora debemos rechazar la hipótesis de que no haya diferencias con más frecuencia. Deberíamos encontrar\(F\) valores mayores que el valor crítico con mayor frecuencia. Y, deberíamos encontrar\(p\) -valores para cada experimento que sean menores a .05 más a menudo, esos deberían ocurrir más del 5% de las veces.

    Para ver esto realizamos 1000 experimentos por cada diseño, realizamos el ANOVA, luego guardamos el\(p\) -valor que obtuvimos para cada experimento. Esto es como preguntar cuántas veces encontraremos un\(p\) -valor menor a 0.05, cuando hay una diferencia real (en este caso un promedio de 5) entre algunas de las medias. Vamos a trazar histogramas de los\(p\) -valores:

    library(ggplot2)
    b_p<-length(1000)
    w_p<-length(1000)
    for(i in 1:1000){
    scores <- c(rnorm(10,110,10),rnorm(20,100,10))
    conditions <- as.factor(rep(c("A","B","C"), each=10))
    subjects <-as.factor(rep(1:10,3))
    df<-data.frame(scores,conditions,subjects)
    between_out<-summary(aov(scores~conditions,df))
    b_p[i] <- between_out[[1]]$`Pr(>F)`[1]
    within_out<-summary(aov(scores~conditions + Error(subjects/conditions),df))
    w_p[i] <- within_out[[2]][[1]]$`Pr(>F)`[1]
    }
    plot_df<-data.frame(ps=c(b_p,w_p), type=rep(c("between","repeated"),each=1000))
    crit_df<-data.frame(type=c("between","repeated"),
               crit=c(qf(.95, 2, 27),
                      qf(.95, 2, 18)))
    ggplot(plot_df, aes(x=ps))+
      geom_histogram(color="white", bins=30)+
      geom_vline(xintercept=0.05, color="red")+
      theme_classic()+
      facet_wrap(~type)
    Figura\(\PageIndex{2}\): Distribuciones de valores p para un ANOVA entre y dentro de sujetos.

    Aquí tenemos dos distribuciones de valores p observados para las simulaciones. La línea roja muestra la ubicación de 0.05. En general, podemos ver que para ambos diseños, obtuvimos un rango completo de\(p\) -valores de 0 a 1. Esto quiere decir que muchas veces no hubiéramos rechazado la hipótesis de no diferencias (aunque sabemos que hay una pequeña diferencia). Habríamos rechazado el nulo cada vez que el\(p\) -valor fuera menor a 0.05.

    Para el diseño entre sujetos, hubo 599 experimentos con un\(p\) menor de 0.05, o 0.599 de experimentos fueron “significativos”, con alpha=.05.

    Para el diseño dentro del sujeto, hubo 570 experimentos con un\(p\) menor de 0.05, o 0.57 de los experimentos fueron “significativos”, con alpha=.05.

    Bien, bueno, aún puede que no estés impresionado. En este caso, el diseño entre sujetos detectó el efecto verdadero ligeramente más a menudo que el diseño de medidas repetidas. Ambos estuvieron justo alrededor del 55% del tiempo. En base a esto, podríamos decir que los dos diseños son bastante comparables en su sensibilidad, o capacidad para detectar una verdadera diferencia cuando la hay.

    Sin embargo, recuerde que el diseño entre sujetos utiliza 30 sujetos, y el diseño de medidas repetidas solo usa 10. Tuvimos que hacer una gran inversión para conseguir nuestros 30 temas. Y, estamos comparando injustamente el diseño entre (que es más sensible porque tiene más temas) con el diseño de medidas repetidas que tiene menos sujetos.

    ¿Qué crees que pasaría si corriéramos 30 sujetos en el diseño de medidas repetidas? Vamos a averiguarlo. Aquí rehacemos lo anterior, pero esta vez sólo para el diseño de medidas repetidas. Aumentamos\(N\) de 10 a 30.

    library(ggplot2)
    b_p<-length(1000)
    w_p<-length(1000)
    for(i in 1:1000){
    scores <- c(rnorm(30,110,10),rnorm(60,100,10))
    conditions <- as.factor(rep(c("A","B","C"), each=30))
    subjects <-as.factor(rep(1:30,3))
    df<-data.frame(scores,conditions,subjects)
    within_out<-summary(aov(scores~conditions + Error(subjects/conditions),df))
    w_p[i] <- within_out[[2]][[1]]$`Pr(>F)`[1]
    }
    plot_df<-data.frame(ps=w_p, type=rep("repeated",1000))
    ggplot(plot_df, aes(x=ps))+
      geom_histogram(color="white", bins=30)+
      geom_vline(xintercept=0.05, color="red")+
      theme_classic()
    Figura\(\PageIndex{3}\): distribución del valor p para el diseño dentro de sujetos con n= 30.

    ¡Wowsers! Mira eso. Cuando corrimos 30 sujetos en el diseño de medidas repetidas casi todos los\(p\) valores -fueron menores a .05. Hubo 982 experimentos con un\(p\) menor de 0.05, o 0.982 de los experimentos fueron “significativos”, con alpha=.05. ¡Eso es enorme! Si ejecutamos el diseño de medidas repetidas, casi siempre detectaríamos la verdadera diferencia cuando está ahí. Es por ello que el diseño de medidas repetidas puede ser más sensible que el diseño entre sujetos.


    This page titled 8.4: Cosas que vale la pena conocer is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.