Saltar al contenido principal
LibreTexts Español

8.5: Datos reales

  • Page ID
    150445
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Veamos algunos datos reales de un experimento publicado que utiliza un diseño de medidas repetidas. Este es el mismo ejemplo que va a utilizar en el laboratorio para las medidas repetidas ANOVA. Los datos resultan ser tomados de un estudio reciente realizado por Lawrence Behmer y yo mismo, en el Brooklyn College (Behmer y Crump 2017).

    Nos interesó cómo las personas realizan secuencias de acciones. Una pregunta es si las personas aprenden partes individuales de las acciones, o todo el patrón más amplio de una secuencia de acciones. Analizamos estos problemas en una tarea de mecanografía de teclado de computadora. Una de nuestras preguntas fue si replicaríamos algunos hallazgos bien conocidos sobre cómo las personas mecanografían palabras y letras.

    Del trabajo anterior sabíamos que la gente escribe palabras mucho más rápido que las letras aleatorias, pero si hiciste las letras aleatorias un poco más parecidas al inglés, entonces la gente escribe esas cadenas de letras un poco más rápido, pero no tan lentas como una cadena aleatoria.

    En el estudio, 38 participantes se sentaron frente a una computadora y escribieron cadenas de 5 letras una a la vez. A veces las 5 letras hacían una palabra (Normal condition, TRUCK), a veces eran completamente aleatorias (Random Condition, JWYFG), y a veces seguían patrones como los que encuentras en inglés (Bigram Condition, QUEND), pero no eran palabras reales. Entonces, la variable independiente para el material de mecanografía tuvo tres niveles. Medimos cada pulsación de tecla que hicieron los participantes. Esto nos dio algunas medidas dependientes diferentes. Echemos un vistazo a los tiempos de reacción. Este es el tiempo que tardaron los participantes en comenzar a escribir la primera letra de la cadena.

    library(data.table)
    library(ggplot2)
    suppressPackageStartupMessages(library(dplyr))
    exp1_data <- fread(
    "https://raw.githubusercontent.com/CrumpLab/statistics/master/data/exp1_BehmerCrumpAPP.csv")
    exp1_data$Block<-as.factor(exp1_data$Block)
    levels(exp1_data$Block) <- c("Visible keyboard","Covered Keyboard")
    ## get subject mean RTs
    subject_means <- exp1_data %>%
                     filter(Order==1, Correct==1, PureRTs<5000) %>%
                     dplyr::group_by(Subject, Block, Stimulus) %>%
                     dplyr::summarise(mean_rt = mean(PureRTs), .groups='drop_last')
    subject_means$Subject<-as.factor(subject_means$Subject)
    subject_means$Block<-as.factor(subject_means$Block)
    subject_means$Stimulus<-as.factor(subject_means$Stimulus)
    ## get condition mean RTs
    plot_means <- subject_means %>%
                  arrange(match(Stimulus,c("Normal","Bigrams","Random"))) %>%
                  dplyr::group_by(Block, Stimulus) %>%
                  dplyr::summarise(means = mean(mean_rt),
                            SEs = sd(mean_rt)/sqrt(length(mean_rt)), .groups='drop_last')
    ## plot the condition means
    # re-order stimulus factor for plotting
    plot_means$Stimulus <- factor(plot_means$Stimulus,
                                  levels = c("Normal", "Bigrams", "Random"))
    ggplot(plot_means, aes(x=Stimulus, y=means, group=Block, color=Block))+
      geom_point()+
      geom_line()+
      geom_errorbar(aes(ymin=means-SEs, ymax=means+SEs), width=.2)+
      theme_classic()+
      ylab("Mean Reaction Time (ms)")+
      xlab("Typing Material")
    Figura\(\PageIndex{1}\): Resultados de Behmer & Crump (2017).

    Bien, hice una figura que muestra los tiempos medios de reacción para las diferentes condiciones del material de tipificación. Notarás que hay dos juegos de líneas. Eso es porque hubo otra manipulación de la que no te hablé. En un bloque de pruebas los participantes llegaron a mirar el teclado mientras escribían, pero en la otra condición tapamos el teclado para que la gente tuviera que escribir sin mirar. Finalmente, las barras de error son error estándar de las medias.

    Nota

    Tenga en cuenta que el uso de barras de error para diseños de medidas repetidas no es muy sencillo. De hecho, el error estándar de los medios que hemos agregado aquí no es muy significativo para juzgar si las diferencias entre las medias probablemente no se deben al azar. Serían si se tratara de un diseño entre sujetos. Actualizaremos este libro de texto con una discusión más larga de este tema, por ahora solo viviremos con estas barras de error.

    A los efectos de este ejemplo, diremos, seguro que parece replicado el hallazgo anterior. Por ejemplo, la gente empezó a escribir palabras normales más rápido que las cadenas de Bigram (similar al inglés), y empezaron a escribir letras aleatorias lo más lentamente de todas. Al igual que investigaciones anteriores habían encontrado.

    Centrémonos únicamente en el bloque de ensayos donde a los participantes se les permitió mirar el teclado mientras escribían, esa es la línea roja, para el bloque de “teclado visible”. Podemos ver que los medios se ven diferentes. Preguntemos a continuación, cuál es la probabilidad de que el azar (error de muestreo aleatorio) pudiera haber producido estas diferencias de medias. Para ello ejecutamos un ANOVA de medidas repetidas en R. Aquí está la tabla ANOVA.

    library(data.table)
    library(ggplot2)
    library(xtable)
    suppressPackageStartupMessages(library(dplyr))
    exp1_data <- fread(
    "https://raw.githubusercontent.com/CrumpLab/statistics/master/data/exp1_BehmerCrumpAPP.csv")
    exp1_data$Block<-as.factor(exp1_data$Block)
    levels(exp1_data$Block) <- c("Visible keyboard","Covered Keyboard")
    ## get subject mean RTs
    subject_means <- exp1_data %>%
                     filter(Order==1, Correct==1, PureRTs<5000) %>%
                     dplyr::group_by(Subject, Block, Stimulus) %>%
                     dplyr::summarise(mean_rt = mean(PureRTs), .groups='drop_last')
    subject_means$Subject<-as.factor(subject_means$Subject)
    subject_means$Block<-as.factor(subject_means$Block)
    subject_means$Stimulus<-as.factor(subject_means$Stimulus)
    
    visible_means<- subject_means %>%
                     filter(Block=="Visible keyboard")
    s_out <- summary(aov(mean_rt~Stimulus + Error (Subject/Stimulus),
                         visible_means))
    knitr::kable(xtable(s_out))
      Df Suma Cuadrados Media Cuadrada Valor F Pr (>F)
    Residuales 37 2452611.9 66286.808 NA F)" style="vertical-align: middle;">NA
    Estimulo 2 1424914.0 712457.010 235.7342 F)" style="vertical-align: middle;">0
    Residuales1 74 223649.4 3022.289 NA F)" style="vertical-align: middle;">NA

    Bien, podríamos reportar los resultados así. Hubo un efecto principal significativo del tipo Estímulo, F (2, 74) = 235.73, MSE = 3022.289, p < 0.001.

    Observe un par de cosas. En primer lugar, este es un enorme\(F\) -valor. ¡Es 253! Observe también que el valor p aparece como 0. Eso no significa que haya cero posibilidades de obtener un valor F tan grande bajo el nulo. Esto es un error de redondeo. El verdadero valor p es 0.00000000000000... Los ceros siguen adelante por un tiempo. Esto significa que solo hay una probabilidad esfumantemente pequeña de que estas diferencias podrían haber sido producidas por error de muestreo. Entonces, rechazamos la idea de que las diferencias entre nuestros medios puedan explicarse por casualidad. En cambio, estamos bastante seguros, a partir de esta evidencia y y trabajos previos que muestran lo mismo, de que nuestra manipulación experimental causó la diferencia. En otras palabras, la gente realmente escribe palabras normales más rápido que las letras aleatorias, y teclean cadenas similares al inglés en algún lugar en el medio en términos de velocidad.


    This page titled 8.5: Datos reales is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.