Saltar al contenido principal
LibreTexts Español

7.2: ANOVA de un factor

  • Page ID
    150361
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    El ANOVA de un factor a veces también se llama ANOVA entre sujetos, un ANOVA de factor independiente o un ANOVA de una vía (que es un nombre poco erróneo como discutiremos más adelante). El ingrediente crítico para un ANOVA de un factor, entre sujetos, es que tengas una variable independiente, con al menos dos niveles. Cuando se tiene una IV con dos niveles, se puede ejecutar una\(t\) prueba -. También puedes ejecutar un ANOVA. Curiosamente, te dan casi exactamente los mismos resultados. Obtendrás un\(p\) -valor de ambas pruebas que es idéntico (realmente están haciendo lo mismo bajo el capó). La\(t\) prueba -da un\(t\) -valor como el estadístico muestral importante. El ANOVA le da el\(F\) -valor (para Fisher, el inventor de la prueba) como el estadístico de muestra importante. Resulta que\(t^2\) es igual\(F\), cuando sólo hay dos grupos en el diseño. Ellos son la misma prueba. Nota al margen, resulta que todos están relacionados con la r de Pearson también (pero aún no hemos escrito sobre esta relación en este libro de texto).

    Recuerda que\(t\) se computa directamente a partir de los datos. Es como un error medio y estándar que medimos a partir de la muestra. De hecho es la diferencia media dividida por el error estándar de la muestra. Es sólo otra estadística descriptiva, ¿no?

    Lo mismo es cierto sobre\(F\). \(F\)se calcula directamente a partir de los datos. De hecho, la idea detrás\(F\) es la misma idea básica que va a hacer\(t\). Aquí está la idea general detrás de la fórmula, nuevamente es una relación del efecto que estamos midiendo (en el numerador), y la variación asociada al efecto (en el denominador).

    \[\text{name of statistic} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    \[\text{F} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    La diferencia con\(F\), es que utilizamos varianzas para describir tanto la medida del efecto como la medida del error. Entonces,\(F\) es una relación de dos varianzas.

    Recuerda lo que dijimos sobre cómo funcionan estas proporciones. Cuando la varianza asociada al efecto es del mismo tamaño que la varianza asociada con el error de muestreo, obtendremos dos de los mismos números, esto dará como resultado un\(F\) -valor de 1. Cuando la varianza debida al efecto es mayor que la varianza asociada con el error de muestreo, entonces\(F\) será mayor que 1. Cuando la varianza asociada al efecto es menor que la varianza asociada con el error de muestreo,\(F\) será menor a uno.

    Vamos a reescribir en inglés más claro. Estamos hablando de dos conceptos que nos gustaría medir a partir de nuestros datos. 1) Una medida de lo que podemos explicar, y 2) una medida de error, o cosas sobre nuestros datos que no podemos explicar. Entonces, la\(F\) fórmula se ve así:

    \[\text{F} = \frac{\text{Can Explain}}{\text{Can't Explain}} \nonumber \]

    Cuando podemos explicar tanto como no podemos explicar,\(F\) = 1. Esta no es una situación tan grande para que estemos. Significa que tenemos mucha incertidumbre. Cuando podemos explicar mucho más de lo que no podemos estamos haciendo un buen trabajo,\(F\) será mayor que 1. Cuando podemos explicar menos de lo que no podemos, realmente no podemos explicar mucho,\(F\) será menos de 1. Ese es el concepto detrás de hacer\(F\).

    Si viste una\(F\) en la naturaleza, y era .6. Entonces automáticamente sabrías que los investigadores no pudieron explicar gran parte de sus datos. Si vieras un\(F\) de 5, entonces sabrías que los investigadores podrían explicar 5 veces más de lo que no podrían, eso es bastante bueno. Y el objetivo de esto es darte una intuición sobre el significado de un\(F\) -valor, incluso antes de que sepas calcularlo.

     

    Computación del\(F\) -valor

    El ANOVA de Fisher es muy elegante en mi opinión. Nos inicia con un gran problema que siempre tenemos con los datos. Tenemos muchos números, y hay mucha variación en los números, ¿qué hacer? ¿No sería bueno dividir la variación en tipos, o fuentes? Si pudiéramos saber qué partes de la variación estaban siendo causadas por nuestra manipulación experimental, y qué partes estaban siendo causadas por el error de muestreo, estaríamos haciendo muy buenos avances. Podríamos saber si nuestra manipulación experimental estaba causando más cambios en los datos que el error de muestreo, o solo la casualidad. Si pudiéramos medir esas dos partes de la variación total, podríamos hacer una relación, y entonces tendríamos un\(F\) valor. Esto es lo que hace el ANOVA. Divide la variación total de los datos en dos partes. La fórmula es:

    Variación total = Variación por Manipulación + Variación por error de muestreo

    Esta es una buena idea, pero también es vaga. No hemos especificado nuestra medida de variación. ¿Qué debemos usar?

    ¿Recuerdas las sumas de cuadrados que usamos para hacer la varianza y la desviación estándar? Eso es lo que usaremos. Echemos otro vistazo a la fórmula, usando sumas de cuadrados para la medida de variación:

    \[SS_\text{total} = SS_\text{Effect} + SS_\text{Error} \nonumber \]

     

    SS Total

    Las sumas totales de cuadrados, o\(SS\text{Total}\) es una forma de pensar sobre toda la variación en un conjunto de datos. Es bastante sencillo de medir. No hay negocios complicados. Todo lo que hacemos es encontrar la diferencia entre cada puntaje y la gran media, luego cuadramos las diferencias y las sumamos todas.

    Imaginemos que teníamos algunos datos en tres grupos, A, B y C. Por ejemplo, podríamos tener 3 puntuaciones en cada grupo. Los datos podrían verse así:

    suppressPackageStartupMessages(library(dplyr))
    scores <- c(20,11,2,6,2,7,2,11,2)
    groups <- as.character(rep(c("A","B","C"), each=3))
    diff <-scores-mean(scores)
    diff_squared <-diff^2
    df<-data.frame(groups,scores,diff, diff_squared)
    df$groups<-as.character(df$groups)
    df <- df %>%
      rbind(c("Sums",colSums(df[1:9,2:4]))) %>%
      rbind(c("Means",colMeans(df[1:9,2:4])))
    knitr::kable(df)
    grupos puntuaciones diff diff_squared
    A 20 13 169
    A 11 4 16
    A 2 -5 25
    B 6 -1 1
    B 2 -5 25
    B 7 0 0
    C 2 -5 25
    C 11 4 16
    C 2 -5 25
    Sumas 63 0 302
    Medios 7 0 33.55555555556

    Los datos están organizados en formato largo, de manera que cada fila es una sola puntuación. Hay tres puntuaciones para los grupos A, B y C. La media de todos los puntajes se llama la Gran Media. Se calcula en la tabla, la Gran Media = 7.

    También calculamos todas las puntuaciones de diferencia a partir de la Gran Media. Las puntuaciones de diferencia están en la columna titulada diff. A continuación, cuadramos las puntuaciones de diferencia, y esas están en la siguiente columna llamada diff_squared.

    Recuerde, las puntuaciones de diferencia son una forma de medir la variación. Representan qué tan lejos está cada número de la Gran Media. Si la Gran Media representa nuestra mejor suposición al resumir los datos, las puntuaciones de diferencia representan el error entre la suposición y cada punto de datos real. El único problema con las puntuaciones de diferencia es que suman a cero (porque la media es el punto de equilibrio en los datos). Entonces, es conveniente cuadrar los puntajes de diferencia, esto los convierte a todos en números positivos. El tamaño de las puntuaciones de diferencia al cuadrado todavía representa el error entre la media y cada puntaje. Y, la operación de cuadratura exacerba las diferencias a medida que aumenta el error (cuadrar un número grande hace un número realmente grande, al cuadrar un número pequeño todavía hace un número pequeño).

    ¡Bien bien! Tenemos las desviaciones cuadradas de la gran media, sabemos que representan el error entre la gran media y cada puntaje. ¿Qué sigue? RESUMIRLOS!

    Cuando sumas todas las desviaciones cuadradas individuales (puntuaciones de diferencia) obtienes las sumas de cuadrados. Por eso se llama las sumas de cuadrados (SS).

    Ahora, tenemos la primera parte de nuestra respuesta:

    \[SS_\text{total} = SS_\text{Effect} + SS_\text{Error} \nonumber \]

    \[SS_\text{total} = 302 \nonumber \]

    y

    \[302 = SS_\text{Effect} + SS_\text{Error} \nonumber \]

    ¿Qué sigue? Si piensas en lo que aprendiste sobre álgebra, y resolviendo para X, podrías notar que realmente no necesitamos encontrar las respuestas a ambas partes faltantes de la ecuación. Solo necesitamos uno, y podemos resolver por el otro. Por ejemplo, si encontramos\(SS_\text{Effect}\), entonces podríamos resolver por\(SS_\text{Error}\).

     

    Efecto SS

    \(SS_\text{Total}\)nos dio un número que representa todo el cambio en nuestros datos, cómo todos los puntajes son diferentes de la gran media.

    Lo que queremos hacer a continuación es estimar cuánto del cambio total en los datos podría ser debido a la manipulación experimental. Por ejemplo, si ejecutamos un experimento que provoca cambios en la medición, entonces las medias para cada grupo serán distintas de las demás. Como resultado, las fuerzas de manipulación cambian sobre los números, y esto naturalmente significará que alguna parte de la variación total en los números es causada por la manipulación.

    La manera de aislar la variación debido a la manipulación (también llamada efecto) es mirar las medias en cada grupo, y calcular las puntuaciones de diferencia entre la media de cada grupo y la media grande, y luego sumar las desviaciones cuadradas para encontrar\(SS_\text{Effect}\).

    Considera esta tabla, mostrando los cálculos para\(SS_\text{Effect}\).

    suppressPackageStartupMessages(library(dplyr))
    scores <- c(20,11,2,6,2,7,2,11,2)
    means <-c(11,11,11,5,5,5,5,5,5)
    groups <- as.character(rep(c("A","B","C"), each=3))
    diff <-means-mean(scores)
    diff_squared <-diff^2
    df<-data.frame(groups,scores,means,diff, diff_squared)
    df$groups<-as.character(df$groups)
    df <- df %>%
      rbind(c("Sums",colSums(df[1:9,2:5]))) %>%
      rbind(c("Means",colMeans(df[1:9,2:5])))
    knitr::kable(df)
    grupos puntuaciones significa diff diff_squared
    A 20 11 4 16
    A 11 11 4 16
    A 2 11 4 16
    B 6 5 -2 4
    B 2 5 -2 4
    B 7 5 -2 4
    C 2 5 -2 4
    C 11 5 -2 4
    C 2 5 -2 4
    Sumas 63 63 0 72
    Medios 7 7 0 8

    Observe que creamos una nueva columna llamada media. Por ejemplo, la media para el grupo A fue 11. Se puede ver que hay tres 11s, uno por cada observación en la fila A. Las medias para el grupo B y C pasan a ambos ser 5. Entonces, el resto de los números en la columna de medias son 5s.

    Lo que estamos haciendo aquí es pensar en cada puntaje en los datos desde el punto de vista de los medios grupales. Las medias grupales son nuestro mejor intento de resumir los datos en esos grupos. Desde el punto de vista de la media, todos los números son tratados como iguales. El medio no sabe qué tan lejos está de cada puntaje, solo sabe que todos los puntajes están centrados en la media.

    Vamos a fingir que eres el medio para el grupo A. Eso significa que eres un 11. Alguien te pregunta “oye, ¿cuál es el puntaje para el primer punto de datos del grupo A?”. Porque tú eres el malo, dices, eso lo sé, son las 11. “¿Qué pasa con el segundo puntaje?” ... son las 11... son las 11, hasta donde puedo decir... “¿Me falta algo...”, preguntó la media.

    Ahora que hemos convertido cada puntaje a su valor medio podemos encontrar las diferencias entre cada puntaje medio y la gran media, luego cuadrarlos, luego resumirlos. Eso lo hicimos, y encontramos que el\(SS_\text{Effect} = 72\).

    \(SS_\text{Effect}\)representa la cantidad de variación que es causada por las diferencias entre las medias. También me refiero a esto como la cantidad de variación que el investigador puede explicar (por los medios, que representan diferencias entre grupos o condiciones que fueron manipuladas por el investigador).

    Observe también eso\(SS_\text{Effect} = 72\), y que 72 es menor que\(SS_\text{total} = 302\). Eso es muy importante. \(SS_\text{Effect}\)por definición nunca puede ser mayor que\(SS_\text{total}\).

     

    Error SS

    Genial, lo hicimos a SS Error. Ya encontramos SS Total, y SS Effect, así que ahora podemos resolver para SS Error así:

    \[SS_\text{total} = SS_\text{Effect} + SS_\text{Error} \nonumber \]

    conmutación alrededor:

    \[ SS_\text{Error} = SS_\text{total} - SS_\text{Effect} \nonumber \]

    \[ SS_\text{Error} = 302 - 72 = 230 \nonumber \]

    Podríamos parar aquí y mostrarte el resto del ANOVA, ya casi estamos ahí. Pero, el siguiente paso podría no tener sentido a menos que te enseñemos cómo calcular\(SS_\text{Error}\) directamente a partir de los datos, en lugar de solo resolverlos. Deberíamos hacer esto solo para volver a verificar nuestro trabajo de todos modos.

    suppressPackageStartupMessages(library(dplyr))
    scores <- c(20,11,2,6,2,7,2,11,2)
    means <-c(11,11,11,5,5,5,5,5,5)
    groups <- as.character(rep(c("A","B","C"), each=3))
    diff <-means-scores
    diff_squared <-diff^2
    df<-data.frame(groups,scores,means,diff, diff_squared)
    df$groups<-as.character(df$groups)
    df <- df %>%
      rbind(c("Sums",colSums(df[1:9,2:5]))) %>%
      rbind(c("Means",colMeans(df[1:9,2:5])))
    knitr::kable(df)
    grupos puntuaciones significa diff diff_squared
    A 20 11 -9 81
    A 11 11 0 0
    A 2 11 9 81
    B 6 5 -1 1
    B 2 5 3 9
    B 7 5 -2 4
    C 2 5 3 9
    C 11 5 -6 36
    C 2 5 3 9
    Sumas 63 63 0 230
    Medios 7 7 0 25.55555555556

    Bien, hicimos casi lo mismo que hicimos para encontrar\(SS_\text{Effect}\). ¿Puedes detectar la diferencia? Esta vez para cada puntaje encontramos primero la media grupal, luego encontramos el error en la estimación de la media grupal para cada puntaje. En otras palabras, los valores en la\(diff\) columna son las diferencias entre cada puntaje y su media grupal. Los valores en la columna diff_squared son las desviaciones cuadradas. Cuando resumimos las desviaciones cuadradas, obtenemos otra Sumas de Cuadrados, esta vez es la\(SS_\text{Error}\). Este es un nombre apropiado, porque estas desviaciones son las que el grupo quiere decir ¡no puede explicar!

     

    Grados de libertad

    Grados de libertad vuelven a entrar en juego con ANOVA. Esta vez, su propósito es un poco más claro. \(Df\)s pueden ser bastante simples cuando estamos haciendo un ANOVA relativamente simple como este, pero pueden complicarse cuando los diseños se complican más.

    Hablemos de los grados de libertad para los\(SS_\text{Effect}\) y\(SS_\text{Error}\).

    La fórmula para los grados de libertad para\(SS_\text{Effect}\) es

    \(df_\text{Effect} = \text{Groups} -1\), donde Grupos es el número de grupos en el diseño.

    En nuestro ejemplo, hay 3 grupos, por lo que el df es 3-1 = 2. Se puede pensar en el df para el efecto de esta manera. Cuando estimamos la gran media (la media general), estamos quitando un grado de libertad para las medias grupales. Dos de los medios grupales pueden ser lo que quieran (tienen total libertad), pero para que los tres sean consistentes con la Gran Media, la última media grupal tiene que ser arreglada.

    La fórmula para los grados de libertad para\(SS_\text{Error}\) es

    \(df_\text{Error} = \text{scores} - \text{groups}\), o el número de puntuaciones menos el número de grupos. Tenemos 9 puntajes y 3 grupos, por lo que nuestro\(df\) para el término de error es 9-3 = 6. Recuerde, cuando calculamos la puntuación de diferencia entre cada puntaje y su media grupal, tuvimos que computar tres medias (una para cada grupo) para hacerlo. Entonces, eso reduce los grados de libertad en 3. 6 de las puntuaciones de diferencia podrían ser lo que quieran, pero los últimos 3 tienen que fijarse para que coincidan con las medias de los grupos.

     

    Error cuadrático medio

    Bien, entonces tenemos los grados de libertad. ¿Cuál es el siguiente? Quedan dos escalones. Primero dividimos las\(SS\) es por sus respectivos grados de libertad para crear algo nuevo llamado Error Cuadrado Medio. Hablemos de por qué hacemos esto.

    En primer lugar, recuerde que estamos tratando de lograr este objetivo:

    \[\text{F} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    Queremos construir una relación que divida una medida de un efecto por una medida de error. ¡Quizás te diste cuenta de que ya tenemos una medida de un efecto y error! ¿Qué tal el\(SS_\text{Effect}\) y\(SS_\text{Error}\). Ambos representan la variación debida al efecto, y la variación sobrante que es inexplicable. ¿Por qué no hacemos esto?

    \[\frac{SS_\text{Effect}}{SS_\text{Error}} \nonumber \]

    Bueno, claro que podrías hacer eso. Lo que pasaría es que puedes obtener algunos números realmente grandes y pequeños para tu estadística inferencial. Y, el tipo de número que obtendrías no sería fácilmente interpretable como un\(t\) valor o una\(z\) puntuación.

    La solución es normalizar los\(SS\) términos. No te preocupes, normalizar es solo una palabra elegante para tomar el promedio, o encontrar la media. Recuerden, los términos de la SS son todos sumas. Y, cada suma representa un número diferente de propiedades subyacentes.

    Por ejemplo, el SS_ representa la suma de variación para tres medias en nuestro estudio. Podríamos hacernos la pregunta, bueno, cuál es la cantidad promedio de variación para cada media... Se podría pensar dividir SS_ por 3, porque hay tres medias, pero porque estamos estimando esta propiedad, dividimos por los grados de libertad en su lugar (# grupos - 1 = 3-1 = 2). Ahora hemos creado algo nuevo, se llama el\(MSE_\text{Effect}\).

    \[MSE_\text{Effect} = \frac{SS_\text{Effect}}{df_\text{Effect}} \nonumber \]

    \[MSE_\text{Effect} = \frac{72}{2} = 36 \nonumber \]

    Esto podría parecer extraño y parecer un poco complicado. Pero, es sólo otro medio. Es la media de las sumas de cuadrados para el efecto. Si esto te recuerda la fórmula para la varianza, buena memoria. El\(SME_\text{Effect}\) es una varianza de medida para el cambio en los datos debido a cambios en las medias (que están ligadas a las condiciones experimentales).

    El\(SS_\text{Error}\) representa la suma de variación para nueve puntajes en nuestro estudio. Eso es mucho más puntajes, así que el\(SS_\text{Error}\) suele ser mucho más grande que el\(SS_\text{Effect}\). Si dejáramos nuestros SSE de esta manera y los dividiéramos, casi siempre obtendríamos números menos de uno, porque el\(SS_\text{Error}\) es muy grande. Lo que tenemos que hacer es bajarlo al tamaño promedio. Entonces, podríamos querer dividir nuestro\(SS_\text{Error}\) por 9, después de todo hubo nueve puntajes. Sin embargo, debido a que estamos estimando esta propiedad, dividimos por los grados de libertad en su lugar (puntuaciones-grupos) = 9-3 = 6). Ahora hemos creado algo nuevo, se llama el\(MSE_\text{Error}\).

    \[MSE_\text{Error} = \frac{SS_\text{Error}}{df_\text{Error}} \nonumber \]

    \[MSE_\text{Error} = \frac{230}{6} = 38.33 \nonumber \]

     

    Calcular F

    Ahora que hemos hecho todo el trabajo duro, calcular\(F\) es fácil:

    \[\text{F} = \frac{\text{measure of effect}}{\text{measure of error}} \nonumber \]

    \[\text{F} = \frac{MSE_\text{Effect}}{MSE_\text{Error}} \nonumber \]

    \[\text{F} = \frac{36}{38.33} = .939 \nonumber \]

    ¡Hecho!

     

    La TABLA ANOVA

    Podría sospechar que aquí no hemos terminado del todo. Hemos recorrido los pasos de la computación\(F\). Recuerde,\(F\) es una estadística de muestra, calculamos\(F\) directamente a partir de los datos. Había un montón de piezas que necesitábamos, los dfs, los SSE, los MSE, y luego finalmente el F.

    Todas estas pequeñas piezas están convenientemente organizadas por tablas ANOVA. Las tablas ANOVA se ven así:

    library(xtable)
    suppressPackageStartupMessages(library(dplyr))
    scores <- c(20,11,2,6,2,7,2,11,2)
    means <-c(11,11,11,5,5,5,5,5,5)
    groups <- as.character(rep(c("A","B","C"), each=3))
    diff <-means-scores
    diff_squared <-diff^2
    df<-data.frame(groups,scores,means,diff, diff_squared)
    df$groups<-as.character(df$groups)
    df <- df %>%
      rbind(c("Sums",colSums(df[1:9,2:5]))) %>%
      rbind(c("Means",colMeans(df[1:9,2:5])))
    
    aov_out<-aov(scores~ groups, df[1:9,])
    summary_out<-summary(aov_out)
    knitr::kable(xtable(summary_out))
      Df Suma Cuadrados Media Cuadrada Valor F Pr (>F)
    grupos 2 72 36.00000 0.9391304 F)" style="vertical-align:middle;">0.4417359
    Residuales 6 230 38.33333 NA F)" style="vertical-align:middle;">NA

    Está viendo la impresión de una tabla de resumen de ANOVA de R. Notice, tenía columnas para\(Df\),\(SS\) (Sum Sq),\(MSE\) (Mean Sq)\(F\), y un\(p\) -valor. Hay dos filas. La fila de grupos es para el Efecto (lo que nuestros medios pueden explicar). La fila Residuales es para el Error (lo que nuestros medios no pueden explicar). Diferentes programas dan etiquetas ligeramente diferentes, pero todos están intentando presentar la misma información en la tabla ANOVA. No hay nada especial en la tabla ANOVA, es solo una forma de organizar todas las piezas. Observe, el MSE para el efecto (36) se coloca por encima del MSE para el error (38.333), y esto parece natural porque dividimos 36/38.33 en o para obtener el\(F\) -valor!


    This page titled 7.2: ANOVA de un factor is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Matthew J. C. Crump via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.