Saltar al contenido principal
LibreTexts Español

4.7: Anova unidireccional

  • Page ID
    149154
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)
    Objetivos de aprendizaje
    • Para aprender a usar anova unidireccional cuando se tiene una variable nominal y una variable de medición; la variable nominal divide las mediciones en dos o más grupos. Se prueba si las medias de la variable de medición son las mismas para los diferentes grupos.

    Cuándo usarlo

    El análisis de varianza (anova) es la técnica más utilizada para comparar las medias de grupos de datos de medición. Hay muchos diseños experimentales diferentes que se pueden analizar con diferentes tipos de anova; en este manual, describo solo anova unidireccional, anova anidado y anova bidireccional.

    Fig. 4.7.1 El mejillón Mytilus trossulus

    En un anova unidireccional (también conocido como anova de un factor, de un solo factor o de clasificación única), hay una variable de medición y una variable nominal. Se realizan múltiples observaciones de la variable de medición para cada valor de la variable nominal. Por ejemplo, aquí hay algunos datos sobre una medición de caparazón (la longitud de la cicatriz del músculo aductor anterior, estandarizada dividiendo por longitud; llamaré a esto “longitud de AAM”) en el mejillón Mytilus trossulus de cinco ubicaciones: Tillamook, Oregón; Newport, Oregón; Petersburgo, Alaska; Magadan, Rusia; y Tvarminne, Finlandia, tomado de un conjunto de datos mucho mayor utilizado en McDonald et al. (1991).

    Tillamook Newport San Petersburgo Magadan Tvarminne
    0.0571 0.0873 0.0974 0.1033 0.0703
    0.0813 0.0662 0.1352 0.0915 0.1026
    0.0831 0.0672 0.0817 0.0781 0.0956
    0.0976 0.0819 0.1016 0.0685 0.0973
    0.0817 0.0749 0.0968 0.0677 0.1039
    0.0859 0.0649 0.1064 0.0697 0.1045
    0.0735 0.0835 0.105 0.0764
    0.0659 0.0725 0.0689
    0.0923
    0.0836

    La variable nominal es ubicación, con los cinco valores Tillamook, Newport, Petersburg, Magadan y Tvarminne. Hay de seis a diez observaciones de la variable de medición, longitud de AAM, de cada ubicación.

    Hipótesis nula

    La hipótesis estadística nula es que las medias de la variable de medición son las mismas para las diferentes categorías de datos; la hipótesis alternativa es que no todas son iguales. Para el conjunto de datos de ejemplo, la hipótesis nula es que la longitud media de AAM es la misma en cada ubicación, y la hipótesis alternativa es que las longitudes medias de AAM no son todas iguales.

    Cómo funciona la prueba

    La idea básica es calcular la media de las observaciones dentro de cada grupo, luego comparar la varianza entre estas medias con la varianza promedio dentro de cada grupo. Bajo la hipótesis nula de que todas las observaciones en los diferentes grupos tienen la misma media, la varianza ponderada entre grupos será la misma que la varianza dentro del grupo. A medida que las medias se separan, aumenta la varianza entre las medias. El estadístico de prueba es así la razón de la varianza entre medias dividida por la varianza promedio dentro de los grupos, o\(F_s\). Este estadístico tiene una distribución conocida bajo la hipótesis nula, por lo que se puede calcular la probabilidad de obtener lo observado\(F_s\) bajo la hipótesis nula.

    La forma de la\(F\) distribución depende de dos grados de libertad, los grados de libertad del numerador (varianza entre grupos) y grados de libertad del denominador (varianza dentro del grupo). El grado de libertad entre grupos es el número de grupos menos uno. Los grados de libertad dentro de los grupos es el número total de observaciones, menos el número de grupos. Por lo tanto, si hay\(n\) observaciones en un grupo, los grados de libertad del numerador son\(a-1\) y los grados de libertad del denominador lo son\(n-a\). Para el conjunto de datos de ejemplo, hay\(5\) grupos y\(39\) observaciones, por lo que los grados de libertad del numerador son\(4\) y los grados denominador de libertad lo son\(34\). Cualquiera que sea el programa que uses para el anova seguramente calculará los grados de libertad para ti.

    La forma convencional de reportar los resultados completos de un anova es con una tabla (a menudo se omite la columna “suma de cuadrados”). Estos son los resultados de un anova unidireccional sobre los datos del mejillón:

    suma de cuadrados d.f. cuadrado medio F s P
    entre grupos 0.00452 4 0.001113 7.12 2.8×10 -4
    dentro de grupos 0.00539 34 0.000159
    total 0.00991 38

    Si no vas a usar los cuadrados medios para nada, podrías simplemente reportar esto como “Las medias fueron significativamente heterogéneas (anova unidireccional,\(F_{4,34}=7.12\, ,\; P=2.8\times 10^{-4}\))”. Los grados de libertad se dan como subíndice a\(F\), con el numerador primero.

    Tenga en cuenta que los estadísticos suelen llamar al cuadrado medio dentro del grupo el cuadrado medio de “error”. Creo que esto puede resultar confuso para los no estadísticos, ya que implica que la variación se debe a un error experimental o error de medición. En biología, la variación dentro del grupo suele ser en gran parte el resultado de una variación biológica real entre los individuos, no del tipo de errores que implica la palabra “error”. Por eso prefiero el término “dentro del grupo cuadrático medio”.

    Supuestos

    El anova unidireccional supone que las observaciones dentro de cada grupo se distribuyen normalmente. No es particularmente sensible a las desviaciones de esta suposición; si aplicas anova unidireccional a datos que no son normales, tu probabilidad de obtener un\(P\) valor menor que\(0.05\), si la hipótesis nula es cierta, todavía está bastante cerca de\(0.05\). Es mejor si tus datos están cerca de lo normal, así que después de recopilar tus datos, debes calcular los residuos (la diferencia entre cada observación y la media de su grupo) y trazarlos en un histograma. Si los residuos se ven severamente no normales, pruebe las transformaciones de datos y vea si uno hace que los datos se vean más normales.

    Si ninguna de las transformaciones que intentas hace que los datos parezcan lo suficientemente normales, puedes usar la prueba de Kruskal-Wallis. Tenga en cuenta que hace la suposición de que los diferentes grupos tienen la misma forma de distribución, y que no prueba la misma hipótesis nula que el anova unidireccional. Personalmente, no me gusta la prueba de Kruskal-Wallis; te recomiendo que si tienes datos no normales que no se pueden arreglar por transformación, sigas adelante y uses anova unidireccional, pero ten cuidado al rechazar la hipótesis nula si el\(P\) valor no está muy por debajo\(0.05\) y tus datos son extremadamente no- normal.

    El anova unidireccional también asume que tus datos son homoscedásticos, lo que significa que las desviaciones estándar son iguales en los grupos. Debe examinar las desviaciones estándar en los diferentes grupos y ver si hay grandes diferencias entre ellos.

    Si se tiene un diseño equilibrado, es decir, que el número de observaciones es el mismo en cada grupo, entonces el anova unidireccional no es muy sensible a la heterocedasticidad (diferentes desviaciones estándar en los diferentes grupos). No he encontrado un estudio exhaustivo de los efectos de la heterocedasticidad que considere todas las combinaciones del número de grupos, el tamaño de la muestra por grupo y la cantidad de heterocedasticidad. He hecho simulaciones con dos grupos, e indicaron que la heterocedasticidad dará una proporción excesiva de falsos positivos para un diseño equilibrado solo si una desviación estándar es al menos tres veces el tamaño de la otra, y el tamaño de la muestra en cada grupo es menor que\(10\). Supongo que una regla similar se aplicaría a los anovas unidireccionales con más de dos grupos y diseños equilibrados.

    La heterocedasticidad es un problema mucho mayor cuando se tiene un diseño desequilibrado (tamaños de muestra desiguales en los grupos). Si los grupos con tamaños de muestra más pequeños también tienen desviaciones estándar más grandes, obtendrá demasiados falsos positivos. La diferencia en las desviaciones estándar no tiene que ser grande; un grupo más pequeño podría tener una desviación estándar que sea\(50\%\) mayor, y su tasa de falsos positivos podría estar por encima en\(10\%\) lugar de a\(5\%\) donde pertenece. Si los grupos con tamaños de muestra más grandes tienen desviaciones estándar mayores, el error es en la dirección opuesta; obtienes muy pocos falsos positivos, lo que puede parecer algo bueno excepto que también significa que pierdes energía (obtienes demasiados falsos negativos, si hay diferencia en las medias).

    Deberías esforzarte mucho por tener los mismos tamaños de muestra en todos tus grupos. Con un diseño equilibrado, puede usar de manera segura un anova unidireccional a menos que los tamaños de muestra por grupo sean menores que\(10\) y las desviaciones estándar varíen en tres o más. Si tienes un diseño equilibrado con tamaños de muestra pequeños y una variación muy grande en las desviaciones estándar, deberías usar el anova de Welch en su lugar.

    Si tiene un diseño desequilibrado, debe examinar cuidadosamente las desviaciones estándar. A menos que las desviaciones estándar sean muy similares, probablemente deberías usar el anova de Welch. Es menos potente que el anova unidireccional para datos homoscedásticos, pero puede ser mucho más preciso para datos heteroscedásticos de un diseño desequilibrado.

    Análisis adicionales

    Prueba Tukey-Kramer

    Si rechazas la hipótesis nula de que todas las medias son iguales, probablemente querrás mirar los datos con más detalle. Una forma común de hacer esto es comparar diferentes pares de medias y ver cuáles son significativamente diferentes entre sí. Para el ejemplo de concha de mejillón, el\(P\) valor general es muy significativo; probablemente querrás hacer un seguimiento preguntando si la media en Tillamook es diferente de la media en Newport, si Newport es diferente de Petersburgo, etc.

    Puede ser tentador usar una simple prueba t —test de dos muestras en cada comparación por pares que le parezca interesante. Sin embargo, esto puede resultar en muchos falsos positivos. Cuando hay\(a\) grupos, hay\(\frac{(a^2-a)}{2}\) posibles comparaciones por parejas, un número que sube rápidamente a medida que aumenta el número de grupos. Con\(5\) los grupos, hay comparaciones\(10\) por pares; con\(10\) grupos, hay\(45\), y con\(20\) grupos, hay\(190\) pares. Cuando haces múltiples comparaciones, aumentas la probabilidad de que al menos una tenga un\(P\) valor menor que\(0.05\) puramente por casualidad, incluso si la hipótesis nula de cada comparación es verdadera.

    Hay una serie de pruebas diferentes para comparaciones por pares después de un anova unidireccional, y cada una tiene ventajas y desventajas. Las diferencias entre sus resultados son bastante sutiles, por lo que describiré solo una, la prueba de Tukey-Kramer. Es probablemente la prueba post-hoc más utilizada después de un anova unidireccional, y es bastante fácil de entender.

    En el método Tukey—Kramer se calcula la diferencia mínima significativa (MSD) para cada par de medias. Depende del tamaño de la muestra en cada grupo, la variación promedio dentro de los grupos y el número total de grupos. Para un diseño equilibrado, todos los MSD serán iguales; para un diseño desequilibrado, los pares de grupos con tamaños de muestra más pequeños tendrán MSD más grandes. Si la diferencia observada entre un par de medias es mayor que el MSD, el par de medias es significativamente diferente. Por ejemplo, el Tukey MSD para la diferencia entre Newport y Tillamook es\(0.0172\). La diferencia observada entre estas medias es\(0.0054\), por lo que la diferencia no es significativa. Newport y Petersburg tienen un MSD Tukey de\(0.0188\); la diferencia observada es\(0.0286\), por lo que es significativa.

    Hay un par de formas comunes de mostrar los resultados de la prueba Tukey—Kramer. Una técnica es encontrar todos los conjuntos de grupos cuyas medias no difieran significativamente entre sí, luego indicar cada conjunto con un símbolo diferente.

    Ubicación media de AAM Tukey Kramer
    Newport 0.0748 a
    Magadan 0.0780 a, b
    TILLAMOOK 0.0802 a, b
    Tvarminne 0.0957 b, c
    San Petersburgo 0.103 c

    Entonces explicas que “Los medios con la misma letra no son significativamente diferentes entre sí (prueba Tukey—Kramer,\(P> 0.05\))”. Esta tabla muestra que Newport y Magadan tienen ambos una “a”, por lo que no son significativamente diferentes; Newport y Tvarminne no tienen la misma letra, por lo que son significativamente diferentes.

    Otra forma de ilustrar los resultados de la prueba Tukey—Kramer es con líneas que conectan medios que no son significativamente diferentes entre sí. Esto es más fácil cuando las medias se ordenan de menor a mayor:

    Fig. 4.7.2 Media de AAM (cicatriz del músculo aductor anterior estandarizada por la longitud total de la concha) para Mytilus trossulus de cinco localizaciones. Los pares de medias agrupadas por una línea horizontal no son significativamente diferentes entre sí (método Tukey—Kramer,\(P> 0.05\)).

    También hay pruebas para comparar diferentes conjuntos de grupos; por ejemplo, se podrían comparar las dos muestras de Oregón (Newport y Tillamook) con las dos muestras de más al norte en el Pacífico (Magadan y Petersburgo). La prueba de Scheffé es probablemente la más común. El problema con estas pruebas es que con un número moderado de grupos, el número de posibles comparaciones se vuelve tan grande que los valores de P requeridos para la significación se vuelven ridículamente pequeños.

    Varianza de partición

    Los anovas unidireccionales más familiares son los anovas de “efecto fijo” o “modelo I”. Los diferentes grupos son interesantes, y quieres saber cuáles son diferentes entre sí. Como ejemplo, podrías comparar la longitud de AAM de las especies de mejillones Mytilus edulis, Mytilus galloprovincialis, Mytilus trossulus y Mytilus californianus; querrás saber cuál tiene el AAM más largo, cuál es el más corto, si M. edulis fue significativamente diferente de M. trossulus, etc.

    El otro tipo de anova unidireccional es un anova de “efecto aleatorio” o “modelo II”. Los diferentes grupos son muestras aleatorias de un conjunto más grande de grupos, y no te interesa qué grupos son diferentes entre sí. Un ejemplo sería tomar descendencia de cinco familias aleatorias de M. trossulus y comparar las longitudes de AAM entre las familias. No te importaría qué familia tenía el AAM más largo, y si la familia A era significativamente diferente de la familia B; son solo familias aleatorias muestreadas de un número posible de familias mucho mayor. En cambio, te interesaría cómo la variación entre familias se compara con la variación dentro de las familias; en otras palabras, querrás particionar la varianza.

    Bajo la hipótesis nula de homogeneidad de medias, el cuadrado medio entre grupos y el cuadrado medio dentro del grupo son estimaciones de la varianza paramétrica dentro del grupo. Si las medias son heterogéneas, el cuadrado medio dentro del grupo sigue siendo una estimación de la varianza dentro del grupo, pero el cuadrado medio entre grupos estima la suma de la varianza dentro del grupo más el tamaño de la muestra del grupo multiplicado por la varianza agregada entre grupos. Por lo tanto, restando el cuadrado medio dentro del grupo del cuadrado medio entre grupos, y dividiendo esta diferencia por el tamaño promedio de la muestra del grupo, da una estimación del componente de varianza agregada entre grupos. La ecuación es:

    \[\text{among}\: -\: {group\:variance}=\frac{MS_{among}-MS_{within}}{n}\]

    donde\(n_o\) es un número cercano a, pero generalmente ligeramente menor que, la media aritmética del tamaño muestral (\(n_i\)) de cada uno de los\(a\) grupos:

    \[n_o=\left ( \frac{1}{a-1} \right )\ast \left ( \frac{\text{sum}(n_i)-\text{sum}(n_i)^2}{\text{sum}(n_i)} \right )\]

    Cada componente de la varianza a menudo se expresa como un porcentaje de los componentes de varianza total. Así, una tabla de anova para un anova unidireccional indicaría el componente de varianza entre grupos y el componente de varianza dentro del grupo, y estos números se sumarían a\(100\%\).

    Aunque los estadísticos dicen que cada nivel de un anova “explica” una proporción de la variación, esta jerga estadística no significa que hayas encontrado una explicación biológica de causa y efecto. Si se mide el número de mazorcas de maíz por tallo en localizaciones\(10\) aleatorias en un campo, analizas los datos con un anova unidireccional, y dices que la ubicación “explica”\(74.3\%\) de la variación, realmente no has explicado nada; no sabes si algunas áreas tienen mayor rendimiento debido a diferentes contenido de agua en el suelo, diferentes cantidades de daño por insectos, diferentes cantidades de nutrientes en el suelo, o ataques aleatorios de una banda de bandidos de maíz merodeadores.

    La partición de los componentes de varianza es particularmente útil en genética cuantitativa, donde el componente dentro de la familia podría reflejar la variación ambiental mientras que el componente entre familias refleja la variación genética. Por supuesto, estimar la heredabilidad implica algo más que hacer un simple anova, pero el concepto básico es similar.

    Otra área donde la partición de componentes de varianza es útil es en el diseño de experimentos. Por ejemplo, digamos que estás planeando un gran experimento para probar el efecto de diferentes fármacos en la absorción de calcio en las células renales de rata. Quieres saber cuántas ratas usar, y cuántas medidas hacer en cada rata, así haces un experimento piloto en el que mides la captación de calcio en\(6\) ratas, con\(4\) mediciones por rata. Analiza los datos con un anova unidireccional y observa los componentes de varianza. Si un alto porcentaje de la variación es entre ratas, eso te diría que hay mucha variación de una rata a la siguiente, pero las medidas dentro de una rata son bastante uniformes. Entonces podrías diseñar tu gran experimento para incluir muchas ratas por cada tratamiento farmacológico, pero no muchas medidas en cada rata. O podrías hacer algunos experimentos piloto más para tratar de averiguar por qué hay tanta variación rata a rata (tal vez las ratas son de diferentes edades, o algunas han comido más recientemente que otras, o algunas han hecho más ejercicio) e intentar controlarla. Por otro lado, si la porción entre ratas de la varianza era baja, eso le diría que los valores medios para diferentes ratas fueron todos aproximadamente iguales, mientras que hubo mucha variación entre las mediciones en cada rata. Podrías diseñar tu gran experimento con menos ratas y más observaciones por rata, o podrías intentar averiguar por qué hay tanta variación entre las mediciones y controlarla mejor.

    Hay una ecuación que puedes usar para una asignación óptima de recursos en experimentos. Generalmente se usa para anova anidado, pero puedes usarlo para un anova unidireccional si los grupos son de efecto aleatorio (modelo II).

    La partición de la varianza se aplica solo a un anova unidireccional del modelo II (efectos aleatorios). Realmente no te dice nada útil sobre el modelo más común I (efectos fijos) anova unidireccional, aunque a veces a la gente le gusta reportarlo (porque están orgullosos de cuánto de la varianza “explican” sus grupos, supongo).

    Ejemplo

    Aquí se presentan datos sobre el tamaño del genoma (medido en picogramos de ADN por célula haploide) en varios grupos grandes de crustáceos, tomados de Gregory (2014). La causa de la variación en el tamaño del genoma ha sido un rompecabezas durante mucho tiempo; voy a usar estos datos para responder a la pregunta biológica de si algunos grupos de crustáceos tienen diferentes tamaños de genoma que otros. Debido a que los datos de especies estrechamente relacionadas no serían independientes (es probable que las especies estrechamente relacionadas tengan tamaños de genoma similares, porque recientemente descendieron de un ancestro común), utilicé un generador de números aleatorios para elegir aleatoriamente una especie de cada familia.

    Anfípodos percebes Branquiópodos Copépodos Decápodos Isópodos Ostrácodos
    0.74 0.67 0.19 0.25 1.60 1.71 0.46
    0.95 0.90 0.21 0.25 1.65 2.35 0.70
    1.71 1.23 0.22 0.58 1.80 2.40 0.87
    1.89 1.40 0.22 0.97 1.90 3.00 1.47
    3.80 1.46 0.28 1.63 1.94 5.65 3.13
    3.97 2.60 0.30 1.77 2.28 5.70
    7.16 0.40 2.67 2.44 6.79
    8.48 0.47 5.45 2.66 8.60
    13.49 0.63 6.81 2.78 8.82
    16.09 0.87 2.80
    27.00 2.77 2.83
    50.91 2.91 3.01
    64.62 4.34
    4.50
    4.55
    4.66
    4.70
    4.75
    4.84
    5.23
    6.20
    8.29
    8.53
    10.58
    15.56
    22.16
    38.00
    38.47
    40.89

    Después de recolectar los datos, el siguiente paso es ver si son normales y homoscedásticos. Es bastante obvio que no es normal; la mayoría de los valores son menores que\(10\), pero hay un número pequeño que son mucho más altos. Un histograma del grupo más grande, los decápodos (cangrejos, camarones y langostas), deja esto claro:

    Fig. 4.7.3 Histograma del tamaño del genoma en crustáceos decápodos.

    Los datos también son altamente heterocedásticos; las desviaciones estándar van desde\(0.67\) en percebes hasta\(20.4\) en anfípodos. Afortunadamente, la transformación logarítmica de los datos los hace más cercanos a los homoscedásticos (desviaciones estándar que van de\(0.20\) a\(0.63\)) y se ven más normales:

    Fig. 4.7.4 Histograma del tamaño del genoma en crustáceos decápodos después de la transformación logarítmica de base 10.

    Analizando los datos logarítmicos transformados con anova unidireccional, el resultado es\(F_{6,76}=11.72\, ,\; P=2.9\times 10^{-9}\). Por lo que existe una variación muy significativa en el tamaño medio del genoma entre estos siete grupos taxonómicos de crustáceos.

    El siguiente paso es usar la prueba de Tukey-Kramer para ver qué pares de taxones son significativamente diferentes en el tamaño medio del genoma. La forma habitual de mostrar esta información es identificando grupos que no son significativamente diferentes; aquí lo hago con barras horizontales:

    Fig. 4.7.5 Neans y límites de confianza de 95% del tamaño del genoma en siete grupos de crustáceos. Las barras horizontales enlazan grupos que no son significativamente diferentes (prueba de Tukey-Kramer, P>0.05). El análisis se realizó sobre los datos logarítmicos transformados, luego se volvieron a transformar para esta gráfica

    Esta gráfica sugiere que hay dos conjuntos de tamaños de genoma, grupos con genomas pequeños (branquiópodos, ostrácodos, percebes y copépodos) y grupos con genomas grandes (decápodos y anfípodos); los miembros de cada conjunto no son significativamente diferentes entre sí. Los isópodos están en el medio; el único grupo del que son significativamente diferentes son los branquiópodos. Entonces la respuesta a la pregunta biológica original, “¿algunos grupos de crustáceos tienen diferentes tamaños de genoma que otros”, es sí. Por qué diferentes grupos tienen diferentes tamaños de genoma sigue siendo un misterio.

    Graficando los resultados

    Fig. 4.7.6 Longitud de la cicatriz del músculo aductor anterior dividida por la longitud total en Mytilus trossulus. Se muestran medias ± un error estándar para cinco ubicaciones.

    La forma habitual de graficar los resultados de un anova unidireccional es con un gráfico de barras. Las alturas de las barras indican las medias, y suele haber algún tipo de barra de error, ya sea intervalos de confianza del 95% o errores estándar. Asegúrese de decir en la leyenda de la figura lo que representan las barras de error.

    Pruebas similares

    Si solo tienes dos grupos, puedes hacer una prueba t —test de dos muestras. Esto es matemáticamente equivalente a un anova y producirá exactamente el mismo\(P\) valor, así que si todo lo que vas a hacer alguna vez son comparaciones de dos grupos, también podrías llamarlos\(t\) —tests. Si vas a hacer algunas comparaciones de dos grupos, y algunos con más de dos grupos, probablemente será menos confuso si llamas a todas tus pruebas anovas unidireccionales.

    Si hay dos o más variables nominales, deberías usar un anova bidireccional, un anova anidado, o algo más complicado que no voy a cubrir aquí. Si estás tentado a hacer un anova muy complicado, es posible que quieras desglosar tu experimento en un conjunto de experimentos más simples en aras de la comprensión.

    Si los datos violan severamente los supuestos del anova, puedes usar el anova de Welch si las desviaciones estándar son heterogéneas o usar la prueba de Kruskal-Wallis si las distribuciones no son normales.

    Cómo hacer la prueba

    Hoja de Cálculo

    He elaborado una hoja de cálculo para hacer anova unidireccional anova.xls en hasta\(50\) grupos y\(1000\) observaciones por grupo. Calcula el\(P\) valor, realiza la prueba Tukey—Kramer y divide la varianza.

    Algunas versiones de Excel incluyen un “Analysis Toolpak”, que incluye una función “Anova: Single Factor” que hará un anova unidireccional. Puedes usarlo si quieres, pero yo no te puedo ayudar con ello. No incluye ninguna técnica para comparaciones no planificadas de medias, y no divide la varianza.

    Páginas web

    Varias personas han reunido páginas web que realizarán un anova unidireccional; una buena está aquí. Es fácil de usar, y manejará tres a\(26\) grupos y\(3\) a\(1024\) observaciones por grupo. No realiza la prueba de Tukey-Kramer y no divide la varianza.

    R

    El\(R\) compañero de Salvatore Mangiafico tiene un programa R de muestra para anova unidireccional.

    SAS

    Existen varios procedimientos SAS que realizarán un anova unidireccional. Los dos más utilizados son PROC ANOVA y PROC GLM. Cualquiera estaría bien para un anova unidireccional, pero PROC GLM (que significa “Modelos Lineales Generales”) se puede usar para una variedad mucho mayor de análisis más complicados, por lo que también podría usarlo para todo.

    Aquí hay un programa SAS para hacer un anova unidireccional sobre los datos del mejillón desde arriba.

    DATOS mejillones; ubicación de
    ENTRADA $ aam @@;
    DATALINES;
    Tillamook 0.0571 Tillamook 0.0813 Tillamook 0.0831 Tillamook 0.0976
    Tillamook 0.0817 Tillamook 0.0859 Tillamook 0.0735 Tillamook 0.0659
    Tillamook 0.0923 Tillamook 0.0836
    Newport 0.0873 Newport 0.0662 Newport 0.0672 Newport 0.0819
    Newport 0.0749 Newport 0.0649 Newport 0.0835 Newport 0.0725
    Petersburgo 0.0974 Petersburgo 0.1352 Petersburgo 0.0817 Petersburgo 0.1016
    Petersburgo 0.0968 Petersburgo 0.1064 Petersburgo 0.1050
    Magadan 0.1033 Magadan 0.0915 Magadan 0.0781 Magadan 0.0685
    Magadan 0.0677 Magadan 0.0697 Magadan 0.0764 Magadan 0.0689
    Tvarminne 0.0703 Tvarminne 0.1026 Tvarminne 0.0956 Tvarminne 0.0973
    Tvarminne 0.1039 Tvarminne 0.1045
    ;
    PROC glm data=MusselShells;
    CLASE location;
    MODELO aam = ubicación;
    RUN;

    La salida incluye la tabla de anova tradicional; el valor P se da bajo “Pr > F”.

    Suma de
    Fuente DF Cuadrados Media Cuadrados F Valor Pr > F

    Modelo 4 0.00451967 0.00112992 7.12 0.0003
    Error 34 0.00539491 0.00015867
    Total corregido 38 0.00991458

    PROC GLM no calcula los componentes de varianza para un anova. En su lugar, usa PROC VARCOMP. Lo configuras igual que PROC GLM, con la adición de METH=TYPE1 (donde “TYPE1" incluye el numeral 1, no la letra el. El procedimiento tiene cuatro métodos diferentes para estimar los componentes de varianza, y TYPE1 parece ser la misma técnica que la que he descrito anteriormente. Aquí se explica cómo hacer el anova unidireccional, incluida la estimación de los componentes de varianza, para el ejemplo de concha de mejillón.

    PROC GLM data=MusselShells;
    CLASE location;
    MODELO aam = ubicación;
    PROC VARCOMP data=MUSSELShells MÉTODO=TYPE1;
    CLASE location;
    MODELO aam = ubicación;
    RUN;

    Los resultados incluyen los siguientes:

    Tipo 1 Estimaciones

    Varianza Componente Estimación

    Var (ubicación) 0.0001254
    Var (Error) 0.0001587

    El resultado no se da como porcentaje del total, por lo que tendrás que calcularlo. Para estos resultados, el componente entre grupos es\(\frac{0.0001254}{(0.0001254+0.0001586)}=0.4415\), o\(44.15\%\); el componente dentro del grupo es\(\frac{0.0001587}{(0.0001254+0.0001586)}=0.5585\), o\(55.85\%\).

    Anova de Welch

    Si los datos muestran mucha heterocedasticidad (diferentes grupos tienen diferentes desviaciones estándar), el anova unidireccional puede producir un\(P\) valor inexacto; la probabilidad de un falso positivo puede ser mucho mayor que\(5\%\). En ese caso, deberías usar el anova de Welch. He escrito una hoja de cálculo para hacer el anova welchanova.xls de Welch. Incluye la prueba de Games-Howell, que es similar a la prueba de Tukey-Kramer para un anova regular. (Nota: la hoja de cálculo original dio resultados incorrectos para la prueba de Games-Howell; se corrigió el 28 de abril de 2015). Puede hacer el anova de Welch en SAS agregando una instrucción MEANS, el nombre de la variable nominal y la palabra WELCH después de una barra. Desafortunadamente, SAS no realiza la prueba post-hoc de Games-Howell. Aquí está el ejemplo del programa SAS desde arriba, modificado para hacer el anova de Welch:

    PROC GLM data=MusselShells;
    CLASE location;
    MODELO aam = location;
    MEANS location/WELCH;
    RUN;

    Aquí está parte de la salida:

    ANOVA de Welch para AAM

    Fuente DF F Valor Pr > F

    ubicación 4.0000 5.66 0.0051
    Error 15.6955

    Análisis de potencia

    Hacer un análisis de potencia para un anova unidireccional es un poco complicado, porque necesitas decidir qué tipo de tamaño de efecto estás buscando. Si te interesa principalmente la prueba de significancia general, el tamaño de la muestra necesario es una función de la desviación estándar de las medias del grupo. Su estimación de la desviación estándar de los medios que está buscando puede basarse en un experimento piloto o literatura publicada en experimentos similares.

    Si te interesan principalmente las comparaciones de medias, existen otras formas de expresar el tamaño del efecto. Tu efecto podría ser una diferencia entre las medias más pequeñas y mayores, por ejemplo, que te gustaría ser significativo con una prueba de Tukey-Kramer. Hay formas de hacer un análisis de potencia con este tipo de tamaño de efecto, pero no sé mucho sobre ellos y no voy a repasarlos aquí.

    Para hacer un análisis de potencia para un anova unidireccional utilizando el programa gratuito G*Power, elija “Pruebas F” en el menú “Familia de pruebas” y “ANOVA: Efectos fijos, ómnibus, unidireccional” en el menú “Prueba estadística”. Para determinar el tamaño del efecto, haga clic en el botón Determinar e ingrese el número de grupos, la desviación estándar dentro de los grupos (el programa asume que todos son iguales), y la media que desea ver en cada grupo. Por lo general, dejarás los mismos tamaños de muestra para todos los grupos (un diseño equilibrado), pero si estás planeando un anova desequilibrado con muestras más grandes en algunos grupos que en otros, puedes ingresar diferentes tamaños de muestra relativos. Después haga clic en el botón “Calcular y transferir a la ventana principal”; calcula el tamaño del efecto y lo ingresa en la ventana principal. Ingresa tu alfa (generalmente\(0.05\)) y potencia (normalmente\(0.80\) o\(0.90\)) y presiona el botón Calcular. El resultado es el tamaño total de la muestra en todo el experimento; tendrás que hacer un poco de cálculo para determinar el tamaño de la muestra para cada grupo.

    Como ejemplo, digamos que estás estudiando la cantidad de transcripción de algún gen en el músculo del brazo, el músculo cardíaco, el cerebro, el hígado y el pulmón. Con base en investigaciones previas, decides que te gustaría que el anova fuera significativo si las medias fueron\(10\) unidades en músculo del brazo,\(10\) unidades en músculo cardíaco,\(15\) unidades en cerebro,\(15\) unidades en hígado y\(15\) unidades en pulmón. La desviación estándar de la cantidad de transcrito dentro de un tipo de tejido que has visto en investigaciones anteriores son\(12\) unidades. Al ingresar estos números en G*Power, junto con un alfa de\(0.05\) y una potencia de\(0.80\), el resultado es un tamaño de muestra total de\(295\). Dado que hay cinco grupos, necesitarías\(59\) observaciones por grupo para tener la\(80\%\) posibilidad de tener un anova significativo (\(P< 0.05\)) unidireccional.

    Referencias

    1. Imagen de Mytilus trossulus de Clave a Invertebrados Encontrados En o Cerca Del Laboratorio Marino De La Playa Rosario.
    2. Gregory, T.R. 2014. Base de datos del tamaño del genoma animal.
    3. McDonald, J.H., R. Seed y R.K. Koehn. 1991. Alozimas y caracteres morfométricos de tres especies de Mytilus en los hemisferios Norte y Sur. Biología Marina 111:323-333.

    This page titled 4.7: Anova unidireccional is shared under a not declared license and was authored, remixed, and/or curated by John H. McDonald via source content that was edited to the style and standards of the LibreTexts platform.