Saltar al contenido principal

# 16.2: ANOVA factorial 2- Diseños equilibrados, interacciones permitidas

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

Los cuatro patrones de datos mostrados en la Figura?? son todos bastante realistas: hay muchos conjuntos de datos que producen exactamente esos patrones. Sin embargo, no son toda la historia, y el modelo ANOVA del que hemos estado hablando hasta este punto no es suficiente para dar cuenta a cabalidad de una tabla de medias grupales. ¿Por qué no? Bueno, hasta ahora tenemos la capacidad de hablar sobre la idea de que las drogas pueden influir en el estado de ánimo, y la terapia puede influir en el estado de ánimo, pero no hay forma de hablar sobre la posibilidad de una interacción entre ambos. Se dice que una interacción entre A y B ocurre siempre que el efecto del Factor A es diferente, dependiendo del nivel de Factor B del que estemos hablando. Varios ejemplos de un efecto de interacción con el contexto de un ANOVA de 2 x 2 se muestran en la Figura?? . Para dar un ejemplo más concreto, supongamos que la operación de Anxifree y Joyzepam se rige por mecanismos fisiológicos bastante diferentes, y una consecuencia de esto es que mientras Joyzepam tiene más o menos el mismo efecto sobre el estado de ánimo independientemente de si uno está en terapia, Anxifree es en realidad mucho más efectivo cuando se administra junto con TCC. El ANOVA que desarrollamos en la sección anterior no capta esta idea. Para tener una idea de si una interacción realmente está sucediendo aquí, ayuda a trazar los diversos medios grupales. Hay bastantes formas diferentes de dibujar estas gráficas en R. Una forma fácil es usar la función interaction.plot (), pero esta función no dibujará barras de error por ti. Una función bastante simple que incluirá barras de error para usted es la función LinePlot.ci () en el paquete sciplots (ver Sección 10.5.4). El comando

library(sciplot)
library(lsr)
lineplot.CI( x.factor = clin.trial$drug, response = clin.trial$mood.gain,
group = clin.trial\$therapy,
ci.fun = ciMean,
xlab = "drug",
ylab = "mood gain" )

produce la salida se muestra en la Figura 16.9 (no olvide que la función CIMean está en el paquete lsr, por lo que necesita tener lsr cargado!). Nuestra principal preocupación se relaciona con el hecho de que las dos líneas no son paralelas. El efecto de la TCC (diferencia entre la línea continua y la línea punteada) cuando el medicamento es Joyzepam (lado derecho) parece estar cerca de cero, incluso menor que el efecto de la TCC cuando se usa un placebo (lado izquierdo). Sin embargo, cuando se administra Anxifree, el efecto de la TCC es mayor que el placebo (medio). ¿Este efecto es real, o esto es solo una variación aleatoria debido al azar? Nuestro ANOVA original no puede responder a esta pregunta, porque no permitimos la idea de que ¡las interacciones incluso existen! En esta sección, solucionaremos este problema.

## ¿Cuál es exactamente el efecto de interacción?

La idea clave que vamos a introducir en esta sección es la de un efecto de interacción. Lo que eso significa para nuestras fórmulas R es que vamos a anotar modelos así aunque solo hay dos factores involucrados en nuestro modelo (es decir, fármaco y terapia), hay tres términos distintos (es decir, fármaco, terapia y fármaco:terapia). Es decir, además de los principales efectos de la droga y la terapia, tenemos un nuevo componente al modelo, que es nuestro término de interacción fármaco:terapia. Intuitivamente, la idea detrás de un efecto de interacción es bastante simple: solo significa que el efecto del Factor A es diferente, dependiendo del nivel de Factor B del que estemos hablando. Pero, ¿qué significa eso en términos de nuestros datos? Figura?? representa varios patrones diferentes que, aunque bastante diferentes entre sí, contarían como un efecto de interacción. Así que no es del todo sencillo traducir esta idea cualitativa en algo matemático con lo que un estadístico pueda trabajar. En consecuencia, la forma en que se formaliza la idea de un efecto de interacción en términos de hipótesis nulas y alternativas es un poco difícil, y supongo que muchos lectores de este libro probablemente no estarán tan interesados. Aun así, voy a tratar de dar la idea básica aquí.

Para empezar, necesitamos ser un poco más explícitos sobre nuestros principales efectos. Considere el efecto principal del Factor A (medicamento en nuestro ejemplo de funcionamiento). Originalmente formulamos esto en términos de la hipótesis nula de que las dos medias marginales μ r. son todas iguales entre sí. Obviamente, si todos estos son iguales entre sí, entonces también deben ser iguales a la gran media μ.. también, ¿verdad? Entonces lo que podemos hacer es definir el efecto del Factor A en el nivel r para que sea igual a la diferencia entre la media marginal μ r. y la gran media μ.. .
Denotemos este efecto por α r, y notemos que

α rr. −μ..

Ahora bien, por definición todos los valores α r deben sumar a cero, por la misma razón que el promedio de las medias marginales μ r. debe ser la gran media μ.. . De manera similar podemos definir el efecto del Factor B en el nivel i como la diferencia entre la media marginal de columna μ .c y la gran media μ..

β c.c −μ..

y una vez más, estos valores β c deben sumar a cero. La razón por la que a veces a los estadísticos les gusta hablar de los efectos principales en términos de estos valores αr y β c es que les permite ser precisos sobre lo que significa decir que no hay efecto de interacción. Si no hay interacción en absoluto, entonces estos valores α r y β c describirán perfectamente las medias del grupo μ rc. Específicamente, significa que

μ rc.. rc

Es decir, no hay nada especial en el grupo, significa que no podrías predecir perfectamente conociendo todos los medios marginales. Y esa es nuestra hipótesis nula, ahí mismo. La hipótesis alternativa es que

μ rc ≠ μ.. rc

para al menos un grupo r c en nuestra tabla. Sin embargo, a los estadísticos a menudo les gusta escribir esto de manera ligeramente diferente. Por lo general, definirán la interacción específica asociada con el grupo r c como algún número, torpemente referido como (αβ) rc, y luego dirán que la hipótesis alternativa es que

μ rc.. rc + (αβ) rc

donde (αβ) rc es distinto de cero para al menos un grupo. Esta notación es un poco fea a la vista, pero es útil como veremos en la siguiente sección al discutir cómo calcular la suma de cuadrados.

## Warning: package 'sciplot' was built under R version 3.5.2
## Warning: package 'lsr' was built under R version 3.5.2

¿Cómo se debe calcular la suma de cuadrados para los términos de interacción, SS A:B? Bueno, antes que nada, ayuda notar cómo la sección anterior definió el efecto de interacción en términos de la medida en que las medias grupales reales difieren de lo que cabría esperar con solo mirar las medias marginales. Por supuesto, todas esas fórmulas se refieren a parámetros de población más que a estadísticas de muestra, por lo que en realidad no sabemos cuáles son. Sin embargo, podemos estimarlos usando medias muestrales en lugar de medias poblacionales. Entonces para el Factor A, una buena manera de estimar el efecto principal en el nivel r como la diferencia entre la media marginal de la muestra$$\ \bar{Y_{rc}}$$ y la gran media de la muestra$$\ \bar{Y_{...}}$$. Es decir, usaríamos esto como nuestra estimación del efecto:

\ (\\ hat {\ alpha_r} =\ bar {Y_ {r.}} -\ bar {Y
_ {..}}\)

De igual manera, nuestra estimación del efecto principal del Factor B en el nivel c puede definirse de la siguiente manera:

$$\ \hat{\beta_c} = \bar{Y_{.c}} - \bar{Y_{..}}$$

Ahora bien, si vuelves a las fórmulas que usé para describir los valores SS para los dos efectos principales, notarás que estos términos de efecto son exactamente las cantidades que estábamos cuadrando y sumando! Entonces, ¿cuál es el análogo de esto para términos de interacción? La respuesta a esto se puede encontrar reordenando primero la fórmula para el grupo significa μ rc bajo la hipótesis alternativa, para que obtengamos esto:

\begin{aligned}(\alpha \beta)_{r c} &=\mu_{r c}-\mu_{..}-\alpha_{r}-\beta_{c} \\ &=\mu_{r c}-\mu_{. .}-\left(\mu_{r .}-\mu_{. .}\right)-\left(\mu_{. c}-\mu_{..}\right) \\ &=\mu_{r c}-\mu_{r .}-\mu_{. c}+\mu_{..} \end{aligned}

Entonces, una vez más, si sustituimos nuestras estadísticas de muestra en lugar de las medias poblacionales, obtenemos lo siguiente como nuestra estimación del efecto de interacción para el grupo rc, que es

$$\ \hat{(\alpha\beta)_{rc}} = \bar{Y_{rc}} - \bar{Y_{r.}} - \bar{Y_{.c}} + \bar{Y_{..}}$$

Ahora todo lo que tenemos que hacer es sumar todas estas estimaciones en todos los niveles R del Factor A y todos los niveles C del Factor B, y obtenemos la siguiente fórmula para la suma de cuadrados asociados con la interacción en su conjunto:

$$\mathrm{SS}_{A: B}=N \sum_{r=1}^{R} \sum_{c=1}^{C}\left(\bar{Y}_{r c}-\bar{Y}_{r .}-\bar{Y}_{. c}+\bar{Y}_{. .}\right)^{2}$$

donde, multiplicamos por N porque hay N observaciones en cada uno de los grupos, y queremos que nuestros valores de SS reflejen la variación entre observaciones contabilizadas por la interacción, no la variación entre grupos.

Ahora que tenemos una fórmula para calcular SS A:B, es importante reconocer que el término de interacción es parte del modelo (por supuesto), por lo que la suma total de cuadrados asociados al modelo, SS M es ahora igual a la suma de los tres valores SS relevantes, SS A +SS B +SS A: B. La suma residual de cuadrados SS R todavía se define como la variación sobrante, es decir SS T -SS M, pero ahora que tenemos el término de interacción esto se convierte en

SS R = SS T − (SS A +SS B +SS A: B)

Como consecuencia, la suma residual de cuadrados SS R será menor que en nuestro ANOVA original que no incluyó interacciones.

\begin{aligned} d f_{A: B} &=(R \times C-1)-(R-1)-(C-1) \\ &=R C-R-C+1 \\ &=(R-1)(C-1) \end{aligned}

que es solo el producto de los grados de libertad asociados con el factor de fila y el factor de columna.

¿Y los grados residuales de libertad? Debido a que hemos agregado términos de interacción, que absorben algunos grados de libertad, quedan menos grados residuales de libertad. Específicamente, tenga en cuenta que si el modelo con interacción tiene un total de (R×C) −1, y hay N observaciones en su conjunto de datos que están restringidas para satisfacer 1 gran media, sus grados residuales de libertad ahora se convierten en N− (R×C) −1+1, o simplemente N− (R×C).

## Ejecución del ANOVA en R

Agregar términos de interacción al modelo ANOVA en R es sencillo. Volviendo a nuestro ejemplo corriente del ensayo clínico, además de los términos de efecto principal de fármaco y terapia, incluimos el término de interacción fármaco:terapia. Entonces el comando R para crear el modelo ANOVA ahora se ve así:

model.3 <- aov( mood.gain ~ drug + therapy + drug:therapy, clin.trial )

Sin embargo, R permite una taquigrafía conveniente. En lugar de escribir los tres términos, puedes acortar el lado derecho de la fórmula para drogar*terapia. El operador * dentro de la fórmula se toma para indicar que desea tanto los efectos principales como la interacción. Así que también podemos ejecutar nuestro ANOVA así, y obtener la misma respuesta:

model.3 <- aov( mood.gain ~ drug * therapy, clin.trial )
summary( model.3 )

##              Df Sum Sq Mean Sq F value   Pr(>F)
## drug          2  3.453  1.7267  31.714 1.62e-05 ***
## therapy       1  0.467  0.4672   8.582   0.0126 *
## drug:therapy  2  0.271  0.1356   2.490   0.1246
## Residuals    12  0.653  0.0544
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Resulta que, si bien tenemos un efecto principal significativo del fármaco (F 2,12 =31.7, p<.001) y el tipo de terapia (F 1,12 =8.6, p=.013), no hay interacción significativa entre los dos (F 2,12 =2.5, p=0.125).

Hay un par de cosas muy importantes a considerar a la hora de interpretar los resultados del ANOVA factorial. En primer lugar, está el mismo tema que tuvimos con el ANOVA unidireccional, que es que si obtienes un efecto principal significativo de (digamos) droga, no te dice nada sobre qué medicamentos son diferentes entre sí. Para averiguarlo, es necesario realizar análisis adicionales. Hablaremos de algunos análisis que puedes ejecutar en las Secciones 16.7 y?? . Lo mismo ocurre con los efectos de interacción: saber que hay una interacción significativa no te dice nada sobre qué tipo de interacción existe. Nuevamente, necesitarás realizar análisis adicionales.