16.11: Resumen
- Page ID
- 151314
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)- ANOVA factorial con diseños equilibrados, sin interacciones (Sección 16.1) y con interacciones incluidas (Sección 16.2)
- Tamaño del efecto, medias estimadas e intervalos de confianza en un ANOVA factorial (Sección 16.3)
- Comprensión del modelo lineal que subyace a ANOVA (Secciones 16.5, 16.6 y 16.7)
- Pruebas post hoc con HSD de Tukey (Sección 16.8) y un breve comentario sobre las comparaciones planificadas (Sección 16.9)
- ANOVA factorial con diseños desequilibrados (Sección 16.10)
Referencias
Hsu, J. C. 1996. Comparaciones Múltiples: Teoría y Métodos. Londres, Reino Unido: Chapman; Hall.
- El comando R que necesitamos es
xtabs (~ fármaco+género, clin.trial)
. - Lo bueno de la notación de subíndices es que generaliza muy bien: si nuestro experimento hubiera involucrado un tercer factor, entonces podríamos simplemente agregar un tercer subíndice. En principio, la notación se extiende a tantos factores como te interese incluir, pero en este libro rara vez consideraremos análisis que involucren más de dos factores, y nunca más de tres.
- Técnicamente, marginar no es del todo idéntico a una media regular: es un promedio ponderado, donde se toma en cuenta la frecuencia de los diferentes eventos sobre los que se está promediando. Sin embargo, en un diseño equilibrado, todas nuestras frecuencias celulares son iguales por definición, por lo que las dos son equivalentes. Discutiremos diseños desequilibrados más adelante, y cuando lo hagamos, verá que todos nuestros cálculos se convierten en un verdadero dolor de cabeza. Pero vamos a ignorar esto por ahora.
- Traducción al inglés: “least tedious”.
- Este capítulo parece estar estableciendo un nuevo récord para el número de cosas diferentes que puede representar la letra R: hasta ahora tenemos R refiriéndose al paquete de software, el número de filas en nuestra tabla de medias, los residuales en el modelo, y ahora el coeficiente de correlación en una regresión. Lo sentimos: claramente no tenemos suficientes letras en el alfabeto. No obstante, me he esforzado bastante por tener claro a qué cosa se refiere R en cada caso.
- Increíblemente grande, pensaría: ¡la artificialidad de este conjunto de datos realmente está empezando a mostrarse!
- De hecho, hay una función
Effect ()
dentro del paquete deefectos
que tiene argumentos ligeramente diferentes, pero calcula las mismas cosas, y no te dará este mensaje de advertencia. - Sin embargo, debido a la forma en que se implementa la función
leveNetest ()
, si usas una fórmula comomood.gain\ ~\ drug + therapy + drog:therapy
, o ingresas un objeto ANOVA basado en una fórmula como esta, realmente obtienes el mensaje de error. Eso no debería suceder, porque en realidad este es un modelo completamente cruzado. Sin embargo, hay un atajo peculiar en la forma en que la funciónleveNeTest ()
verifica si tu modelo está completamente cruzado, lo que significa que no reconoce esto como un modelo completamente cruzado. Esencialmente lo que está haciendo la función es verificar que usaste*
(lo que asegura que el modelo esté completamente cruzado), y no+
o:
en tu fórmula de modelo. Entonces, si has escrito manualmente todos los términos relevantes para un modelo completamente cruzado, la funciónLeveTest ()
no lo detecta. Creo que esto es un bicho. - Podría haber todo tipo de razones para hacer esto, me imagino.
- Esto es hacer trampa en algunos aspectos: porque ANOVA y regresión son probablemente lo mismo, R es perezoso: si lees la documentación de ayuda de cerca, notarás que la función
aov ()
en realidad es solo la funciónlm ()
disfrazada! Pero no vamos a dejar que tales cosas se interpongan en nuestra historia, ¿de acuerdo? - En el ejemplo dado anteriormente, he escrito
summary (regression.model)
para obtener las pruebas de hipótesis. Sin embargo, la funciónsummary ()
produce mucha salida, por lo que he usado el textoBLAH BLAH BLAH
para ocultar las partes innecesarias de la salida. Pero de hecho, puedes usar la funcióncoef ()
para hacer el mismo trabajo. Si tienes el comandocoef (summary (regression.model))
obtendrás exactamente el mismo resultado que he mostrado arriba (menos elBLAH BLAH BLAH BLAH
). Compara y contrasta esto con la salida decoef (regression.model)
. - Los usuarios avanzados pueden querer investigar la función
model.matrix ()
, que produce resultados similares. Alternativamente, puede usar un comando comocontr.treatment (3) [clin.trial\ $drug,]
. Hablaré más adelante sobre la funcióncontr.treatment ()
. - Las versiones futuras de este libro intentarán ser un poco más consistentes con el esquema de nomenclatura para las variables. Uno de los muchos problemas de tener que escribir un texto largo muy rápidamente para cumplir con un plazo de enseñanza es que pierdes cierta consistencia interna.
- El paquete
lsr
contiene una función más general llamadapermuteLevels ()
que puede barajarlos de la manera que desee. - Técnicamente, esta lista en realidad almacena las funciones en sí mismas. R permite que las listas contengan funciones, lo cual es realmente ordenado para fines avanzados, pero no algo que importe para este libro.
- Si, por ejemplo, realmente te interesaría saber si el Grupo A es significativamente diferente de la media del Grupo B y el Grupo C, entonces necesitas usar una herramienta diferente (por ejemplo, el método de Scheffe, que es más conservador, y más allá del alcance de este libro). Sin embargo, en la mayoría de los casos probablemente te interesen las diferencias de grupo por parejas, por lo que el HSD de Tukey es algo bastante útil de conocer.
- Esta discrepancia en las desviaciones estándar podría (y debería) hacer que te preguntes si tenemos una violación de la hipótesis de homogeneidad de varianza. Lo dejaré como un ejercicio para que el lector lo verifique usando la función
LeveTest ()
. - En realidad, esto es un poco mentira. Los ANOVA pueden variar de otras maneras además de las que he discutido en este libro. Por ejemplo, he ignorado por completo la diferencia entre los modelos de efecto fijo, en los que los niveles de un factor son “fijos” por el experimentador o el mundo, y los modelos de efecto aleatorio, en los que los niveles son muestras aleatorias de una población mayor de niveles posibles (este libro solo cubre modelos de efecto fijo). No cometas el error de pensar que este libro —o cualquier otro— te dirá “todo lo que necesitas saber” sobre estadísticas, más de lo que un solo libro te podría decir todo lo que necesitas saber sobre psicología, física o filosofía. La vida es demasiado complicada para que eso sea verdad alguna vez. Sin embargo, esto no es motivo de desesperación. La mayoría de los investigadores se las arreglan con un conocimiento básico de trabajo de ANOVA que no va más allá de lo que hace este libro. Sólo quiero que tengas en cuenta que este libro es solo el comienzo de una historia muy larga, no de toda la historia.
- Lo único que puede parecer un poco opaco para algunas personas es por qué los grados residuales de libertad en esta salida se ven diferentes entre sí (es decir, que van de 12 a 17) mientras que en el original los grados residuales de libertad se fijan en 12. En realidad es el caso que R usa un df residual de 12 en todos los casos (por eso los valores p son los mismos en las dos salidas, y es suficiente para verificar que
pf (6.7495, 2,12, lower.tail=false))
da la respuesta correcta de p=.010863, por ejemplo, mientraspf (6.7495, 2,15, lower.tail=false))
habría dado un valor p de aproximadamente .00812. Son los grados residuales de libertad en el modelo completo (es decir, el último) lo que importa aquí. - O, por lo menos, raramente de interés.
- Sí, en realidad soy un nerd lo suficientemente grande como para haber escrito mis propias funciones implementando pruebas Tipo II y pruebas Tipo III. Solo lo hice para convencerme de que sabía cómo funcionaban los diferentes Tipos de prueba, pero sí resultó ser un ejercicio práctico: la función
etaSquared ()
en el paquetelsr
se basa en ella. En realidad, incluso hay un argumento en la funciónetaSquared ()
llamadoanova
. Por defecto,Anova=false
y la función simplemente imprime los tamaños de los efectos. Sin embargo, si establecesanova=true
, también escupirá la tabla ANOVA completa. Esto funciona para los Tipos I, II y III. Simplemente establezca el argumentotypes
para seleccionar qué tipo de prueba desea. - Tenga en cuenta, por supuesto, que esto sí depende del modelo que el usuario especificó. Si el modelo ANOVA original no contiene un término de interacción para
B:C
, entonces obviamente no aparecerá ni en el nulo ni en la alternativa. Pero eso es cierto para los Tipos I, II y III. Nunca incluyen ningún término que no incluyas, pero toman diferentes decisiones sobre cómo construir pruebas para las que incluiste. - Me resulta divertido notar que el valor por defecto en R es Tipo I y el predeterminado en SPSS es Tipo III (con contrastes de Helmert). Ninguno de estos me atrae tanto. Relacionadamente, me parece deprimente que casi nadie en la literatura psicológica se moleste en informar qué Tipo de pruebas realizaron, mucho menos el orden de las variables (para Tipo I) o los contrastes utilizados (para Tipo III). A menudo tampoco reportan qué software usaron. La única forma en que puedo entender lo que la gente suele reportar es intentar adivinar a partir de señales auxiliares qué software estaban usando, y asumir que nunca cambiaron la configuración predeterminada. Por favor, no hagas esto... ahora que conoces estos temas, asegúrate de indicar qué software usaste, y si estás reportando resultados de ANOVA para datos desequilibrados, entonces especifica qué Tipo de pruebas ejecutaste, especifica información de pedido si has realizado pruebas Tipo I y especifica contrastes si has realizado pruebas Tipo III. O, mejor aún, hacer pruebas de hipótesis que correspondan a cosas que realmente te importan, ¡y luego reportarlas!