Saltar al contenido principal

# 14.1: Resumen

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

Hay un poco cubierto en este capítulo, pero aún falta mucho. Lo más obvio es que aún no he discutido ningún análogo de la prueba t de muestras pareadas para más de dos grupos. Hay una manera de hacerlo, conocida como ANOVA de medidas repetidas, que aparecerá en una versión posterior de este libro. Tampoco he discutido cómo ejecutar un ANOVA cuando estás interesado en más de una variable de agrupación, pero eso se discutirá con mucho detalle en el Capítulo 16. En cuanto a lo que hemos comentado, los temas clave fueron:

• La lógica básica detrás de cómo funciona ANOVA (Sección 14.2) y cómo ejecutar uno en R (Sección 14.3).
• Cómo calcular un tamaño de efecto para un ANOVA (Sección 14.4)
• Análisis post hoc y correcciones para pruebas múltiples (Sección 14.5).
• Los supuestos hechos por ANOVA (Sección 14.6).
• Cómo verificar la hipótesis de homogeneidad de varianza (Sección 14.7) y qué hacer si se viola (Sección 14.8).
• Cómo verificar el supuesto de normalidad (Sección 14.9 y qué hacer si es violado (Sección 14.10).

Al igual que con todos los capítulos de este libro, hay bastantes fuentes diferentes en las que me he basado, pero el único texto destacado en el que más me ha influido es Sahai y Ageel (2000). No es un buen libro para principiantes, pero es un libro excelente para lectores más avanzados que estén interesados en entender las matemáticas detrás del ANOVA.

Referencias

Hays, W. L. 1994. Estadísticas. 5ta ed. Fort Worth, TX: Brace Harcourt.

Shaffer, J. P. 1995. “Prueba de Hipótesis Múltiple”. Revisión Anual de Psicología 46:561—84.

Hsu, J. C. 1996. Comparaciones Múltiples: Teoría y Métodos. Londres, Reino Unido: Chapman; Hall.

Dunn, O.J. 1961. “Múltiples comparaciones entre medias”. Revista de la Asociación Americana de Estadística 56:52—64.

Holm, S. 1979. “Un procedimiento de prueba múltiple de rechazo secuencial simple”. Revista Escandinava de Estadística 6:65—70.

Levene, H. 1960. “Pruebas robustas para la igualdad de varianzas”. En Contribuciones a Probabilidad y Estadística: Ensayos en Honor de Harold Hotelling, editado por I. Olkin et al, 278—92. Palo Alto, CA: Prensa de la Universidad de Stanford.

Brown, M. B., y A. B. Forsythe. 1974. “Pruebas robustas para la igualdad de varianzas”. Revista de la Asociación Americana de Estadística 69:364—67.

Welch, B. 1951. “Sobre la comparación de varios valores medios: una aproximación alternativa”. Biometrika 38:330—36.

Kruskal, W. H., y W. A. Wallis. 1952. “Uso de Rangos en Análisis de Varianza de un Criterio”. Revista de la Asociación Americana de Estadística 47:583—621.

Sahai, H., y M. I. Ageel. 2000. El Análisis de Varianza: Modelos Fijos, Aleatorios y Mixtos. Boston: Birkhauser.

1. Cuando todos los grupos tienen el mismo número de observaciones, se dice que el diseño experimental es “equilibrado”. El equilibrio no es tan importante para el ANOVA unidireccional, que es el tema de este capítulo. Se vuelve más importante cuando empiezas a hacer ANOVA más complicadas.
2. En versiones posteriores tengo la intención de ampliar sobre esto. Pero debido a que estoy escribiendo apresuradamente, y ya estoy por encima de mis plazos, solo voy a señalar brevemente que si lees con anticipación al Capítulo 16 y observa cómo se define el “efecto tratamiento” en el nivel k de un factor en términos de los valores αk (ver Sección 16.2), resulta que Q se refiere a una media ponderada del cuadrado efectos del tratamiento,$$Q=\left(\sum_{k=1}^{G} N_{k} \alpha_{k}^{2}\right) /(G-1)$$
3. queremos ser pegadizos para la precisión,$$\ 1 + {2 \over df_2 - 2}$$
4. o sea preciso, fiesta como “es 1899 y no tenemos amigos y nada mejor que ver con nuestro tiempo que hacer algunos cálculos que no habrían tenido ningún sentido en 1899 porque ANOVA no existió hasta cerca de la década de 1920”.
5. En realidad, también proporciona una función llamada anova (), pero que funciona un poco diferente, así que vamos a ignorarla por ahora.
6. Vale la pena señalar que puedes obtener el mismo resultado usando el comando anova (my.anova).
7. Una nota al pie de página potencialmente importante: escribí la función etaSquared () para el paquete lsr como un ejercicio de enseñanza, pero como todas las demás funciones del paquete lsr, no se ha probado exhaustivamente. Al momento de escribir este artículo — lsr package version 0.5 — hay al menos un error conocido en el código. En algunos casos al menos, no funciona (y puede dar respuestas muy tontas) cuando pones los pesos en las observaciones a algo que no sea uniforme. Eso no importa en absoluto para este libro, ya que ese tipo de análisis están mucho más allá del alcance, pero no he tenido la oportunidad de volver a visitar el paquete en mucho tiempo; probablemente sería prudente ser muy cauteloso con el uso de esta función en cualquier contexto que no sea análisis introductorios muy simples. ¡Gracias a Emil Kirkegaard por encontrar el error! (Ah, y mientras estoy aquí, hay una interesante entrada de blog de Daniel Lakens que sugiere que el eta-cuadrado en sí mismo quizás no sea la mejor medida del tamaño del efecto en el análisis de datos del mundo real: http://daniellakens.blogspot.com.au/2015/06/why-you-should-use-omega-squared.html
8. Debo señalar que hay otras funciones en R para ejecutar múltiples comparaciones, y al menos una de ellas funciona de esta manera: la función TukeyHSD () toma como entrada un objeto aov, y da salida a las pruebas de “diferencia honestamente significativa” de Tukey. Hablo del HSD de Tukey en el Capítulo 16.
9. Si tienes alguna base teórica para querer investigar algunas comparaciones pero no otras, es una historia diferente. En esas circunstancias no estás realmente ejecutando análisis “post hoc” en absoluto: estás haciendo “comparaciones planificadas”. Yo sí hablo de esta situación más adelante en el libro (Sección 16.9), pero por ahora quiero que las cosas sean simples.
10. Vale la pena señalar de pasada que no todos los métodos de ajuste intentan hacer esto. Lo que he descrito aquí es un enfoque para controlar la “tasa de error tipo I familiar sabia”. No obstante, hay otras pruebas post hoc que buscan controlar la “tasa de falsos descubrimientos”, que es algo diferente.
11. También hay una función llamada p.adjustment () en la que puede ingresar un vector de valores p brutos, y generará un vector de valores p ajustados. Esto puede ser útil a veces. También debo señalar que los usuarios más avanzados tal vez deseen considerar el uso de algunas de las herramientas proporcionadas por el paquete multcomp.
12. Tenga en cuenta que ninguna de estas figuras se ha arreglado en absoluto: si quieres crear gráficas más agradables siempre es una buena idea usar las herramientas del Capítulo 6 para ayudarte a dibujar imágenes de aspecto más limpio.
13. Un término técnico.

This page titled 14.1: Resumen is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform.