Saltar al contenido principal
LibreTexts Español

11.8: Pruebas Post Hoc

  • Page ID
    150893
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Una prueba post hoc se utiliza solo después de encontrar un resultado estadísticamente significativo y la necesidad de determinar de dónde provienen realmente nuestras diferencias. El término “post hoc” proviene del latín para “después del evento”. Hay muchas pruebas post hoc diferentes que se han desarrollado, y la mayoría de ellas nos darán respuestas similares. Aquí solo nos centraremos en los más utilizados. También solo discutiremos los conceptos detrás de cada uno y no nos preocuparemos por los cálculos.

    Prueba Bonferroni

    Una prueba de Bonferroni es quizás el análisis post hoc más simple. Una prueba de Bonferroni es una serie\(t\) de pruebas realizadas en cada par de grupos. Como comentamos anteriormente, el número de grupos crece rápidamente el número de comparaciones, lo que infla las tasas de error de Tipo I. Para evitar esto, una prueba de Bonferroni divide nuestro nivel de significación\(α\) por el número de comparaciones que estamos haciendo para que cuando se ejecuten todas, vuelvan a resumir a nuestra tasa de error original Tipo I. Una vez que tenemos nuestro nuevo nivel de significancia, simplemente realizamos muestras independientes,\(t\) pruebas para buscar la diferencia entre nuestros pares de grupos. Este ajuste a veces se llama Corrección Bonferroni, y es fácil de hacer a mano si queremos comparar\(p\) los valores obtenidos con nuestro nuevo nivel α corregido, pero es más difícil de hacer al usar valores críticos como lo hacemos para nuestros análisis por lo que dejaremos nuestra discusión del mismo a eso.

    La diferencia significativa honesta de Tukey

    La diferencia significativa honesta (HSD) de Tukey es un análisis post hoc muy popular. Este análisis, al igual que el de Bonferroni, realiza ajustes basados en el número de comparaciones, pero hace ajustes al estadístico de prueba al ejecutar las comparaciones de dos grupos. Estas comparaciones nos dan una estimación de la diferencia entre los grupos y un intervalo de confianza para la estimación. Usamos este intervalo de confianza de la misma manera que usamos un intervalo de confianza para una\(t\) prueba de muestras independientes regulares: si contiene 0.00, los grupos no son diferentes, pero si no contiene 0.00 entonces los grupos son diferentes.

    A continuación se presentan las diferencias entre las medias del grupo y los intervalos de confianza HSD de Tukey para las diferencias:

    Tabla\(\PageIndex{1}\): Diferencias entre las medias del grupo y los intervalos de confianza HSD de Tukey
    Comparativa Diferencia CI HSD de Tukey
    Ninguno vs Relevante 40.60 (28.87, 52.33)
    Ninguno vs No Relacionado 19.50 (7.77, 31.23)
    Relevante vs No Relacionado 21.10 (9.37, 32.83)

    Como podemos ver, ninguno de estos intervalos contiene 0.00, por lo que podemos concluir que los tres grupos son diferentes entre sí.

    Prueba de Scheffe

    Otra prueba post hoc común es la prueba de Scheffe. Al igual que el HSD de Tukey, la prueba de Scheffe ajusta el estadístico de prueba para cuántas comparaciones se hacen, pero lo hace de una manera ligeramente diferente. El resultado es una prueba que es “conservadora”, lo que significa que es menos probable que cometa un Error Tipo I, pero esto viene a costa de menos potencia para detectar efectos. Esto lo podemos ver mirando los intervalos de confianza que nos da la prueba de Scheffe:

    Tabla\(\PageIndex{2}\): Intervalos de confianza dados por la prueba de Scheffe
    Comparativa Diferencia CI HSD de Tukey
    Ninguno vs Relevante 40.60 (28.35, 52.85)
    Ninguno vs No Relacionado 19.50 (7.25, 31.75)
    Relevante vs No Relacionado 21.10 (8.85, 33.35)

    Como podemos ver, estos son un poco más anchos que los intervalos que obtuvimos del HSD de Tukey. Esto quiere decir que, siendo todas las demás cosas iguales, es más probable que contengan cero. En nuestro caso, sin embargo, los resultados son los mismos, y nuevamente concluimos que los tres grupos difieren entre sí.

    Hay muchas más pruebas post hoc que solo estas tres, y todas abordan la tarea de diferentes maneras, siendo algunas más conservadoras y otras más poderosas. En general, sin embargo, darán respuestas muy similares. Lo importante aquí es poder interpretar un análisis post hoc. Si se le dan intervalos de confianza de análisis post hoc, como los que se han visto anteriormente, léelos de la misma manera que leemos los intervalos de confianza en el capítulo 10: si contienen cero, no hay diferencia; si no contienen cero, hay una diferencia.


    This page titled 11.8: Pruebas Post Hoc is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Foster et al. (University of Missouri’s Affordable and Open Access Educational Resources Initiative) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.