Saltar al contenido principal
Library homepage
 
LibreTexts Español

12.3: La Corrección de Continuidad

  • Page ID
    151267
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Bien, es hora de un poco de digresión. Te he estado mintiendo un poco hasta ahora. Hay un pequeño cambio que debes hacer en tus cálculos siempre que solo tengas 1 grado de libertad. Se llama la “corrección de continuidad”, o a veces la corrección de Yates. Recuerda lo que señalé anteriormente: la prueba χ2 se basa en una aproximación, específicamente en el supuesto de que la distribución binomial comienza a parecerse a una distribución normal para N. grandes Un problema con esto es que a menudo no funciona del todo, especialmente cuando solo tienes 1 grado de libertad (por ejemplo, cuando estás haciendo una prueba de independencia en una tabla de contingencia 2×2). La razón principal de esto es que la verdadera distribución de muestreo para el estadístico X 2 es en realidad discreta (¡porque estás tratando con datos categóricos!) pero la distribución χ2 es continua. Esto puede introducir problemas sistemáticos. Específicamente, cuando N es pequeño y cuando df=1, la estadística de bondad de ajuste tiende a ser “demasiado grande”, lo que significa que en realidad tienes un valor α mayor de lo que piensas (o, equivalentemente, los valores p son un poco demasiado pequeños). Yates (1934) sugirió una solución simple, en la que se redefine la estadística de bondad de ajuste como:

    \(X^{2}=\sum_{i} \dfrac{\left(\left|E_{i}-O_{i}\right|-0.5\right)^{2}}{E_{i}}\)

    Básicamente, sólo resta 0.5 en todas partes. Por lo que puedo decir al leer el artículo de Yates, la corrección es básicamente un hack. No se deriva de ninguna teoría de principios: más bien, se basa en un examen del comportamiento de la prueba, y observando que la versión corregida parece funcionar mejor. Me siento obligado a explicar esto porque a veces verás a R (o cualquier otro software para el caso) introducir esta corrección, así que es algo útil saber de qué se tratan. Sabrás cuándo sucede, porque la salida R dirá explícitamente que ha utilizado una “corrección de continuidad” o “corrección de Yates”.


    This page titled 12.3: La Corrección de Continuidad is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.