Saltar al contenido principal
LibreTexts Español

9.6: Pruebas de Chi-cuadrado

  • Page ID
    151760
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\bs}{\boldsymbol}\)

    En esta sección, estudiaremos una serie de pruebas de hipótesis importantes que caen bajo el término general pruebas de chi-cuadrado. Estos se nombran, como se puede adivinar, porque en cada caso la estadística de prueba tiene (en el límite) una distribución chi-cuadrada. Si bien hay varias pruebas diferentes en esta categoría general, todas comparten algunos temas comunes:

    • En cada prueba, hay una o más muestras multinomiales subyacentes, Por supuesto, el modelo multinomial incluye como caso especial el modelo Bernoulli.
    • Cada prueba funciona comparando las frecuencias observadas de los diversos resultados con las frecuencias esperadas bajo la hipótesis nula.
    • Si el modelo no está completamente especificado, se deben estimar algunas de las frecuencias esperadas; esto reduce los grados de libertad en la distribución limitante de chi-cuadrado.

    Comenzaremos con el caso más sencillo, donde la derivación es la más directa; de hecho esta prueba equivale a una prueba que ya hemos estudiado. Luego pasamos a modelos sucesivamente más complicados.

    El modelo Bernoulli de una muestra

    Supongamos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de la distribución de Bernoulli con parámetro de éxito desconocido\(p \in (0, 1)\). Así, se trata de variables aleatorias independientes que toman los valores 1 y 0 con probabilidades\(p\) y\(1 - p\) respectivamente. Queremos probar\(H_0: p = p_0\) versus\(H_1: p \ne p_0\), donde\(p_0 \in (0, 1)\) se especifica. Por supuesto, ya hemos estudiado este tipo de pruebas en el modelo Bernoulli. Pero ten en cuenta que nuestros métodos en esta sección generalizarán a una variedad de nuevos modelos que aún no hemos estudiado.

    Dejar\(O_1 = \sum_{j=1}^n X_j\) y\(O_0 = n - O_1 = \sum_{j=1}^n (1 - X_j)\). Estas estadísticas dan el número de veces (frecuencia) que ocurren los resultados 1 y 0, respectivamente. Además, sabemos que cada uno tiene una distribución binomial;\(O_1\) tiene parámetros\(n\) y\(p\), mientras que\(O_0\) tiene parámetros\(n\) y\(1 - p\). En particular,\(\E(O_1) = n p\),\(\E(O_0) = n (1 - p)\), y\(\var(O_1) = \var(O_0) = n p (1 - p)\). Además, recordemos que\(O_1\) es suficiente para\(p\). Por lo tanto, cualquier buen estadístico de prueba debe ser una función de\(O_1\). A continuación, recordemos que cuando\(n\) es grande, la distribución de\(O_1\) es aproximadamente normal, por el teorema del límite central. Let\[ Z = \frac{O_1 - n p_0}{\sqrt{n p_0 (1 - p_0)}} \] Note que\(Z\) es la puntuación estándar de\(O_1\) under\(H_0\). De ahí\(n\) que si es grande,\(Z\) tiene aproximadamente la distribución normal estándar bajo\(H_0\), y por lo tanto\(V = Z^2\) tiene aproximadamente la distribución chi-cuadrada con 1 grado de libertad bajo\(H_0\). Como es habitual, vamos a\(\chi_k^2\) denotar la función cuantil de la distribución chi-cuadrada con\(k\) grados de libertad.

    Una prueba aproximada de\(H_0\) versus\(H_1\) a\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_1^2(1 - \alpha)\).

    La prueba anterior es equivalente a la prueba imparcial con estadística de prueba\(Z\) (la prueba normal aproximada) derivada en la sección de Pruebas en el modelo de Bernoulli.

    Para efectos de generalización, el resultado crítico en el siguiente ejercicio es una representación especial de\(V\). Dejar\(e_0 = n (1 - p_0)\) y\(e_1 = n p_0\). Obsérvese que estas son las frecuencias esperadas de los resultados 0 y 1, respectivamente, bajo\(H_0\).

    \(V\)se puede escribir en términos de las frecuencias observadas y esperadas de la siguiente manera:\[ V = \frac{(O_0 - e_0)^2}{e_0} + \frac{(O_1 - e_1)^2}{e_1} \]

    Esta representación muestra que nuestro estadístico de prueba\(V\) mide la discrepancia entre las frecuencias esperadas\(H_0\), por debajo y las frecuencias observadas. Por supuesto, grandes valores de\(V\) son evidencias a favor de\(H_1\). Por último, señalar que si bien hay dos términos en la expansión de\(V\) en el Ejercicio 3, sólo hay un grado de libertad desde entonces\(O_0 + O_1 = n\). Las frecuencias observadas y esperadas podrían almacenarse en una\(1 \times 2\) tabla.

    El modelo Bernoulli de múltiples muestras

    Supongamos ahora que tenemos muestras de varios (posiblemente) diferentes procesos de ensayos de Bernoulli independientes. Específicamente, supongamos que\(\bs{X}_i = (X_{i,1}, X_{i,2}, \ldots, X_{i,n_i})\) es una muestra aleatoria de tamaño\(n_i\) de la distribución de Bernoulli con parámetro de éxito desconocido\(p_i \in (0, 1)\) para cada uno\(i \in \{1, 2, \ldots, m\}\). Además, las muestras\((\bs{X}_1, \bs{X}_2, \ldots, \bs{X}_m)\) son independientes. Queremos probar hipótesis sobre el vector de parámetro desconocido\(\bs{p} = (p_1, p_2, \ldots, p_m)\). Hay dos casos comunes que consideramos a continuación, pero primero vamos a configurar la notación esencial que necesitaremos para ambos casos. Para\(i \in \{1, 2, \ldots, m\}\) y\(j \in \{0, 1\}\), vamos a\(O_{i,j}\) denotar el número de veces que\(j\) se produce el resultado en la muestra\(\bs{X}_i\). La frecuencia observada\(O_{i,j}\) tiene una distribución binomial;\(O_{i,1}\) tiene parámetros\(n_i\) y\(p_i\) mientras que\(O_{i,0}\) tiene parámetros\(n_i\) y\(1 - p_i\).

    El caso completamente especificado

    Considere un vector de parámetro especificado\(\bs{p}_0 = (p_{0,1}, p_{0,2}, \ldots, p_{0,m}) \in (0, 1)^m\). Queremos probar la hipótesis nula\(H_0: \bs{p} = \bs{p}_0\), versus\(H_1: \bs{p} \ne \bs{p}_0\). Dado que la hipótesis nula especifica el valor de\(p_i\) para cada uno\(i\), esto se llama el caso completamente especificado. Ahora vamos\(e_{i,0} = n_i (1 - p_{i,0})\) y vamos\(e_{i,1} = n_i p_{i,0}\). Estas son las frecuencias esperadas de los resultados 0 y 1, respectivamente, de la muestra\(\bs{X}_i\) inferior\(H_0\).

    Si\(n_i\) es grande para cada uno\(i\), entonces bajo\(H_0\) el siguiente estadístico de prueba tiene aproximadamente la distribución chi-cuadrada con\(m\) grados de libertad:\[ V = \sum_{i=1}^m \sum_{j=0}^1 \frac{(O_{i,j} - e_{i,j})^2}{e_{i,j}} \]

    Prueba

    Esto se desprende del resultado anterior y la independencia.

    Como regla general, grandes medios que necesitamos\(e_{i,j} \ge 5\) para cada uno\(i \in \{1, 2, \ldots, m\}\) y\(j \in \{0, 1\}\). Pero claro, cuanto mayores sean estas frecuencias esperadas, mejor.

    Bajo el supuesto de muestra grande, una prueba aproximada de\(H_0\) versus\(H_1\) en el\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_m^2(1 - \alpha)\).

    Una vez más, señalar que el estadístico de prueba\(V\) mide la discrepancia entre las frecuencias esperadas y observadas, sobre todos los resultados y todas las muestras. Hay\(2 \, m\) términos en la expansión de\(V\) en el Ejercicio 4, pero sólo\(m\) grados de libertad, ya que\(O_{i,0} + O_{i,1} = n_i\) para cada uno\(i \in \{1, 2, \ldots, m\}\). Las frecuencias observadas y esperadas podrían almacenarse en una\(m \times 2\) tabla.

    El caso de igual probabilidad

    Supongamos ahora que queremos probar la hipótesis nula de\(H_0: p_1 = p_2 = \cdots = p_m\) que todas las probabilidades de éxito son iguales, frente a la hipótesis alternativa complementaria de\(H_1\) que las probabilidades no son todas iguales. Obsérvese, en contraste con el modelo anterior, que la hipótesis nula no especifica el valor de la probabilidad de éxito común\(p\). Pero tenga en cuenta también que bajo la hipótesis nula, las\(m\) muestras se pueden combinar para formar una gran muestra de ensayos de Bernoulli con probabilidad de éxito\(p\). Así, un enfoque natural es estimar\(p\) y luego definir el estadístico de prueba que mide la discrepancia entre las frecuencias esperadas y observadas, al igual que antes. El reto será encontrar la distribución del estadístico de prueba.

    Dejar\(n = \sum_{i=1}^m n_i\) denotar el tamaño total de la muestra cuando se combinan las muestras. Entonces la media muestral general, que en este contexto es la proporción muestral general de éxitos, es\[ P = \frac{1}{n} \sum_{i=1}^m \sum_{j=1}^{n_i} X_{i,j} = \frac{1}{n} \sum_{i=1}^m O_{i,1} \] La proporción muestral\(P\) es la mejor estimación de\(p\), en casi cualquier sentido de la palabra. A continuación, vamos\(E_{i,0} = n_i \, (1 - P)\) y\(E_{i,1} = n_i \, P\). Estas son las frecuencias esperadas estimadas de 0 y 1, respectivamente, a partir de la muestra\(\bs{X}_i\) inferior\(H_0\). Por supuesto, estas frecuencias estimadas son ahora estadísticas (y por lo tanto aleatorias) en lugar de parámetros. Al igual que antes, definimos nuestro estadístico de prueba\[ V = \sum_{i=1}^m \sum_{j=0}^1 \frac{(O_{i,j} - E_{i,j})^2}{E_{i,j}} \] Resulta que bajo\(H_0\), la distribución de\(V\) converge a la distribución chi-cuadrada con\(m - 1\) grados de libertad como\(n \to \infty\).

    Una prueba aproximada de\(H_0\) versus\(H_1\) a\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_{m-1}^2(1 - \alpha)\).

    Intuitivamente, perdimos un grado de libertad sobre el caso completamente especificado porque tuvimos que estimar la probabilidad de éxito común desconocida\(p\). Nuevamente, las frecuencias observadas y esperadas podrían almacenarse en una\(m \times 2\) tabla.

    El modelo multinomial de una muestra

    Nuestro siguiente modelo generaliza el modelo Bernoulli de una muestra en una dirección diferente. Supongamos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una secuencia de ensayos multinomiales. Así, estas son variables aleatorias independientes, distribuidas idénticamente, cada una tomando valores en un conjunto\(S\) con\(k\) elementos. Si queremos, podemos suponer que\(S = \{0, 1, \ldots, k - 1\}\); el modelo de Bernoulli de una muestra corresponde entonces a\(k = 2\). Dejar\(f\) denotar la función de densidad de probabilidad común de las variables de muestra on\(S\), de modo que\(f(j) = \P(X_i = j)\) para\(i \in \{1, 2, \ldots, n\}\) y\(j \in S\). Los valores de\(f\) se asumen desconocidos, pero claro que debemos tener\(\sum_{j \in S} f(j) = 1\), así que en realidad solo hay parámetros\(k - 1\) desconocidos. Para una función de densidad\(f_0\) de probabilidad dada\(S\) queremos probar\(H_0: f = f_0\) versus\(H_1: f \ne f_0\).

    En este momento, nuestro enfoque general debería ser claro. Dejamos\(O_j\) denotar el número de veces que\(j \in S\) se produce el resultado en la muestra\(\bs{X}\):\[ O_j = \sum_{i=1}^n \bs{1}(X_i = j) \] Tenga en cuenta que\(O_j\) tiene la distribución binomial con parámetros\(n\) y\(f(j)\). Así,\(e_j = n \, f_0(j)\) es el número esperado de veces que\(j\) se produce ese desenlace, bajo\(H_0\). Fuera estadística de prueba, por supuesto, es\[ V = \sum_{j \in S} \frac{(O_j - e_j)^2}{e^j} \] Resulta que bajo\(H_0\), la distribución de\(V\) converge a la distribución chi-cuadrada con\(k - 1\) grados de libertad como\(n \to \infty\). Tenga en cuenta que hay\(k\) términos en la expansión de\(V\), pero sólo\(k - 1\) grados de libertad desde entonces\(\sum_{j \in S} O_j = n\).

    Una prueba aproximada de\(H_0\) versus\(H_1\) a\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_{k-1}^2(1 - \alpha)\).

    Nuevamente, como regla general, necesitamos\(e_j \ge 5\) para cada uno\(j \in S\), pero cuanto mayores sean las frecuencias esperadas mejor.

    El modelo multinomial de múltiples muestras

    Como puedes adivinar, nuestra generalización final es para el modelo multinomial multimuestra. Específicamente, supongamos que\(\bs{X}_i = (X_{i,1}, X_{i,2}, \ldots, X_{i,n_i})\) es una muestra aleatoria de tamaño\(n_i\) a partir de una distribución en un conjunto\(S\) con\(k\) elementos, para cada uno\(i \in \{1, 2, \ldots, m\}\). Además, asumimos que las muestras\((\bs{X}_1, \bs{X}_2, \ldots, \bs{X}_m)\) son independientes. Nuevamente no hay pérdida en generalidad si tomamos\(S = \{0, 1, \ldots, k - 1\}\). Luego se\(k = 2\) reduce al modelo de Bernoulli multimuestra, y\(m = 1\) corresponde al modelo multinomial de una muestra.

    Dejar\(f_i\) denotar la función de densidad de probabilidad común de las variables en muestra\(\bs{X}_i\), de modo que\(f_i(j) = \P(X_{i,l} = j)\) para\(i \in \{1, 2, \ldots, m\}\),\(l \in \{1, 2, \ldots, n_i\}\), y\(j \in S\). Éstas son generalmente desconocidas, por lo que nuestro vector de parámetros es el vector de funciones de densidad de probabilidad:\(\bs{f} = (f_1, f_2, \ldots, f_m)\). Por supuesto,\(\sum_{j \in S} f_i(j) = 1\) para\(i \in \{1, 2, \ldots, m\}\), así que en realidad hay parámetros\(m \, (k - 1)\) desconocidos. Nos interesa probar hipótesis sobre\(\bs{f}\). Al igual que en el modelo de Bernoulli multimuestra, hay dos casos comunes que consideramos a continuación, pero primero vamos a configurar la notación esencial que necesitaremos para ambos casos. Para\(i \in \{1, 2, \ldots, m\}\) y\(j \in S\), vamos a\(O_{i,j}\) denotar el número de veces que\(j\) se produce el resultado en la muestra\(\bs{X}_i\). La frecuencia observada\(O_{i,j}\) tiene una distribución binomial con parámetros\(n_i\) y\(f_i(j)\).

    El caso completamente especificado

    Considerar un vector dado de funciones de densidad de probabilidad en\(S\), denotado\(\bs{f}_0 = (f_{0,1}, f_{0,2}, \ldots, f_{0,m})\). Queremos probar la hipótesis nula\(H_0: \bs{f} = \bs{f}_0\), versus\(H_1: \bs{f} \ne \bs{f}_0\). Dado que la hipótesis nula especifica el valor de\(f_i(j)\) para cada\(i\) y\(j\), esto se llama el caso completamente especificado. Vamos\(e_{i,j} = n_i \, f_{0,i}(j)\). Esta es la frecuencia esperada de desenlace\(j\) en la muestra\(\bs{X}_i\) bajo\(H_0\).

    Si\(n_i\) es grande para cada uno\(i\), entonces debajo\(H_0\), el estadístico de prueba\(V\) a continuación tiene aproximadamente la distribución chi-cuadrada con\(m \, (k - 1)\) grados de libertad:\[ V = \sum_{i=1}^m \sum_{j \in S} \frac{(O_{i,j} - e_{i,j})^2}{e_{i,j}} \]

    Prueba

    Esto se desprende del caso multinomial de una muestra y la independencia.

    Como es habitual, nuestra regla general es que necesitamos\(e_{i,j} \ge 5\) para cada uno\(i \in \{1, 2, \ldots, m\}\) y\(j \in S\). Pero claro, cuanto mayores sean estas frecuencias esperadas, mejor.

    Bajo el supuesto de muestra grande, una prueba aproximada de\(H_0\) versus\(H_1\) en el\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_{m \, (k - 1)}^2(1 - \alpha)\).

    Como siempre, el estadístico de prueba\(V\) mide la discrepancia entre las frecuencias esperadas y observadas, sobre todos los resultados y todas las muestras. Hay\(m k\) términos en la expansión de\(V\) en el Ejercicio 8, pero perdemos\(m\) grados de libertad, ya que\(\sum_{j \in S} O_{i,j} = n_i\) para cada uno\(i \in \{1, 2, \ldots, m\}\).

    El caso PDF Equal

    Supongamos ahora que queremos probar la hipótesis nula de\(H_0: f_1 = f_2 = \cdots = f_m\) que todas las funciones de densidad de probabilidad son iguales, frente a la hipótesis alternativa complementaria de\(H_1\) que las funciones de densidad de probabilidad no son todas iguales. Obsérvese, en contraste con el modelo anterior, que la hipótesis nula no especifica el valor de la función de densidad de probabilidad de éxito común\(f\). Pero tenga en cuenta también que bajo la hipótesis nula, las\(m\) muestras se pueden combinar para formar una gran muestra de ensayos multinomiales con función de densidad de probabilidad\(f\). Así, un enfoque natural es estimar los valores de\(f\) y luego definir el estadístico de prueba que mide la discrepancia entre las frecuencias esperadas y observadas, al igual que antes.

    Dejar\(n = \sum_{i=1}^m n_i\) denotar el tamaño total de la muestra cuando se combinan las muestras. Bajo\(H_0\), nuestra mejor estimación de\(f(j)\) es\[ P_j = \frac{1}{n} \sum_{i=1}^m O_{i,j} \] De ahí que nuestra estimación de la frecuencia esperada de desenlace\(j\) en la muestra\(\bs{X}_i\) bajo\(H_0\) es\(E_{i,j} = n_i P_j\). Nuevamente, esta frecuencia estimada es ahora una estadística (y por lo tanto aleatoria) en lugar de un parámetro. Así como antes, definimos nuestra estadística de prueba\[ V = \sum_{i=1}^m \sum_{j \in S} \frac{(O_{i,j} - E_{i,j})^2}{E_{i,j}} \] Como sin duda se espera a estas alturas, resulta que bajo\(H_0\), la distribución de\(V\) converge a una distribución chi-cuadrada como\(n \to \infty\). Pero veamos si podemos determinar heurísticamente los grados de libertad.

    La distribución limitante de\(V\) tiene\((k - 1) (m - 1)\) grados de libertad.

    Prueba

    Hay\(k \, m\) términos en la expansión de\(V\). Perdemos\(m\) grados de libertad ya que\(\sum_{j \in S} O_{i,j} = n_i\) para cada uno\(i \in \{1, 2, \ldots, m\}\). Debemos estimar todas menos una de las probabilidades\(f(j)\) para\(j \in S\), perdiendo así\(k - 1\) grados de libertad.

    Una prueba aproximada de\(H_0\) versus\(H_1\) a\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_{(k - 1) \, (m - 1)}^2(1 -\alpha)\).

    Una prueba de bondad de ajuste

    Una prueba de bondad de ajuste es una prueba de hipótesis de que una distribución de muestreo desconocida es una distribución particular, especificada o pertenece a una familia paramétrica de distribuciones. Tales pruebas son claramente fundamentales e importantes. El modelo multinomial de una muestra conduce a una prueba de bondad de ajuste bastante general.

    Para establecer el escenario, supongamos que tenemos una variable aleatoria observable\(X\) para un experimento, tomando valores en un conjunto general\(S\). La variable aleatoria\(X\) puede tener una distribución continua o discreta, y puede ser de una sola variable o multivariable. Queremos probar la hipótesis nula que\(X\) tiene una distribución dada, completamente especificada, o que la distribución de\(X\) pertenece a una familia paramétrica particular.

    Nuestro primer paso, en cualquier caso, es muestrear a partir de la distribución de\(X\) para obtener una secuencia de variables independientes, distribuidas idénticamente\(\bs{X} = (X_1, X_2, \ldots, X_n)\). A continuación, seleccionamos\(k \in \N_+\) y particionamos\(S\) en subconjuntos\(k\) (disjuntos). Denotaremos la partición por\(\{A_j: j \in J\}\) dónde\(\#(J) = k\). A continuación, definimos la secuencia de variables aleatorias\(\bs{Y} = (Y_1, Y_2, \ldots, Y_n)\) por\(Y_i = j\) if y solo if\(X_i \in A_j\) for\(i \in \{1, 2, \ldots, n\}\) y\(j \in J\).

    \(\bs{Y}\)es una secuencia de ensayos multinomiales con parámetros\(n\) y\(f\), donde\(f(j) = \P(X \in A_j)\) para\(j \in J\).

    El caso completamente especificado

    Vamos a\(H\) denotar el\(X\) enunciado que tiene una distribución dada, completamente especificada. Let\(f_0\) denotar la función de densidad de probabilidad en\(J\) definido por\(f_0(j) = \P(X \in A_j \mid H)\) for\(j \in J\). Para probar hipótesis\(H\), podemos probar formalmente\(H_0: f = f_0\) versus\(H_1: f \ne f_0\), que por supuesto, es precisamente el problema que resolvimos en el modelo multinomial de una muestra.

    Generalmente, partiríamos el espacio\(S\) en tantos subconjuntos como sea posible, sujeto a la restricción de que todas las frecuencias esperadas sean al menos 5.

    El caso parcialmente especificado

    A menudo realmente no queremos probar si\(X\) tiene una distribución completamente especificada (como la distribución normal con media 5 y varianza 9), sino si la distribución de\(X\) pertenece a una familia paramétrica especificada (como la normal). Un curso de acción natural en este caso sería estimar los parámetros desconocidos y luego proceder tal como se indicó anteriormente. Como hemos visto antes, las frecuencias esperadas serían estadísticas\(E_j\) porque estarían basadas en los parámetros estimados. Como regla general, perdemos un grado de libertad en el estadístico chi-cuadrado\(V\) para cada parámetro que estimamos, aunque las matemáticas precisas pueden ser complicadas.

    Una prueba de independencia

    Supongamos que tenemos variables aleatorias observables\(X\) y\(Y\) para un experimento, donde\(X\) toma valores en un conjunto\(S\) con\(k\) elementos, y\(Y\) toma valores en un conjunto\(T\) con\(m\) elementos. Dejar\(f\) denotar la función de densidad de probabilidad conjunta de\((X, Y)\), de modo que\(f(i, j) = \P(X = i, Y = j)\) para\(i \in S\) y\(j \in T\). Recordemos que las funciones de densidad de probabilidad marginal de\(X\)\(g\) y\(Y\) son las funciones y\(h\) respectivamente, donde\ begin {align} g (i) = &\ sum_ {j\ in T} f (i, j),\ quad i\ in S\\ h (j) = &\ sum_ {i\ in S} f (i, j),\ quad j\ in T\ end {align} Normalmente, por supuesto, \(f\),\(g\), y\(h\) se desconocen. En esta sección, nos interesa probar si\(X\) y\(Y\) somos independientes, una prueba básica e importante. Formalmente entonces queremos probar la hipótesis nula\[ H_0: f(i, j) = g(i) \, h(j), \quad (i, j) \in S \times T \] versus la alternativa complementaria\(H_1\).

    Nuestro primer paso, por supuesto, es dibujar una muestra aleatoria a\((\bs{X}, \bs{Y}) = ((X_1, Y_1), (X_2, Y_2), \ldots, (X_n, Y_n))\) partir de la distribución de\((X, Y)\). Dado que los espacios estatales son finitos, esta muestra forma una secuencia de ensayos multinomiales. Así, con nuestra notación habitual, vamos a\(O_{i,j}\) denotar el número de veces que\((i, j)\) ocurre en la muestra, para cada una\((i, j) \in S \times T\). Esta estadística tiene la distribución binomial con parámetro de ensayo\(n\) y parámetro de éxito\(f(i, j)\). Bajo\(H_0\), el parámetro de éxito es\(g(i) \, h(j)\). Sin embargo, como no conocemos los parámetros de éxito, debemos estimarlos para poder calcular las frecuencias esperadas. Nuestra mejor estimación\(f(i, j)\) es la proporción muestral\(\frac{1}{n} O_{i,j}\). Así, nuestras mejores estimaciones de\(g(i)\) y\(h(j)\) son\(\frac{1}{n} N_i\) y\(\frac{1}{n} M_j\), respectivamente, dónde\(N_i\) está el número de veces que\(i\) ocurre en la muestra\(\bs{X}\) y\(M_j\) es el número de veces que\(j\) ocurre en la muestra\(\bs{Y}\):\ begin {align} n_i & =\ suma_ {j\ in T} O_ {i, j}\\ m_j & =\ suma_ {i\ in S} O_ {i, j}\ end {align} Así, nuestra estimación de la frecuencia esperada de\((i, j)\) bajo\(H_0\) es\[ E_{i,j} = n \, \frac{1}{n} \, N_i \frac{1}{n} \, M_j = \frac{1}{n} \, N_i \, M_j \] Por supuesto, definimos nuestra estadística de prueba por\[ V = \sum_{i \in J} \sum_{j \in T} \frac{(O_{i,j} - E_{i,j})^2}{E_{i,j}} \] Como ahora esperas, la distribución de\(V\) converge a una distribución chi-cuadrada como\(n \to \infty\). Pero veamos si podemos determinar los grados de libertad apropiados por motivos heurísticos.

    La distribución limitante de\(V\) tiene\((k - 1) \, (m - 1)\) grados de libertad.

    Prueba

    Hay\(k m\) términos en la expansión de\(V\). Perdemos un grado de libertad desde entonces\(\sum_{i \in S} \sum_{j \in T} O_{i,j} = n\). Debemos estimar todas menos una de las probabilidades\(g(i)\) para\(i \in S\), perdiendo así\(k - 1\) grados de libertad. Debemos estimar todas menos una de las probabilidades\(h(j)\) para\(j \in T\), perdiendo así\(m - 1\) grados de libertad.

    Una prueba aproximada de\(H_0\) versus\(H_1\) a\(\alpha\) nivel de significancia es rechazar\(H_0\) si y solo si\(V \gt \chi_{(k-1) (m-1)}^2(1 - \alpha)\).

    Las frecuencias observadas a menudo se registran en una\(k \times m\) tabla, conocida como tabla de contingencia, de manera que ese\(O_{i,j}\) es el número en fila\(i\) y columna\(j\). En esta configuración, tenga en cuenta que\(N_i\) es la suma de las frecuencias en la fila\(i\) th y\(M_j\) es la suma de las frecuencias en la\(j\) ésima columna. También, por razones históricas, las variables\(X\) aleatorias ya veces se denominan factores y los posibles valores de las categorías variables.\(Y\)

    Ejercicios computacionales y de simulación

    Ejercicios Computacionales

    En cada uno de los siguientes ejercicios, especifique el número de grados de libertad del estadístico chi-cuadrado, dé el valor del estadístico y calcule el\(P\) -valor de la prueba.

    Una moneda es arrojada 100 veces, resultando en 55 cabezas. Prueba la hipótesis nula de que la moneda es justa.

    Contestar

    1 grado de libertad,\(V = 1\),\(P = 0.3173\).

    Supongamos que tenemos 3 monedas. Las monedas son lanzadas, arrojando los datos en la siguiente tabla:

    Cabezales Tails
    Moneda 1 29 21
    Moneda 2 23 17
    Moneda 3 42 18
    1. Pruebe la hipótesis nula de que las 3 monedas son justas.
    2. Pruebe la hipótesis nula de que la moneda 1 tiene probabilidad de cabezas\(\frac{3}{5}\); la moneda 2 es justa; y la moneda 3 tiene probabilidad de cabezas\(\frac{2}{3}\).
    3. Prueba la hipótesis nula de que las 3 monedas tienen la misma probabilidad de cabezas.
    Contestar
    1. 3 grado de libertad,\(V = 11.78\),\(P = 0.008\).
    2. 3 grado de libertad,\(V = 1.283\),\(P = 0.733\).
    3. 2 grado de libertad,\(V = 2.301\),\(P = 0.316\).

    Se lanza un dado 240 veces, dando los datos en la siguiente tabla:

    Score 1 2 3 4 5 6
    Frecuencia 57 39 28 28 36 52
    1. Pruebe la hipótesis nula de que el dado es justo.
    2. Pruebe la hipótesis nula de que el dado es un troquel plano as-seis (las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una mientras que las caras 2, 3, 4 y 5 tienen probabilidad\(\frac{1}{8}\) cada una).
    Responder
    1. 5 grado de libertad,\(V = 18.45\),\(P = 0.0024\).
    2. 5 grado de libertad,\(V = 5.383\),\(P = 0.3709\).

    Se lanzan dos dados, dando los datos en la siguiente tabla:

    Score 1 2 3 4 5 6
    Muere 1 22 17 22 13 22 24
    Muere 2 44 24 19 19 18 36
    1. Pruebe la hipótesis nula de que morir 1 es justo y morir 2 es un plano de as-seis.
    2. Pruebe la hipótesis nula de que todos los dados tienen la misma distribución de probabilidad.
    Responder
    1. 10 grado de libertad,\(V = 6.2\),\(P = 0.798\).
    2. 5 grado de libertad,\(V = 7.103\),\(P = 0.213\).

    Una universidad clasifica a los profesores por rango como instructores, profesores asistentes, profesores asociados y profesores titulares. Los datos, por rango de facultad y género, se dan en la siguiente tabla de contingencias. Prueba para ver si el rango de facultad y el género son independientes.

    Facultad Instructor Profesor Asistente Profesor Asociado Profesor Titular
    Macho 62 238 185 115
    Hembra 118 122 123 37
    Responder

    3 grados de libertad,\(V = 70.111\),\(P \approx 0\).

    Ejercicios de Análisis de Datos

    El conjunto de datos del ensayo Buffon da los resultados de 104 repeticiones del experimento con aguja de Buffon. El número de cruces de grietas es de 56. En teoría, este conjunto de datos debe corresponder a 104 ensayos de Bernoulli con probabilidad de éxito\(p = \frac{2}{\pi}\). Prueba para ver si esto es razonable.

    Responder

    1 grado de libertad,\(V = 4.332\),\(P = 0.037\).

    Prueba para ver si los datos de emisiones alfa provienen de una distribución de Poisson.

    Responder

    Particionamos\(\N\) en 17 subconjuntos:\(\{0, 1\}\),\(\{x\}\) for\(x \in \{2, 3, \ldots, 16\}\), y\(\{17, 18, \ldots \}\). Hay 15 grados de libertad. El parámetro de Poisson estimado es 8.367,\(V = 9.644\),\(P = 0.842\).

    Prueba para ver si los datos de velocidad de la luz de Michelson provienen de una distribución normal.

    Responder

    Usando la siguiente partición de\(\R\):\(\{(-\infty, 750), [750, 775), [775, 800), [800, 825), [825, 850), [850, 875), [875, 900), [900, 925), [925, 950), [950, 975), [975, \infty)\}\). Tenemos 8 grados de libertad,\(V = 11.443\),\(P = 0.178\).

    Ejercicios de simulación

    En los ejercicios de simulación a continuación, podrás explorar empíricamente la prueba de bondad de ajuste.

    En el experimento de bondad de ajuste de dados, establezca la distribución muestral en justa, el tamaño de la muestra a 50 y el nivel de significancia a 0.1. Establezca la distribución de prueba como se indica a continuación y en cada caso, ejecute la simulación 1000 veces. En el caso (a), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.1. En los demás casos, dar la estimación empírica de la potencia de la prueba. Clasificar las distribuciones en (b) - (d) en orden creciente de poder aparente. ¿Tus resultados parecen razonables?

    1. feria
    2. ace-six pisos
    3. la distribución simétrica, unimodal
    4. la distribución sesgada a la derecha

    En el experimento de bondad de ajuste de dados, establezca la distribución del muestreo en ace-seis planos, el tamaño de la muestra en 50 y el nivel de significancia en 0.1. Establezca la distribución de prueba como se indica a continuación y en cada caso, ejecute la simulación 1000 veces. En el caso (a), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.1. En los demás casos, dar la estimación empírica de la potencia de la prueba. Clasificar las distribuciones en (b) - (d) en orden creciente de poder aparente. ¿Tus resultados parecen razonables?

    1. feria
    2. ace-six pisos
    3. la distribución simétrica, unimodal
    4. la distribución sesgada a la derecha

    En el experimento de bondad de ajuste de dados, establezca la distribución muestral a la distribución simétrica, unimodal, el tamaño de la muestra a 50 y el nivel de significancia a 0.1. Establezca la distribución de prueba como se indica a continuación y en cada caso, ejecute la simulación 1000 veces. En el caso (a), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.1. En los demás casos, dar la estimación empírica de la potencia de la prueba. Clasificar las distribuciones en (b) - (d) en orden creciente de poder aparente. ¿Tus resultados parecen razonables?

    1. la distribución simétrica, unimodal
    2. feria
    3. ace-six pisos
    4. la distribución sesgada a la derecha

    En el experimento de bondad de ajuste de dados, establezca la distribución muestral a la distribución sesgada a la derecha, el tamaño de la muestra a 50 y el nivel de significancia a 0.1. Establezca la distribución de prueba como se indica a continuación y en cada caso, ejecute la simulación 1000 veces. En el caso (a), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.1. En los demás casos, dar la estimación empírica de la potencia de la prueba. Clasificar las distribuciones en (b) - (d) en orden creciente de poder aparente. ¿Tus resultados parecen razonables?

    1. la distribución sesgada a la derecha
    2. feria
    3. ace-six pisos
    4. la distribución simétrica, unimodal

    Supongamos que\(D_1\) y\(D_2\) son distribuciones diferentes. ¿La potencia de la prueba con distribución de muestreo\(D_1\) y distribución de prueba es\(D_2\) la misma que la potencia de la prueba con distribución de muestreo\(D_2\) y distribución de prueba\(D_1\)? Haz una conjetura basada en tus resultados en los tres ejercicios anteriores.

    En el experimento de bondad de ajuste de dados, establezca las distribuciones de muestreo y prueba en justas y el nivel de significancia en 0.05. Ejecutar el experimento 1000 veces para cada uno de los siguientes tamaños de muestra. En cada caso, dar la estimación empírica del nivel de significancia y comparar con 0.05.

    1. \(n = 10\)
    2. \(n = 20\)
    3. \(n = 40\)
    4. \(n = 100\)

    En el experimento de bondad de ajuste de dados, establezca la distribución muestral en justa, las distribuciones de prueba a ace-seis pisos y el nivel de significancia a 0.05. Ejecutar el experimento 1000 veces para cada uno de los siguientes tamaños de muestra. En cada caso, dar la estimación empírica de la potencia de la prueba. ¿Los poderes parecen estar convergiendo?

    1. \(n = 10\)
    2. \(n = 20\)
    3. \(n = 40\)
    4. \(n = 100\)

    This page titled 9.6: Pruebas de Chi-cuadrado is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.