12.1: Prueba de dos varianzas
- Page ID
- 150681
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Este capítulo introduce una nueva función de densidad de probabilidad, la\(F\) distribución. Esta distribución se utiliza para muchas aplicaciones, incluyendo ANOVA y para probar la igualdad a través de múltiples medias. Comenzamos con la\(F\) distribución y la prueba de hipótesis de diferencias en varianzas. A menudo es deseable comparar dos varianzas en lugar de dos promedios. Por ejemplo, a los administradores universitarios les gustaría que dos profesores universitarios que califiquen los exámenes tengan la misma variación en su calificación. Para que una tapa se ajuste a un recipiente, la variación en la tapa y el recipiente debe ser aproximadamente la misma. Un supermercado podría estar interesado en la variabilidad de los horarios de salida para dos damas. En finanzas, la varianza es una medida del riesgo y por lo tanto una pregunta interesante sería probar la hipótesis de que dos carteras de inversión diferentes tienen la misma varianza, la volatilidad.
Para realizar una\(F\) prueba de dos varianzas, es importante que sean ciertas las siguientes:
- Las poblaciones de las que se extraen las dos muestras están aproximadamente distribuidas normalmente.
- Las dos poblaciones son independientes entre sí.
A diferencia de la mayoría de las otras pruebas de hipótesis de este libro, la\(F\) prueba para la igualdad de dos varianzas es muy sensible a las desviaciones de la normalidad. Si las dos distribuciones no son normales, o cierran, la prueba puede dar un resultado sesgado para el estadístico de prueba.
Supongamos que se toma una muestra aleatoria de dos poblaciones normales independientes. Dejar\(\sigma_1^2\) y\(\sigma_2^2\) ser las varianzas poblacionales desconocidas\(s_1^2\) y\(s_2^2\) ser las varianzas muestrales. Deje que los tamaños de muestra sean\(n_1\) y\(n_2\). Dado que estamos interesados en comparar las dos varianzas de muestra, utilizamos la\(F\) relación:
\(F=\frac{\left[\frac{s_{1}^{2}}{\sigma_{1}^{2}}\right]}{\left[\frac{s_{2}^{2}}{\sigma_{2}^{2}}\right]}\)
\(F\)tiene la distribución\(F \sim F\left(n_{1}-1, n_{2}-1\right)\)
donde\(n_1 – 1\) están los grados de libertad para el numerador y\(n_2 – 1\) son los grados de libertad para el denominador.
Si la hipótesis nula es\(\sigma_{1}^{2}=\sigma_{2}^{2}\), entonces el\(F\) Ratio, estadístico de prueba, se convierte en\(F_{c}=\frac{\left[\frac{s_{1}^{2}}{\sigma_{1}^{2}}\right]}{\left[\frac{s_{2}^{2}}{\sigma_{2}^{2}}\right]}=\frac{s_{1}^{2}}{s_{2}^{2}}\)
Las diversas formas de las hipótesis probadas son:
Prueba de dos colas | Prueba de una cola | Prueba de una cola |
---|---|---|
\(\mathrm{H}_{0} : \sigma_{1}^{2}=\sigma_{2}^{2}\) | \(\mathrm{H}_{0} : \sigma_{1}^{2} \leq \sigma_{2}^{2}\) | \(\mathrm{H}_{0} : \sigma_{1}^{2} \geq \sigma_{2}^{2}\) |
\(\mathrm{H}_{1} : \sigma_{1}^{2} \neq \sigma_{2}^{2}\) | \(\mathrm{H}_{1} : \sigma_{1}^{2}>\sigma_{2}^{2}\) | \(\mathrm{H}_{1} : \sigma_{1}^{2}<\sigma_{2}^{2}\) |
Una forma más general de la hipótesis nula y alternativa para una prueba de dos colas sería:
\[H_{0} : \frac{\sigma_{1}^{2}}{\sigma_{2}^{2}}=\delta_{0}\nonumber\]
\[H_{a} : \frac{\sigma_{1}^{2}}{\sigma_{2}^{2}} \neq \delta_{0}\nonumber\]
Donde si se\(\delta_{0}=1\) trata de una simple prueba de la hipótesis de que las dos varianzas son iguales. Esta forma de hipótesis tiene el beneficio de permitir pruebas que son más que para diferencias simples y pueden acomodar pruebas para diferencias específicas como lo hicimos para diferencias en medias y diferencias en proporciones. Esta forma de la hipótesis también muestra la relación entre la\(F\) distribución y la\(\chi^2\): la\(F\) es una relación de dos distribuciones chi cuadradas una distribución que vimos en el último capítulo. Esto es útil para determinar los grados de libertad de la\(F\) distribución resultante.
Si las dos poblaciones tienen varianzas iguales, entonces\(s_1^2\) y\(s_2^2\) están cerca en valor y el estadístico de prueba,\(F_{c}=\frac{s_{1}^{2}}{s_{2}^{2}}\) es cercano a uno. Pero si las dos varianzas poblacionales son muy diferentes,\(s_1^2\) y\(s_2^2\) tienden a ser muy diferentes, también. Elegir\(s_1^2\) como la varianza de la muestra más grande hace que la relación sea mayor\(\frac{s_{1}^{2}}{s_{2}^{2}}\) a uno. Si\(s_1^2\) y\(s_2^2\) están muy separados, entonces\(F_{c}=\frac{s_{1}^{2}}{s_{2}^{2}}\) es un gran número.
Por lo tanto, si\(F\) es cercano a uno, la evidencia favorece la hipótesis nula (las dos varianzas poblacionales son iguales). Pero si\(F\) es mucho mayor que uno, entonces la evidencia está en contra de la hipótesis nula. En esencia, estamos preguntando si el estadístico F calculado, estadístico de prueba, es significativamente diferente de uno.
Para determinar los puntos críticos tenemos que encontrar\(F_{\alpha,df1,df2}\). Véase el Apéndice A para la\(F\) tabla. Esta\(F\) tabla tiene valores para diversos niveles de significancia de 0.1 a 0.001 designados como “p” en la primera columna. Para encontrar el valor crítico, elija el nivel de significancia deseado y siga hacia abajo y cruzando para encontrar el valor crítico en la intersección de los dos grados diferentes de libertad. La\(F\) distribución tiene dos grados diferentes de libertad, uno asociado al numerador\(_{df1}\), y otro asociado al denominador,\(_{df2}\) y para complicar las cosas la\(F\) distribución no es simétrica y cambia el grado de asimetría a medida que cambian los grados de libertad. Los grados de libertad en el numerador es\(n_1-1\), donde\(n_1\) está el tamaño de la muestra para el grupo 1, y los grados de libertad en el denominador es\(n_2-1\), donde\(n_2\) está el tamaño de la muestra para el grupo 2. \(F_{\alpha,df1,df2}\)dará el valor crítico en el extremo superior de la\(F\) distribución.
Para encontrar el valor crítico para el extremo inferior de la distribución, invierta los grados de libertad y divida el\(F\) -valor de la tabla en uno.
- Valor crítico de la cola superior:\(F_{\alpha,df1,df2}\)
- Menor valor crítico de la cola:\(1/F_{\alpha,df2,df1}\)
Cuando el valor calculado de\(F\) está entre los valores críticos, no en la cola, no podemos rechazar la hipótesis nula de que las dos varianzas provenían de una población con la misma varianza. Si el valor F calculado está en cualquiera de las dos colas no podemos aceptar la hipótesis nula tal como lo hemos estado haciendo para todas las pruebas previas de hipótesis.
Una forma alternativa de encontrar los valores críticos de la\(F\) distribución facilita el uso\(F\) de la tabla. Observamos en la\(F\) tabla -que todos los valores de\(F\) son mayores que uno por lo tanto el\(F\) valor crítico para la cola izquierda siempre será menor que uno porque para encontrar el valor crítico en la cola izquierda dividimos un\(F\) valor en el número uno como se muestra arriba. También observamos que si la varianza muestral en el numerador del estadístico de prueba es mayor que la varianza muestral en el denominador, el\(F\) valor resultante será mayor que uno. El método taquigráfico para esta prueba es así asegurarse de que la mayor de las dos varianzas de muestra se coloca en el numerador para calcular el estadístico de prueba. Esto significará que solo se tendrá que encontrar el valor crítico de la cola derecha en la\(F\) tabla -table.
Ejemplo 12.1
Dos instructores universitarios están interesados en saber si hay o no alguna variación en la forma en que califica los exámenes de matemáticas. Cada uno califica el mismo conjunto de 10 exámenes. Las calificaciones del primer instructor tienen una varianza de 52.3. Las calificaciones del segundo instructor tienen una varianza de 89.9. Pruebe la afirmación de que la varianza del primer instructor es menor. (En la mayoría de las universidades, es deseable que las variaciones de las calificaciones de los exámenes sean casi las mismas entre los instructores). El nivel de significancia es del 10%.
- Contestar
-
Solución 12.1
Sea 1 y 2 los subíndices que indiquen el primer y segundo instructor, respectivamente.
\(n_1 = n_2 = 10\).
\(H_{0} : \sigma_{1}^{2} \geq \sigma_{2}^{2}\)y\(H_{a} : \sigma_{1}^{2}<\sigma_{2}^{2}\)
Calcular el estadístico de prueba: Por la hipótesis nula (\(\sigma_{1}^{2} \geq \sigma_{2}^{2}\)), el\(F\) estadístico es:
\(F_{c}=\frac{s_{2}^{2}}{s_{1}^{2}}=\frac{89.9}{52.3}=1.719\)
Valor crítico para la prueba:\(F_{9,9}=5.35\) dónde\(n_1 – 1 = 9\) y\(n_2 – 1 = 9\).
Tomar una decisión: Como el\(F\) valor calculado no está en la cola no podemos rechazar\(H_0\).
Conclusión: Con un nivel de significancia del 10%, a partir de los datos, no hay evidencia suficiente para concluir que la varianza en las calificaciones para el primer instructor es menor.
Ejercicio 12.1
La Sociedad Coral de Nueva York divide a los cantantes masculinos en cuatro categorías, desde las voces más altas hasta las más bajas: Tenor1, Tenor2, Bass1, Bass2. En la tabla están las alturas de los hombres en los grupos Tenor1 y Bass2. Se sospecha que los hombres más altos tendrán voces más bajas, y que la varianza de altura también puede subir con las voces más bajas. ¿Tenemos buena evidencia de que la varianza de las alturas de los cantantes en cada uno de estos dos grupos (Tenor1 y Bass2) son diferentes?
Tenor1 | Bajo 2 | Tenor 1 | Bajo 2 | Tenor 1 | Bajo 2 |
---|---|---|---|---|---|
69 | 72 | 67 | 72 | 68 | 67 |
72 | 75 | 70 | 74 | 67 | 70 |
71 | 67 | 65 | 70 | 64 | 70 |
66 | 75 | 72 | 66 | 69 | |
76 | 74 | 70 | 68 | 72 | |
74 | 72 | 68 | 75 | 71 | |
71 | 72 | 64 | 68 | 74 | |
66 | 74 | 73 | 70 | 75 | |
68 | 72 | 66 | 72 |