Saltar al contenido principal

# 9.4: Pruebas en el Modelo Normal de Dos Muestras

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\Z}{\mathbb{Z}}$$$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\bs}{\boldsymbol}$$$$\newcommand{\cov}{\text{cov}}$$

En esta sección, estudiaremos las pruebas de hipótesis en el modelo normal de dos muestras y en el modelo normal bivariado. Esta sección es paralela a la sección sobre Estimación en el Modelo Normal de Dos Muestras en el capítulo sobre Estimación de Intervalos.

## El modelo normal de dos muestras

Supongamos que$$\bs{X} = (X_1, X_2, \ldots, X_n)$$ es una muestra aleatoria$$m$$ de tamaño de la distribución normal con media$$\mu$$ y desviación estándar$$\sigma$$, y que$$\bs{Y} = (Y_1, Y_2, \ldots, Y_n)$$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución normal con media$$\nu$$ y desviación estándar$$\tau$$. Además, supongamos que las muestras$$\bs{X}$$ y$$\bs{Y}$$ son independientes.

Este tipo de situación surge frecuentemente cuando las variables aleatorias representan una medida de interés para los objetos de la población, y las muestras corresponden a dos tratamientos diferentes. Por ejemplo, podríamos estar interesados en la presión arterial de cierta población de pacientes. El$$\bs{X}$$ vector registra las presiones sanguíneas de una muestra control, mientras que el$$\bs{Y}$$ vector registra las presiones sanguíneas de la muestra que recibe un nuevo medicamento. De igual manera, podríamos estar interesados en el rendimiento de un acre de maíz. El$$\bs{X}$$ vector registra los rendimientos de una muestra que recibe un tipo de fertilizante, mientras que el$$\bs{Y}$$ vector registra los rendimientos de una muestra que recibe un tipo diferente de fertilizante.

Por lo general, nuestro interés está en una comparación de los parámetros (ya sea la media o varianza) para las dos distribuciones de muestreo. En esta sección construiremos pruebas para la diferencia de las medias y la relación de las varianzas. Al igual que con los problemas de estimación anteriores que hemos estudiado, los procedimientos varían dependiendo de qué parámetros se conocen o desconocen. También como antes, elementos clave en la construcción de las pruebas son las medias muestrales y varianzas muestrales y las propiedades especiales de estas estadísticas cuando la distribución muestral es normal.

Utilizaremos la siguiente notación para la media muestral y varianza muestral de una muestra genérica$$\bs{U} = (U_1, U_2, \ldots, U_k)$$:

$M(\bs{U}) = \frac{1}{k} \sum_{i=1}^k U_i, \quad S^2(\bs{U}) = \frac{1}{k - 1} \sum_{i=1}^k [U_i - M(\bs{U})]^2$

### Pruebas de la Diferencia en las Medias con Desviaciones Estándar Conocidas

Nuestra primera discusión se refiere a pruebas para la diferencia en las medias$$\nu - \mu$$ bajo el supuesto de que las desviaciones estándar$$\sigma$$ y$$\tau$$ son conocidas. Esto suele ser, pero no siempre, una suposición poco realista. En algunos problemas estadísticos, las varianzas son estables, y se conocen al menos aproximadamente, mientras que las medias pueden ser diferentes debido a diferentes tratamientos. También este es un buen lugar para comenzar porque el análisis es bastante sencillo.

Para una diferencia conjeturada de las medias$$\delta \in \R$$, defina el estadístico de prueba$Z = \frac{[M(\bs{Y}) - M(\bs{X})] - \delta}{\sqrt{\sigma^2 / m + \tau^2 / n}}$

1. Si$$\nu - \mu = \delta$$ entonces$$Z$$ tiene la distribución normal estándar.
2. Si$$\nu - \mu \ne \delta$$ entonces$$Z$$ tiene la distribución normal con media$$[(\nu - \mu) - \delta] \big/ {\sqrt{\sigma^2 / m + \tau^2 / n}}$$ y varianza 1.
Prueba

De las propiedades de las muestras normales,$$M(\bs{X})$$ tiene una distribución normal con media$$\mu$$ y varianza$$\sigma^2 / m$$ y de manera similar$$M(\bs{Y})$$ tiene una distribución normal con media$$\nu$$ y varianza$$\tau^2 / n$$. Dado que las muestras son independientes,$$M(\bs{X})$$ y$$M(\bs{Y})$$ son independientes, también$$M(\bs{Y}) - M(\bs{X})$$ tiene una distribución normal con media$$\nu - \mu$$ y varianza$$\sigma^2 / m + \sigma^2 / n$$. El resultado final luego sigue ya que$$Z$$ es una función lineal de$$M(\bs{Y}) - M(\bs{X})$$.

Por supuesto (b) en realidad subsume (a), pero los separamos porque los dos casos juegan un papel impotrante en las pruebas de hipótesis. En la parte (b), la media distinta de cero puede verse como un parámetro de no centralidad.

Como es habitual, para$$p \in (0, 1)$$, vamos$$z(p)$$ denotar el cuantil de orden$$p$$ para la distribución normal estándar. Para valores seleccionados de$$p$$, se$$z(p)$$ pueden obtener de la calculadora de distribución especial o de la mayoría de los paquetes de software estadístico. Recordemos también por simetría eso$$z(1 - p) = -z(p)$$.

Para cada uno$$\alpha \in (0, 1)$$, las siguientes pruebas tienen nivel de significancia$$\alpha$$:

1. Rechazar$$H_0: \nu - \mu = \delta$$ versus$$H_1: \nu - \mu \ne \delta$$ si y solo si$$Z \lt -z(1 - \alpha / 2)$$ o$$Z \gt z(1 - \alpha / 2)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \gt \delta + z(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$ o$$M(\bs{Y}) - M(\bs{X}) \lt \delta - z(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$.
2. Rechazar$$H_0: \nu - \mu \ge \delta$$ versus$$H_1: \nu - \mu \lt \delta$$ si y solo$$Z \lt -z(1 - \alpha)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \lt \delta - z(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$.
3. Rechazar$$H_0: \nu - \mu \le \delta$$ versus$$H_1: \nu - \mu \gt \delta$$ si y solo$$Z \gt z( 1 - \alpha)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \gt \delta + z(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$.
Prueba

Esto sigue la misma lógica que hemos visto antes. En la parte (a),$$H_0$$ es una hipótesis simple, y bajo esta hipótesis$$Z$$ tiene la distribución normal estándar. Así, si$$H_0$$ es cierto entonces la probabilidad de rechazar falsamente$$H_0$$ es$$\alpha$$ por definición de los cuantiles. En las partes (b) y (c),$$H_0$$ especifica un rango de valores de$$\nu - \mu$$, y bajo$$H_0$$,$$Z$$ tiene una distribución normal no estándar, como se describió anteriormente. Pero la probabilidad de error tipo 1 más grande es$$\alpha$$ y ocurre cuando$$\nu - \mu = \delta$$. Las reglas de decisión en términos de$$M(\bs{Y}) - M(\bs{X})$$ son equivalentes a las$$Z$$ de álgebra simple.

Para cada una de las pruebas anteriores, fallamos$$H_0$$ en rechazar a nivel de significancia$$\alpha$$ si y sólo si$$\delta$$ está en el intervalo de confianza del$$1 - \alpha$$ nivel correspondiente.

1. $$[M(\bs{Y}) - M(\bs{X})] - z(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n} \le \delta \le [M(\bs{Y}) - M(\bs{X})] + z(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$
2. $$\delta \le [M(\bs{Y}) - M(\bs{X})] + z(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
3. $$\delta \ge [M(\bs{Y}) - M(\bs{X})] - z(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
Prueba

Estos resultados se derivan de los resultados anteriores. En cada caso, partimos de la desigualdad que corresponde a no rechazar la hipótesis nula y resolver por$$\delta$$.

### Pruebas de la Diferencia de las Medias con Desviaciones Estándar Desconocidas

A continuación construiremos pruebas para la diferencia en las medias$$\nu - \mu$$ bajo el supuesto más realista de que las desviaciones estándar$$\sigma$$ y$$\tau$$ son desconocidas. En este caso, es más difícil encontrar un estadístico de prueba adecuado, pero podemos hacer el análisis en el caso especial de que las desviaciones estándar sean las mismas. Así, vamos a suponer que$$\sigma = \tau$$, y$$\sigma$$ se desconoce el valor común. Esta suposición es razonable si existe una variabilidad inherente en las variables de medición que no cambia incluso cuando se aplican diferentes tratamientos a los objetos de la población. Recordemos que la estimación agrupada de la varianza común$$\sigma^2$$ es el promedio ponderado de las varianzas muestrales, con los grados de libertad como factores de peso:$S^2(\bs{X}, \bs{Y}) = \frac{(m - 1) S^2(\bs{X}) + (n - 1) S^2(\bs{Y})}{m + n - 2}$ El estadístico$$S^2(\bs{X}, \bs{Y})$$ es un estimador imparcial y consistente de la varianza común$$\sigma^2$$.

Para un conjeturado$$\delta \in \R$$ definir el estadístico de prueba$T = \frac{[M(\bs{Y}) - M(\bs{X})] - \delta}{S(\bs{X}, \bs{Y}) \sqrt{1 / m + 1 / n}}$

1. Si$$\nu - \mu = \delta$$ entonces$$T$$ tiene la$$t$$ distribución con$$m + n - 2$$ grados de libertad,
2. Si$$\nu - \mu \ne \delta$$ entonces$$T$$ tiene una$$t$$ distribución no central con$$m + n - 2$$ grados de libertad y parámetro de no centralidad$\frac{(\nu - \mu) - \delta}{\sigma \sqrt{1/m + 1 /n}}$
Prueba

La parte (b) en realidad subsume la parte (a), ya que la$$t$$ distribución ordinaria es un caso especial de la$$t$$ distribución no central, con el parámetro de no centralidad 0. Con algún álgebra básica, podemos escribir$$T$$ en la forma$T = \frac{Z + a}{\sqrt{V \big/ (m + n - 2)}}$ donde$$Z$$ está la puntuación estándar de$$M(\bs{Y}) - M(\bs{X})$$,$$a$$ es el parámetro de no centralidad dado en el teorema, y$$V = \frac{m + n - 2}{\sigma^2} S^2(\bs{X}, \bs{Y})$$. Así$$Z$$ tiene la distribución normal estándar,$$V$$ tiene la distribución chi-cuadrada con$$m + n - 2$$ grados de libertad, y$$Z$$ y$$V$$ son independientes. Así, por definición,$$T$$ tiene la$$t$$ distribución no central con$$m + n - 2$$ grados de libertad y parámetro de no centralidad$$a$$.

Como es habitual, para$$k \gt 0$$ y$$p \in (0, 1)$$, vamos$$t_k(p)$$ denotar el cuantil de orden$$p$$ para la$$t$$ distribución con$$k$$ grados de libertad. Para los valores seleccionados de$$k$$ y$$p$$, los valores de$$t_k(p)$$ pueden calcularse a partir de la calculadora de distribución especial, o de la mayoría de los paquetes de software estadístico. Recordemos también que, por simetría,$$t_k(1 - p) = -t_k(p)$$.

Las siguientes pruebas tienen nivel de significancia$$\alpha$$:

1. Rechazar$$H_0: \nu - \mu = \delta$$ versus$$H_1: \nu - \mu \ne \delta$$ si y solo si$$T \lt -t_{m + n - 2}(1 - \alpha / 2)$$ o$$T \gt t_{m + n - 2}(1 - \alpha / 2)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \gt \delta + t_{m+n-2}(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$ o$$M(\bs{Y}) - M(\bs{X}) \lt \delta - t_{m+n-2}(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$
2. Rechazar$$H_0: \nu - \mu \ge \delta$$ versus$$H_1: \nu - \mu \lt \delta$$ si y solo$$T \le -t_{m-n+2}(1 - \alpha)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \lt \delta - t_{m+n-2}(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
3. Rechazar$$H_0: \nu - \mu \le \delta$$ versus$$H_1: \nu - \mu \gt \delta$$ si y solo$$T \ge t_{m-n+2}(1 - \alpha)$$ si y solo si$$M(\bs{Y}) - M(\bs{X}) \gt \delta + t_{m+n-2}(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
Prueba

Esto sigue la misma lógica que hemos visto antes. En la parte (a),$$H_0$$ es una hipótesis simple, y bajo esta hipótesis$$T$$ tiene la$$t$$ distribución con$$m + n - 2$$ grados de libertad. Así, si$$H_0$$ es cierto entonces la probabilidad de rechazar falsamente$$H_0$$ es$$\alpha$$ por definición de los cuantiles. En las partes (b) y (c),$$H_0$$ especifica un rango de valores de$$\nu - \mu$$, y bajo$$H_0$$,$$T$$ tiene una$$t$$ distribución no central, como se describió anteriormente. Pero la probabilidad de error tipo 1 más grande es$$\alpha$$ y ocurre cuando$$\nu - \mu = \delta$$. Las reglas de decisión en términos de$$M(\bs{Y}) - M(\bs{X})$$ son equivalentes a las$$T$$ de álgebra simple.

Para cada una de las pruebas anteriores, fallamos$$H_0$$ en rechazar a nivel de significancia$$\alpha$$ si y sólo si$$\delta$$ está en el intervalo de confianza del$$1 - \alpha$$ nivel correspondiente.

1. $$[M(\bs{Y}) - M(\bs{X})] - t_{m+n-2}(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n} \le \delta \le [M(\bs{Y}) - M(\bs{X})] + t_{m+n-2}(1 - \alpha / 2) \sqrt{\sigma^2 / m + \tau^2 / n}$$
2. $$\delta \le [M(\bs{Y}) - M(\bs{X})] + t_{m+n-2}(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
3. $$\delta \ge [M(\bs{Y}) - M(\bs{X})] - t_{m+n-2}(1 - \alpha) \sqrt{\sigma^2 / m + \tau^2 / n}$$
Prueba

Estos resultados se derivan de los resultados anteriores. En cada caso, partimos de la desigualdad que corresponde a no rechazar la hipótesis nula y resolver por$$\delta$$.

### Pruebas de la Relación de las Varianzas

A continuación construiremos pruebas para la relación de las varianzas de distribución$$\tau^2 / \sigma^2$$. Entonces la suposición básica es que las varianzas, y por supuesto los medios$$\mu$$ y$$\nu$$ son desconocidas.

Para una conjetura$$\rho \in (0, \infty)$$, defina las estadísticas de prueba$F = \frac{S^2(\bs{X})}{S^2(\bs{Y})} \rho$

1. Si$$\tau^2 / \sigma^2 = \rho$$ entonces$$F$$ tiene la$$F$$ distribución con$$m - 1$$ grados de libertad en el numerador y$$n - 1$$ grados de libertad en el denominador.
2. Si$$\tau^2 / \sigma^2 \ne \rho$$ entonces$$F$$ tiene una$$F$$ distribución escalada con$$m - 1$$ grados de libertad en el numerador,$$n - 1$$ grados de libertad en el denominador y factor de escala$$\rho \frac{\sigma^2}{\tau^2}$$.
Prueba

La parte (b) en realidad subsume la parte (a) cuando$$\rho = \tau^2 / \rho^2$$, así que simplemente probaremos (b). Tenga en cuenta que$F = \left(\frac{S^2(\bs{X}) \big/ \sigma^2}{S^2(\bs{Y}) \big/ \tau^2}\right) \rho \frac{\sigma^2}{\tau^2}$ Pero$$S^2(\bs{X}) \big/ \sigma^2$$ tiene la distribución chi-cuadrada con$$m - 1$$ grados de libertad,$$S^2(\bs{Y}) \big/ \tau^2$$ tiene la distribución chi-cuadrada con$$n - 1$$ grados de libertad, y las variables son independientes. De ahí que la relación tenga la$$F$$ distribución con$$m - 1$$ grados de libertad en el numerador y$$n - 1$$ grados de libertad en el denominador

Las siguientes pruebas tienen nivel de significancia$$\alpha$$:

1. Rechazar$$H_0: \tau^2 / \sigma^2 = \rho$$ versus$$H_1: \tau^2 / \sigma^2 \ne \rho$$ si y solo si$$F \gt f_{m-1, n-1}(1 - \alpha / 2)$$ o$$F \lt f_{m-1, n-1}(\alpha / 2 )$$.
2. Rechazar$$H_0: \tau^2 / \sigma^2 \le \rho$$ versus$$H_1: \tau^2 / \sigma^2 \gt \rho$$ si y solo si$$F \lt f_{m-1, n-1}(\alpha)$$.
3. Rechazar$$H_0: \tau^2 / \sigma^2 \ge \rho$$ versus$$H_1: \tau^2 / \sigma^2 \lt \rho$$ si y solo si$$F \gt f_{m-1, n-1}(1 - \alpha)$$.
Prueba

La prueba es el argumento habitual. En la parte (a),$$H_0$$ es una hipótesis simple, y bajo esta hipótesis$$F$$ tiene la$$f$$ distribución con$$m - 1$$ grados de libertad en el numerador$$n - 1$$ grados de libertad en el denominador. Así, si$$H_0$$ es cierto entonces la probabilidad de rechazar falsamente$$H_0$$ es$$\alpha$$ por definición de los cuantiles. En las partes (b) y (c),$$H_0$$ especifica un rango de valores de$$\tau^2 / \sigma^2$$, y por debajo$$H_0$$,$$F$$ tiene una$$F$$ distribución escalada, como se describió anteriormente. Pero la probabilidad de error tipo 1 más grande es$$\alpha$$ y ocurre cuando$$\tau^2 / \sigma^2 = \rho$$.

Para cada una de las pruebas anteriores, fallamos$$H_0$$ en rechazar a nivel de significancia$$\alpha$$ si y sólo si$$\rho_0$$ está en el intervalo de confianza del$$1 - \alpha$$ nivel correspondiente.

1. $$\frac{S^2(\bs{Y})}{S^2(\bs{X})} F_{m-1,n-1}(\alpha / 2) \le \rho \le \frac{S^2(\bs{Y})}{S^2(\bs{X})} F_{m-1,n-1}(1 - \alpha / 2)$$
2. $$\rho \le \frac{S^2(\bs{Y})}{S^2(\bs{X})} F_{m-1,n-1}(\alpha)$$
3. $$\rho \ge \frac{S^2(\bs{Y})}{S^2(\bs{X})} F_{m-1,n-1}(1 - \alpha)$$
Prueba

Estos resultados se derivan de los resultados anteriores. En cada caso, partimos de la desigualdad que corresponde a no rechazar la hipótesis nula y resolver por$$\rho$$.

## Pruebas en el Modelo Normal Bivariado

En esta subsección, consideramos un modelo que es superficialmente similar al modelo normal de dos muestras, pero que en realidad es mucho más sencillo. Supongamos que$((X_1, Y_1), (X_2, Y_2), \ldots, (X_n, Y_n))$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución normal bivariada de$$(X, Y)$$ con$$\E(X) = \mu$$$$\E(Y) = \nu$$,,$$\var(X) = \sigma^2$$,$$\var(Y) = \tau^2$$, y$$\cov(X, Y) = \delta$$.

Así, en lugar de un par de muestras, tenemos una muestra de pares. La diferencia fundamental es que en este modelo, las variables$$X$$ y$$Y$$ se miden sobre los mismos objetos en una muestra extraída de la población, mientras que en el modelo anterior, las variables$$X$$ y$$Y$$ se miden en dos muestras distintas extraídas de la población. El modelo bivariado surge, por ejemplo, en experimentos anteriores y posteriores, en los que se registra una medición de interés para una muestra de$$n$$ objetos de la población, tanto antes como después de un tratamiento. Por ejemplo, podríamos registrar la presión arterial de una muestra de$$n$$ pacientes, antes y después de la administración de cierto medicamento.

Utilizaremos nuestra notación habitual para las medias muestrales y varianzas de$$\bs{X} = (X_1, X_2, \ldots, X_n)$$ y$$\bs{Y} = (Y_1, Y_2, \ldots, Y_n)$$. Recordemos también que la covarianza muestral de$$(\bs{X}, \bs{Y})$$ es$S(\bs{X}, \bs{Y}) = \frac{1}{n - 1} \sum_{i=1}^n [X_i - M(\bs{X})][Y_i - M(\bs{Y})]$ (no confundir con la estimación agrupada de la desviación estándar en el modelo de dos muestras anterior).

La secuencia de diferencias$$\bs{Y} - \bs{X} = (Y_1 - X_1, Y_2 - X_2, \ldots, Y_n - X_n)$$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución de$$Y - X$$. La distribución del muestreo es normal con

1. $$\E(Y - X) = \nu - \mu$$
2. $$\var(Y - X) = \sigma^2 + \tau^2 - 2 \, \delta$$

La media muestral y varianza de la muestra de diferencias son

1. $$M(\bs{Y} - \bs{X}) = M(\bs{Y}) - M(\bs{X})$$
2. $$S^2(\bs{Y} - \bs{X}) = S^2(\bs{X}) + S^2(\bs{Y}) - 2 \, S(\bs{X}, \bs{Y})$$

La muestra de diferencias$$\bs{Y} - \bs{X}$$ se ajusta al modelo normal para una sola variable. La sección de Pruebas en el Modelo Normal podría utilizarse para realizar pruebas para la media de distribución$$\nu - \mu$$ y la varianza de distribución$$\sigma^2 + \tau^2 - 2 \delta$$.

## Ejercicios Computacionales

Se está desarrollando un nuevo medicamento para reducir cierto químico de la sangre. A una muestra de 36 pacientes se les administra un placebo mientras que a una muestra de 49 pacientes se les administra el medicamento. Las estadísticas (en mg) son$$m_1 = 87$$,$$s_1\ = 4$$,$$m_2 = 63$$,$$s_2 = 6$$. Pruebe lo siguiente al nivel de significancia del 10%:

1. $$H_0: \sigma_1 = \sigma_2$$versus$$H_1: \sigma_1 \ne \sigma_2$$.
2. $$H_0: \mu_1 \le \mu_2$$versus$$H_1: \mu_1 \gt \mu_2$$ (asumiendo que$$\sigma_1 = \sigma_2$$).
3. Con base en (b), ¿es efectivo el medicamento?
Contestar
1. Estadística de prueba 0.4, valores críticos 0.585, 1.667. Rechazar$$H_0$$.
2. Estadística de prueba 1.0, valores críticos$$\pm 1.6625$$. No rechazar$$H_0$$.
3. Probablemente no

Una empresa afirma que un suplemento herbario mejora la inteligencia. A una muestra de 25 personas se les realiza una prueba de CI estándar antes y después de tomar el suplemento. Las estadísticas del antes y el después son$$m_1 = 105$$$$s_1 = 13$$,,$$m_2 = 110$$,$$s_2 = 17$$,$$s_{1, \, 2} = 190$$. Al nivel de significancia del 10%, ¿cree usted en el reclamo de la compañía?

Contestar

Estadístico de prueba 2.8, valor crítico 1.3184. Rechazar$$H_0$$.

En los datos del iris de Fisher, considere la variable de longitud de pétalo para las muestras de iris Versicolor y Virginica. Pruebe lo siguiente al nivel de significancia del 10%:

1. $$H_0: \sigma_1 = \sigma_2$$versus$$H_1: \sigma_1 \ne \sigma_2$$.
2. $$H_0: \mu_1 \le \mu_2$$versus$$\mu_1 \gt \mu_2$$ (asumiendo que$$\sigma_1 = \sigma_2$$).
Contestar
1. Estadística de prueba 1.1, valores críticos 0.6227, 1.6072. No rechazar$$H_0$$.
2. Estadística de prueba$$-11.4$$, valor crítico$$-1.6602$$. Rechazar$$H_0$$.

Una planta cuenta con dos máquinas que producen una varilla circular cuyo diámetro (en cm) es crítico. Una muestra de 100 varillas de la primera máquina como media 10.3 y desviación estándar 1.2. Una muestra de 100 varillas de la segunda máquina tiene media 9.8 y desviación estándar 1.6. Pruebe las siguientes hipótesis al nivel del 10%.

1. $$H_0: \sigma_1 = \sigma_2$$versus$$H_1: \sigma_1 \ne \sigma_2$$.
2. $$H_0: \mu_1 = \mu_2$$versus$$H_1: \mu_1 \ne \mu_2$$ (asumiendo que$$\sigma_1 = \sigma_2$$).
Contestar
1. Estadística de prueba 0.56, valores críticos 0.7175, 1.3942. Rechazar$$H_0$$.
2. Estadística de prueba$$-4.97$$, valores críticos$$\pm 1.645$$. Rechazar$$H_0$$.

This page titled 9.4: Pruebas en el Modelo Normal de Dos Muestras is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform.