Saltar al contenido principal

# 8.4: Estimación en el Modelo Normal de Dos Muestras

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\Z}{\mathbb{Z}}$$$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\cov}{\text{cov}}$$$$\newcommand{\bs}{\boldsymbol}$$

Como hemos señalado anteriormente, la distribución normal es quizás la distribución más importante en el estudio de la estadística matemática, en parte por el teorema del límite central. Como consecuencia de este teorema, las cantidades medidas que están sujetas a numerosos errores pequeños y aleatorios tendrán, al menos aproximadamente, distribuciones normales. Tales variables son ubicuas en experimentos estadísticos, en sujetos que varían desde las ciencias físicas y biológicas hasta las ciencias sociales.

En esta sección, estudiaremos los problemas de estimación en el modelo normal de dos muestras y en el modelo normal bivariado. Esta sección es paralela a la sección sobre Pruebas en el Modelo Normal de Dos Muestras en el Capítulo sobre Pruebas de Hipótesis.

## El modelo normal de dos muestras

### Preliminares

Supongamos que$$\bs{X} = (X_1, X_2, \ldots, X_m)$$ es una muestra aleatoria$$m$$ de tamaño de la distribución normal con media$$\mu$$ y desviación estándar$$\sigma$$, y que$$\bs{Y} = (Y_1, Y_2, \ldots, Y_n)$$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución normal con media$$\nu$$ y desviación estándar$$\tau$$. Además, supongamos que las muestras$$\bs{X}$$ y$$\bs{Y}$$ son independientes. Por lo general, los parámetros son desconocidos, por lo que el espacio de parámetros para nuestro vector de parámetros$$(\mu, \nu, \sigma, \tau)$$ es$$\R^2 \times (0, \infty)^2$$.

Este tipo de situación surge frecuentemente cuando las variables aleatorias representan una medida de interés para los objetos de la población, y las muestras corresponden a dos tratamientos diferentes. Por ejemplo, podríamos estar interesados en la presión arterial de cierta población de pacientes. El$$\bs{X}$$ vector registra las presiones sanguíneas de una muestra control, mientras que el$$\bs{Y}$$ vector registra las presiones sanguíneas de la muestra que recibe un nuevo medicamento. De igual manera, podríamos estar interesados en el rendimiento de un acre de maíz. El$$\bs{X}$$ vector registra los rendimientos de una muestra que recibe un tipo de fertilizante, mientras que el$$\bs{Y}$$ vector registra los rendimientos de una muestra que recibe un tipo diferente de fertilizante.

Por lo general, nuestro interés está en una comparación de los parámetros (ya sea las medias o desviaciones estándar) para las dos distribuciones de muestreo. En esta sección construiremos intervalos de confianza para la diferencia de las medias de distribución$$\nu - \mu$$ y para la relación de las varianzas de distribución$$\tau^2 / \sigma^2$$. Al igual que con los problemas de estimación anteriores, la construcción depende de encontrar variables pivotantes apropiadas.

Para una muestra genérica$$\bs{U} = (U_1, U_2, \ldots, U_k)$$ de una distribución con media$$a$$, usaremos nuestra notación estándar para la media de la muestra y para la varianza de la muestra. \ begin {align} M (\ bs {U}) & =\ frac {1} {k}\ sum_ {i=1} ^k U_i\\ S^2 (\ bs {U}) & =\ frac {1} {k - 1}\ sum_ {i=1} ^k [U_i - M (\ bs {U})] ^2\ end {align} Vamos a necesitar para recordar también las propiedades especiales de estas estadísticas cuando la distribución muestral es normal. Las distribuciones de pivote especiales que jugarán un papel fundamental en esta sección son la normal estándar, la del estudiante$$t$$ y$$F$$ las distribuciones de Fisher. Para construir nuestras estimaciones de intervalos necesitaremos los cuantiles de estas distribuciones. Los cuantiles se pueden calcular utilizando la calculadora de distribución especial o a partir de la mayoría de los paquetes de software matemáticos y estadísticos. Aquí está la notación que usaremos:

Dejar$$p \in (0, 1)$$ y dejar$$j, \, k \in \N_+$$.

1. $$z(p)$$denota el cuantil de orden$$p$$ para la distribución normal estándar.
2. $$t_k(p)$$denota el cuantil de orden$$p$$ para la$$t$$ distribución estudiantil con$$k$$ grados de libertad.
3. $$f_{j,k}(p)$$denota el cuantil de orden$$p$$ para la$$f$$ distribución estudiantil con$$j$$ grados de libertad en el numerador y$$k$$ grados de libertad en el denominador.

Recordemos eso por simetría,$$z(p) = -z(1 - p)$$ y$$t_k(p) = -t_k(1 - p)$$ para$$p \in (0, 1)$$ y$$k \in \N_+$$. Por otro lado, no existe una relación simple entre las probabilidades de cola izquierda y derecha de la$$F$$ distribución.

### Intervalos de confianza para la diferencia de las medias con varianzas conocidas

Primero construiremos intervalos de confianza para$$\nu - \mu$$ bajo el supuesto de que se$$\tau^2$$ conocen las varianzas de distribución$$\sigma^2$$ y. Esto no siempre es una suposición artificial. Al igual que en el modelo normal de una muestra, las varianzas son en algún momento estables, y por lo tanto se conocen al menos aproximadamente, mientras que las medias cambian bajo diferentes tratamientos. Primero recordemos los siguientes hechos básicos:

La diferencia de las medias de la muestra$$M(\bs{Y}) - M(\bs{X})$$ tiene la distribución normal con media$$\nu - \mu$$ y varianza$$\sigma^2 / m + \tau^2 / n$$. De ahí que la puntuación estándar de la diferencia de las medias de la muestra$Z = \frac{[M(\bs{Y}) - M(\bs{X})] - (\nu - \mu)}{\sqrt{\sigma^2 / m + \tau^2 / n}}$ tenga la distribución normal estándar. Así, esta variable es una variable pivotal para$$\nu - \mu$$ cuando$$\sigma, \tau$$ se conocen.

El intervalo de confianza básico y el límite superior e inferior son ahora fáciles de construir.

Para$$\alpha \in (0, 1)$$,

1. $$\left[M(\bs{Y}) - M(\bs{X}) - z\left(1 - \frac{\alpha}{2}\right) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}, M(\bs{Y}) - M(\bs{X}) + z\left(1 - \frac{\alpha}{2}\right) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}\right]$$es un intervalo de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
2. $$M(\bs{Y}) - M(\bs{X}) - z(1 - \alpha) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}$$es un límite inferior de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
3. $$M(\bs{Y}) - M(\bs{X}) + z(1 - \alpha) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}$$es un límite superior de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
Prueba

La variable$$T$$ dada anteriormente tiene la distribución normal estándar. De ahí que cada uno de los siguientes eventos tenga probabilidad$$1 - \alpha$$ por definición de los cuantiles:

1. $$\left\{-z\left(1 - \frac{\alpha}{2}\right) \le Z \le z\left(1 - \frac{\alpha}{2}\right)\right\}$$
2. $$\left\{Z \ge z(1 - \alpha)\right\}$$
3. $$\left\{Z \le -z(1 - \alpha)\right\}$$

En cada caso, resolver la desigualdad para$$\nu - \mu$$ da el resultado.

El intervalo bilateral en la parte (a) es el intervalo simétrico correspondiente$$\alpha / 2$$ en ambas colas de la distribución normal estándar. Como de costumbre, podemos construir intervalos de dos lados más generales dividiendo$$\alpha$$ entre las colas izquierda y derecha de la manera que nos plazca.

Para cada$$\alpha, \, p \in (0, 1)$$, un intervalo de$$1 - \alpha$$ confianza para$$\nu - \mu$$$\left[M(\bs{Y}) - M(\bs{X}) - z(1 - \alpha p) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}, M(\bs{Y}) - M(\bs{X}) - z(\alpha - p \alpha) \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}} \right]$

1. $$p = \frac{1}{2}$$da el intervalo simétrico de dos lados.
2. $$p \to 1$$da el intervalo con el límite inferior de confianza.
3. $$p \to 0$$da el intervalo con confianza límite superior.
Prueba

A partir de la distribución de la variable pivote y la definición de la función cuantil,$\P \left[ z(\alpha - p \alpha) \lt \frac{[M(\bs{Y}) - M(\bs{X})] - (\nu - \mu)}{\sqrt{\sigma^2 / m + \tau^2 / n}} \lt z(1 - p \alpha) \right] = 1 - \alpha$ Resolver for$$\nu - \mu$$ en la desigualdad da el intervalo de confianza.

El siguiente teorema da algunas propiedades básicas de la longitud de este intervalo.

La longitud (determinista) del intervalo de confianza general de dos lados es$L = [z(1 - \alpha p) - z(\alpha - \alpha p)] \sqrt{\frac{\sigma^2}{m} + \frac{\tau^2}{n}}$

1. $$L$$es una función decreciente de$$m$$ y una función decreciente de$$n$$.
2. $$L$$es una función creciente de$$\sigma$$ y una función creciente de$$\tau$$
3. $$L$$es una función decreciente$$\alpha$$ y, por lo tanto, una función creciente del nivel de confianza.
4. En función de$$p$$,$$L$$ disminuye y luego aumenta, con valor mínimo en$$p = \frac{1}{2}$$.

La parte (a) significa que podemos hacer la estimación más precisa aumentando uno o ambos tamaños de muestra. La parte (b) significa que la estimación se vuelve menos precisa a medida que aumenta la varianza en cualquiera de las dos distribuciones. Parte (c) que hemos visto antes. Siendo todas las demás cosas iguales, podemos aumentar el nivel de confianza sólo a expensas de que la estimación sea menos precisa. La parte (d) significa que el intervalo de confianza simétrico e igual cola es el mejor de los intervalos de dos lados.

### Intervalos de confianza para la diferencia de las medias con varianzas desconocidas

Nuestro siguiente método es una construcción de intervalos de confianza para la diferencia de las medias$$\nu - \mu$$ sin necesidad de conocer las desviaciones estándar$$\sigma$$ y$$\tau$$. No obstante, hay un costo; asumiremos que las desviaciones estándar son las mismas$$\sigma = \tau$$, pero se desconoce el valor común. Esta suposición es razonable si existe una variabilidad inherente en las variables de medición que no cambia incluso cuando se aplican diferentes tratamientos a los objetos de la población. Necesitamos recordar algunos datos básicos de nuestro estudio de propiedades especiales de muestras normales.

La estimación agrupada de la varianza común$$\sigma^2 = \tau^2$$ es$S^2(\bs{X}, \bs{Y}) = \frac{(m - 1) S^2(\bs{X}) + (n - 1) S^2(\bs{Y})}{m + n - 2}$ La variable aleatoria$T = \frac{\left[M(\bs{Y}) - M(\bs{X})\right] - (\nu - \mu)}{S(\bs{X}, \bs{Y}) \sqrt{1 / m + 1 / n}}$ tiene la$$t$$ distribución estudiantil con$$m + n - 2$$ grados de libertad

Obsérvese que$$S^2(\bs{X}, \bs{Y})$$ es un promedio ponderado de las varianzas de la muestra, con los grados de libertad como factores de peso. Tenga en cuenta también que$$T$$ es una variable pivote para$$\nu - \mu$$ y así podemos construir intervalos de confianza para de la$$\nu - \mu$$ manera habitual.

Para$$\alpha \in (0, 1)$$,

1. $$\left[M(\bs{Y}) - M(\bs{X}) - t_{m + n - 2}\left(1 - \frac{\alpha}{2}\right) S(\bs{X},\bs{Y})\sqrt{\frac{1}{m} + \frac{1}{n}}, M(\bs{Y}) - M(\bs{X}) + t_{m + n - 2}\left(1 - \frac{\alpha}{2}\right) S(\bs{X},\bs{Y})\sqrt{\frac{1}{m} + \frac{1}{n}}\right]$$es un intervalo de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
2. $$M(\bs{Y}) - M(\bs{X}) - t_{m + n - 2}(1 - \alpha) S(\bs{X},\bs{Y})\sqrt{\frac{1}{m} + \frac{1}{n}}$$es un límite inferior de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
3. $$M(\bs{Y}) - M(\bs{X}) + t_{m + n - 2}(1 - \alpha) S(\bs{X},\bs{Y})\sqrt{\frac{1}{m} + \frac{1}{n}}$$es un límite superior de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
Prueba

La variable$$T$$ dada anteriormente tiene la distribución normal estándar. De ahí que cada uno de los siguientes eventos tenga probabilidad$$1 - \alpha$$ por definición de los cuantiles:

1. $$\left\{-t_{m+n-2}\left(1 - \frac{\alpha}{2}\right) \le T \le t_{m+n-2}\left(1 - \frac{\alpha}{2}\right)\right\}$$
2. $$\left\{T \ge t_{m+n-2}(1 - \alpha)\right\}$$
3. $$\left\{T \le -t_{m+n-2}(1 - \alpha)\right\}$$

En cada caso, resolver la desigualdad para$$\nu - \mu$$ da el resultado.

El intervalo de dos lados en la parte (a) es el intervalo simétrico que corresponde$$\alpha / 2$$ en ambas colas de la$$t$$ distribución estudiantil. Como de costumbre, podemos construir intervalos de dos lados más generales dividiendo$$\alpha$$ entre las colas izquierda y derecha de la manera que nos plazca.

Para cada$$\alpha, \, p \in (0, 1)$$, un intervalo de$$1 - \alpha$$ confianza para$$\nu - \mu$$$\left[M(\bs{Y}) - M(\bs{X}) - t_{m+n-2}(1 - \alpha p) S(\bs{X}, \bs{Y})\sqrt{\frac{1}{m} + \frac{1}{n}}, M(\bs{Y}) - M(\bs{X}) - t_{m+n-2}(\alpha - p \alpha) S(\bs{X}, \bs{Y}) \sqrt{\frac{1}{m} + \frac{1}{n}} \right]$

1. $$p = \frac{1}{2}$$da el intervalo simétrico de dos lados.
2. $$p \to 1$$da el intervalo con el límite inferior de confianza.
3. $$p \to 0$$da el inteval con confianza límite superior.
Prueba

A partir de la distribución de la variable pivote y la definición de la función cuantil,$\P \left[ t_{m+n-2}(\alpha - p \alpha) \lt \frac{[M(\bs{Y}) - M(\bs{X})] - (\nu - \mu)}{S(\bs{X}, \bs{Y})\sqrt{1 / m + 1 / n}} \lt t_{m+n-2}(1 - p \alpha) \right] = 1 - \alpha$ Resolver for$$\nu - \mu$$ en la desigualdad da el intervalo de confianza.

El siguiente resultado considera la longitud del intervalo general de dos lados.

La longitud (aleatoria) del intervalo de dos lados anterior es$L = [t_{m+n-2}(1 - p \alpha) - t_{m+n-2}(\alpha - p \alpha)] S(\bs{X}, \bs{Y}) \sqrt{\frac{1}{m} + \frac{1}{n}}$

1. $$L$$es una función decreciente$$\alpha$$ y, por lo tanto, una función creciente del nivel de confianza.
2. En función de$$p$$,$$L$$ disminuye y luego aumenta, con valor mínimo en$$p = \frac{1}{2}$$.

Al igual que en el caso de las varianzas conocidas, la parte (c) significa que todas las demás cosas siendo iguales, podemos incrementar el nivel de confianza sólo a expensas de que la estimación sea menos precisa. La parte (b) significa que el intervalo de confianza simétrico e igual cola es el mejor de los intervalos de dos lados.

### Intervalos de confianza para la relación de las varianzas

Nuestra próxima construcción producirá estimaciones de intervalos para la relación de las varianzas$$\tau^2 / \sigma^2$$ (o tomando raíces cuadradas, para la relación de las desviaciones estándar$$\tau / \sigma$$). Una vez más, necesitamos recordar algunos datos básicos de nuestro estudio de propiedades especiales de muestras aleatorias de la distribución normal.

La relación$U = \frac{S^2(\bs{X}) \tau^2}{S^2(\bs{Y}) \sigma^2}$ tiene la$$F$$ distribución con$$m - 1$$ grados de libertad en el numerador y$$n - 1$$ grados de libertad en el denominador, y por lo tanto esta variable es una variable pivote para$$\tau^2 / \sigma^2$$.

La variable pivote se$$U$$ puede utilizar para construir intervalos de confianza$$\tau^2 / \sigma^2$$ de la manera habitual.

Para$$\alpha \in (0, 1)$$,

1. $$\left[f_{m-1, n-1}\left(\frac{\alpha}{2}\right) \frac{S^2(\bs{Y})}{S^2(\bs{X})}, f_{m-1, n-1}\left(1 - \frac{\alpha}{2}\right) \frac{S^2(\bs{Y})}{S^2(\bs{X})} \right]$$es un intervalo de$$1 - \alpha$$ confianza para$$\tau^2 / \sigma^2$$.
2. $$f_{m-1, n-1}(1 - \alpha) \frac{S^2(\bs{Y})}{S^2(\bs{X})}$$es un límite inferior de$$1 - \alpha$$ confianza para$$\tau^2 / \sigma^2$$.
3. $$f_{m-1, n-1}(\alpha) \frac{S^2(\bs{Y})}{S^2(\bs{X})}$$es un límite superior de$$1 - \alpha$$ confianza para$$\nu - \mu$$.
Prueba

La variable$$U$$ dada anteriormente tiene la$$F$$ distribución con$$m - 1$$ grados de libertad en el numerador y$$n - 1$$ grados de libertad en el denominador. De ahí que cada uno de los siguientes eventos tenga probabilidad$$1 - \alpha$$ por definición de los cuantiles:

1. $$\left\{f_{m-1,n-1}\left(\frac{\alpha}{2}\right) \le U \le f_{m-1,n-1}\left(1 - \frac{\alpha}{2}\right)\right\}$$
2. $$\left\{U \ge f_{m-1,n-1}(1 - \alpha)\right\}$$
3. $$\left\{U \le f{m-1,n-1}(\alpha)\right\}$$

En cada caso, resolver la desigualdad para$$\tau^2 / \sigma^2$$ da el resultado.

El intervalo de confianza bilateral en la parte (a) es el intervalo de confianza de cola igual, y es el que se usa comúnmente. Pero como es habitual, podemos particionar$$\alpha$$ entre las colas izquierda y derecha de la distribución de la variable pivote de la forma que nos plazca.

Para cada$$\alpha, \, p \in (0, 1)$$, un conjunto de$$1 - \alpha$$ confianza para$$\tau^2 / \sigma^2$$$\left[f_{m-1, n-1}(\alpha - p \alpha) \frac{S^2(\bs{Y})}{S^2(\bs{X})}, f_{m-1, n-1}(1 - p \alpha) \frac{S^2(\bs{Y})}{S^2(\bs{X})} \right]$

1. $$p = \frac{1}{2}$$da la cola igual, intervalo de dos lados.
2. $$p \to 1$$da el intervalo con el límite inferior de confianza.
3. $$p \to 0$$da el inteval con confianza límite superior.
Prueba

A partir de la variable$$F$$ pivote y la definición de la función cuantil,$\P \left[ f_{m-1,n-1}(\alpha - p \, \alpha) \lt \frac{S^2(\bs{X}, \mu) \tau^2}{S^2(\bs{Y}, \nu) \sigma^2} \lt f_{m-1,n-1}(1 - p \,\alpha) \right] = 1 - \alpha$ Resolviendo para$$\tau^2 / \sigma^2$$ en la desigualdad.

La longitud del intervalo de confianza general se considera siguiente.

La longitud (aleatoria) del intervalo general de confianza bilateral anterior es$L = \left[f_{m-1,n-1}(1 - p \alpha) - f_{m-1,n-1}(\alpha - p \alpha) \right] \frac{S^2(\bs{Y})}{S^2(\bs{X})}$ Suponiendo que$$m \gt 5$$ y$$n \gt 1$$,

1. $$L$$es una función decreciente$$\alpha$$ y, por lo tanto, una función creciente del nivel de confianza.
2. $$\E(L) = \frac{\tau^2}{\sigma^2} \frac{m - 1}{m - 3}$$
3. $$\var(L) = 2 \frac{\tau^4}{\sigma^4} \left(\frac{m - 1}{m - 3}\right)^2 \frac{m + n - 4}{(n - 1) (m - 5)}$$
Prueba

Las partes (b) y (c) siguen ya$$\frac{\sigma^2}{\tau^2} \frac{S^2(\bs{Y})}{S^2(\bs{X})^2}$$ como la$$F$$ distribución con$$n - 1$$ grados de libertad en el numerador y$$m - 1$$ grados de libertad en el denominador.

De manera óptima, es posible que queramos elegir para$$p$$ que$$\E(L)$$ se minimice. Sin embargo, esto es difícil computacionalmente, y afortunadamente el intervalo de cola igual con no$$p = \frac{1}{2}$$ está muy lejos de ser óptimo cuando los tamaños de muestra$$m$$ y$$n$$ son grandes.

## Estimación en el Modelo Normal Bivariado

En esta subsección, consideramos un modelo que es superficialmente similar al modelo normal de dos muestras, pero que en realidad es mucho más sencillo. Supongamos que$\left((X_1, Y_1), (X_2, Y_2), \ldots, (X_n, Y_n)\right)$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución normal bivariada de un vector aleatorio$$(X, Y)$$$$\E(X) = \mu$$, con$$\E(Y) = \nu$$,$$\var(X) = \sigma^2$$,$$\var(Y) = \tau^2$$, y$$\cov(X, Y) = \delta$$.

Así, en lugar de un par de muestras, tenemos una muestra de pares. Este tipo de modelo surge frecuentemente en experimentos anteriores y posteriores, en los que se registra una medición de interés para una muestra de$$n$$ objetos de la población, tanto antes como después de un tratamiento. Por ejemplo, podríamos registrar la presión arterial de una muestra de$$n$$ pacientes, antes y después de la administración de cierto medicamento. El punto crítico es que en este modelo,$$X_i$$ y$$Y_i$$ son mediciones realizadas sobre el mismo objeto subyacente en la muestra. Al igual que con el modelo normal de dos muestras, el interés suele estar en estimar la diferencia de las medias.

Utilizaremos nuestra notación habitual para las medias muestrales y varianzas de$$\bs{X} = (X_1, X_2, \ldots, X_n)$$ y$$\bs{Y} = (Y_1, Y_2, \ldots, Y_n)$$. Recordemos también que la covarianza muestral de$$(\bs{X}, \bs{Y})$$, es$S(\bs{X}, \bs{Y}) = \frac{1}{n - 1} \sum_{i=1}^n [X_i - M(\bs{X})][Y_i - M(\bs{Y})]$ (no confundir con la estimación agrupada de la desviación estándar en el modelo de dos muestras).

El vector de diferencias$$\bs{Y} - \bs{X} = (Y_1 - X_1, Y_2 - X_2, \ldots, Y_n - X_n)$$ es una muestra aleatoria de tamaño$$n$$ a partir de la distribución de$$Y - X$$, que es normal con

1. $$\E(Y - X) = \nu - \mu$$
2. $$\var(Y - X) = \sigma^2 + \tau^2 - 2 \, \delta$$

La media muestral y varianza de la muestra de diferencias viene dada por

1. $$M(\bs{Y} - \bs{X}) = M(\bs{Y}) - M(\bs{X})$$
2. $$S^2(\bs{Y} - \bs{X}) = S^2(\bs{X}) + S^2(\bs{Y}) - 2 \, S(\bs{X}, \bs{Y})$$

Así, la muestra de diferencias$$\bs{Y} - \bs{X}$$ se ajusta al modelo normal para una sola variable. La sección de Estimación en el Modelo Normal podría ser utilizada para obtener conjuntos de confianza e intervalos para los parámetros$$(\nu - \mu, \sigma^2 + \tau^2 - 2 \, \delta)$$.

En el marco de esta subsección, supongamos que$$\bs{X} = (X_1, X_2, \ldots, X_n)$$ y$$\bs{Y} = (Y_1, Y_2, \ldots, Y_n)$$ son independientes. Matemáticamente esto se ajusta a ambos modelos: el modelo normal de dos muestras y el modelo normal bivariado. ¿Qué procedimiento funcionaría mejor para estimar la diferencia de medias$$\nu - \mu$$?

1. Si se$$\tau$$ conocen las desviaciones estándar$$\sigma$$ y.
2. Si las desviaciones estándar$$\sigma$$ y$$\tau$$ son desconocidas.
Contestar
1. Los dos métodos son equivalentes.
2. El modelo normal bivariado funciona mejor.

Aunque el escenario en el último problema se ajusta matemáticamente a ambos modelos, solo un modelo tendría sentido en un problema real. Nuevamente, el punto crítico es si tiene$$(X_i, Y_i)$$ sentido como un par de variables aleatorias (mediciones) correspondientes a un objeto dado en la muestra.

## Ejercicios Computacionales

Se está desarrollando un nuevo medicamento para reducir cierto químico de la sangre. A una muestra de 36 pacientes se les administra un placebo mientras que a una muestra de 49 pacientes se les administra el medicamento. Dejar$$X$$ denotar la medición para un paciente al que se le administró$$Y$$ el placebo y la medición para un paciente que recibió el medicamento (en mg). Las estadísticas son$$m(\bs{x}) = 87$$,$$s(\bs{x}) = 4$$,$$m(\bs{y}) = 63$$,$$s(\bs{y}) = 6$$.

1. Calcular el intervalo de confianza del 90% para$$\tau / \sigma$$.
2. Suponiendo que$$\sigma = \tau$$, compute el intervalo de confianza del 90% para$$\nu - \mu$$.
3. Con base en (a), ¿es$$\sigma = \tau$$ razonable la suposición?
4. Con base en (b), ¿es efectivo el medicamento?
Contestar
1. $$(1.149, 1.936)$$
2. $$(-24.834, -23.166)$$
3. Quizás no.

Una empresa afirma que un suplemento herbario mejora la inteligencia. A una muestra de 25 personas se les realiza una prueba de CI estándar antes y después de tomar el suplemento. Dejar$$X$$ denotar el coeficiente intelectual de un sujeto antes de tomar el suplemento y$$Y$$ el coeficiente intelectual del sujeto después del suplemento. Las estadísticas de antes y después son$$m(\bs{x}) = 105$$,$$s(\bs{x}) = 13$$,$$m(\bs{y}) = 110$$,$$s(\bs{y}) = 17$$,$$s(\bs{x}, \bs{y}) = 190$$. ¿Cree usted en el reclamo de la compañía?

Contestar

Un límite inferior de confianza del 90% para la diferencia en el coeficiente intelectual es de 2.675. Puede haber un pequeño aumento variar.

En los datos del iris de Fisher,$$X$$ denotemos considerar la longitud del pétalo de un iris Versicolor y$$Y$$ la longitud del pétalo de un iris Virginica.

1. Calcular el intervalo de confianza del 90% para$$\tau / \sigma$$.
2. Suponiendo que$$\sigma = \tau$$, compute el intervalo de confianza del 90% para$$\nu - \mu$$.
3. Con base en (a), ¿es$$\sigma = \tau$$ razonable la suposición?
Contestar
1. $$(0.8, 1.3)$$
2. $$(10.5, 14.1)$$

Una planta cuenta con dos máquinas que producen una varilla circular cuyo diámetro (en cm) es crítico. Dejar$$X$$ denotar el diámetro de una varilla de la primera máquina y$$Y$$ el diámetro de una varilla de la segunda máquina. Una muestra de 100 varillas de la primera máquina como media 10.3 y desviación estándar 1.2. Una muestra de 100 varillas de la segunda máquina tiene media 9.8 y desviación estándar 1.6.

1. Calcular el intervalo de confianza del 90% para$$\tau / \sigma$$.
2. Suponiendo que$$\sigma = \tau$$, compute el intervalo de confianza del 90% para$$\nu - \mu$$.
3. Con base en (a), ¿es$$\sigma = \tau$$ razonable la suposición?
Contestar
1. $$(1.127, 1.578)$$
2. $$(0.832, 0.168)$$
3. Quizás no.

This page titled 8.4: Estimación en el Modelo Normal de Dos Muestras is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.