Saltar al contenido principal
LibreTexts Español

9.2: Pruebas en el Modelo Normal

  • Page ID
    151773
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    El modelo normal

    La distribución normal es quizás la distribución más importante en el estudio de la estadística matemática, en parte por el teorema del límite central. Como consecuencia de este teorema, una cantidad medida que está sujeta a numerosos errores pequeños y aleatorios tendrá, al menos aproximadamente, una distribución normal. Tales variables son ubicuas en experimentos estadísticos, en sujetos que varían desde las ciencias físicas y biológicas hasta las ciencias sociales.

    Entonces en esta sección, asumimos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de la distribución normal con media\(\mu\) y desviación estándar\(\sigma\). Nuestro objetivo en esta sección es construir pruebas de hipótesis para\(\mu\) y\(\sigma\); estos se encuentran entre los casos especiales más importantes de prueba de hipótesis. Esta sección es paralela a la sección sobre Estimación en el Modelo Normal en el capítulo sobre Estimación por conjuntos, y en particular, la dualidad entre la estimación de intervalos y las pruebas de hipótesis jugará un papel importante. Pero primero necesitamos revisar algunos hechos básicos que serán críticos para nuestro análisis.

    Recordemos que la media muestral\( M \) y la varianza muestral\( S^2 \) son\[ M = \frac{1}{n} \sum_{i=1}^n X_i, \quad S^2 = \frac{1}{n - 1} \sum_{i=1}^n (X_i - M)^2\]

    De nuestro estudio de estimación puntual, recordemos que\( M \) es un estimador imparcial y consistente de\( \mu \) while\( S^2 \) es un estimador imparcial y consistente de\( \sigma^2 \). A partir de estas estadísticas básicas podemos construir las estadísticas de prueba que se utilizarán para construir nuestras pruebas de hipótesis. Los siguientes resultados se establecieron en el apartado de Propiedades Especiales de la Distribución Normal.

    Definir\[ Z = \frac{M - \mu}{\sigma \big/ \sqrt{n}}, \quad T = \frac{M - \mu}{S \big/ \sqrt{n}}, \quad V = \frac{n - 1}{\sigma^2} S^2 \]

    1. \( Z \)tiene la distribución normal estándar.
    2. \( T \)tiene la\( t \) distribución estudiantil con\( n - 1 \) grados de libertad.
    3. \( V \)tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad.
    4. \( Z \)y\( V \) son independientes.

    De ello se deduce que cada una de estas variables aleatorias es una variable pivote para\( (\mu, \sigma) \) ya que las distribuciones no dependen de los parámetros, sino que las propias variables dependen funcionalmente de uno o ambos parámetros. Las variables pivotes conducirán a estadísticas de prueba naturales que luego se pueden utilizar para realizar las pruebas de hipótesis de los parámetros. Para construir nuestras pruebas, necesitaremos cuantiles de estas distribuciones estándar. Los cuantiles se pueden calcular utilizando la calculadora de distribución especial o a partir de la mayoría de los paquetes de software matemáticos y estadísticos. Aquí está la notación que usaremos:

    Dejar\( p \in (0, 1) \) y\( k \in \N_+ \).

    1. \( z(p) \)denota el cuantil de orden\( p \) para la distribución normal estándar.
    2. \(t_k(p)\)denota el cuantil de orden\( p \) para la\( t \) distribución estudiantil con\( k \) grados de libertad.
    3. \( \chi^2_k(p) \)denota el cuantil de orden\( p \) para la distribución de chi-cuadrado con\( k \) grados de libertad

    Dado que las\( t \) distribuciones estándar normales y estudiantiles son simétricas alrededor de 0, se deduce que\( z(1 - p) = -z(p) \) y\( t_k(1 - p) = -t_k(p) \) para\( p \in (0, 1) \) y\( k \in \N_+ \). Por otro lado, la distribución chi-cuadrada no es simétrica.

    Pruebas para la Media con Desviación Estándar Conocida

    Para nuestra primera discusión, asumimos que la media de distribución\( \mu \) es desconocida pero\( \sigma \) se conoce la desviación estándar. Esto no siempre es una suposición artificial. A menudo hay situaciones en las que\( \sigma \) es estable a lo largo del tiempo, y por lo tanto se conoce al menos aproximadamente, mientras que\( \mu \) los cambios se deben a diferentes tratamientos. Se dan ejemplos en los ejercicios computacionales a continuación.

    Para una conjetura\( \mu_0 \in \R \), defina el estadístico de prueba\[ Z = \frac{M - \mu_0}{\sigma \big/ \sqrt{n}} \]

    1. Si\( \mu = \mu_0 \) entonces\( Z \) tiene la distribución normal estándar.
    2. Si\( \mu \ne \mu_0 \) entonces\( Z \) tiene la distribución normal con media\( \frac{\mu - \mu_0}{\sigma / \sqrt{n}} \) y varianza 1.

    Entonces, en el caso (b), se\( \frac{\mu - \mu_0}{\sigma / \sqrt{n}} \) puede ver como un parámetro de no centralidad. El gráfico de la función de densidad de probabilidad de\( Z \) es como el de la función de densidad de probabilidad normal estándar, pero desplazado hacia la derecha o hacia la izquierda por el parámetro de no centralidad, dependiendo de si\( \mu \gt \mu_0 \) o\( \mu \lt \mu_0 \).

    Para\( \alpha \in (0, 1) \), cada una de las siguientes pruebas tiene nivel de significancia\( \alpha \):

    1. Rechazar\( H_0: \mu = \mu_0 \) versus\( H_1: \mu \ne \mu_0 \) si y solo si\( Z \lt -z(1 - \alpha /2) \) o\( Z \gt z(1 - \alpha / 2) \) si y solo si\( M \lt \mu_0 - z(1 - \alpha / 2) \frac{\sigma}{\sqrt{n}} \) o\( M \gt \mu_0 + z(1 - \alpha / 2) \frac{\sigma}{\sqrt{n}} \).
    2. Rechazar\( H_0: \mu \le \mu_0 \) versus\( H_1: \mu \gt \mu_0 \) si y solo\( Z \gt z(1 - \alpha) \) si y solo si\( M \gt \mu_0 + z(1 - \alpha) \frac{\sigma}{\sqrt{n}} \).
    3. Rechazar\( H_0: \mu \ge \mu_0 \) versus\( H_1: \mu \lt \mu_0 \) si y solo\( Z \lt -z(1 - \alpha) \) si y solo si\( M \lt \mu_0 - z(1 - \alpha) \frac{\sigma}{\sqrt{n}} \).
    Prueba

    En la parte (a),\( H_0 \) es una hipótesis simple, y bajo\( H_0 \),\( Z \) tiene la distribución normal estándar. Así\( \alpha \) es la probabilidad de rechazar falsamente\( H_0 \) por definición de los cuantiles. En las partes (b) y (c),\( Z \) tiene una distribución normal no central bajo\( H_0 \) como se discutió anteriormente. Entonces si\( H_0 \) es cierto, la probabilidad máxima de error tipo 1\( \alpha \) ocurre cuando\( \mu = \mu_0 \). Las reglas de decisión en términos de\( M \) son equivalentes a las correspondientes en términos\( Z \) de álgebra simple.

    La parte (a) es la prueba estándar de dos caras, mientras que (b) es la prueba de cola derecha y (c) es la prueba de cola izquierda. Obsérvese que en cada caso, la prueba de hipótesis es el dual de la estimación de intervalo correspondiente construida en el apartado de Estimación en el Modelo Normal.

    Para cada una de las pruebas anteriores, fallamos\(H_0\) en rechazar a nivel de significancia\(\alpha\) si y solo si\(\mu_0\) está en el intervalo de\(1 - \alpha\) confianza correspondiente, es decir

    1. \( M - z(1 - \alpha / 2) \frac{\sigma}{\sqrt{n}} \le \mu_0 \le M + z(1 - \alpha / 2) \frac{\sigma}{\sqrt{n}} \)
    2. \( \mu_0 \le M + z(1 - \alpha) \frac{\sigma}{\sqrt{n}}\)
    3. \( \mu_0 \ge M - z(1 - \alpha) \frac{\sigma}{\sqrt{n}}\)
    Prueba

    Esto se desprende del resultado anterior. En cada caso, partimos con la desigualdad que corresponde a no rechazar\( H_0 \) y resolver por\( \mu_0 \).

    La prueba bilateral en (a) corresponde a\( \alpha / 2 \) en cada cola de la distribución del estadístico de prueba\( Z \), bajo\( H_0 \). Se dice que este conjunto es imparcial. Pero por supuesto podemos construir otras pruebas sesgadas dividiendo el nivel de confianza\( \alpha \) entre las colas izquierda y derecha de una manera no simétrica.

    Para cada\(\alpha, \, p \in (0, 1)\), la siguiente prueba tiene nivel de significancia\(\alpha\): Rechazar\(H_0: \mu = \mu_0\) versus\(H_1: \mu \ne \mu_0\) si y solo si\(Z \lt z(\alpha - p \alpha)\) o\(Z \ge z(1 - p \alpha)\).

    1. \( p = \frac{1}{2} \)da la prueba simétrica e imparcial.
    2. \( p \downarrow 0 \)da la prueba de cola izquierda.
    3. \( p \uparrow 1 \)da la prueba de cola derecha.
    Prueba

    Como antes\( H_0 \) es una hipótesis simple, y si\( H_0 \) es verdad,\( Z \) tiene la distribución normal estándar. Entonces la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. Las partes (a) — (c) se derivan de las propiedades de la función cuantil normal estándar.

    El\(P\) -valor de estas pruebas se puede calcular en términos de la función de distribución normal estándar\(\Phi\).

    Los\(P\) -valores de las pruebas estándar anteriores son respectivamente

    1. \( 2 \left[1 - \Phi\left(\left|Z\right|\right)\right]\)
    2. \( 1 - \Phi(Z) \)
    3. \( \Phi(Z) \)

    Recordemos que la función power de una prueba de un parámetro es la probabilidad de rechazar la hipótesis nula, en función del valor verdadero del parámetro. Nuestra próxima serie de resultados explorará las funciones de potencia de las pruebas anteriores.

    La función de potencia de la prueba general de dos caras anterior viene dada por\[ Q(\mu) = \Phi \left( z(\alpha - p \alpha) - \frac{\sqrt{n}}{\sigma} (\mu - \mu_0) \right) + \Phi \left( \frac{\sqrt{n}}{\sigma} (\mu - \mu_0) - z(1 - p \alpha) \right), \quad \mu \in \R \]

    1. \(Q\)está disminuyendo\((-\infty, m_0)\) y aumentando en\((m_0, \infty)\) dónde\(m_0 = \mu_0 + \left[z(\alpha - p \alpha) + z(1 - p \alpha)\right] \frac{\sqrt{n}}{2 \sigma}\).
    2. \(Q(\mu_0) = \alpha\).
    3. \(Q(\mu) \to 1\)como\(\mu \uparrow \infty\) y\(Q(\mu) \to 1\) como\(\mu \downarrow -\infty\).
    4. Si\(p = \frac{1}{2}\) entonces\(Q\) es simétrico sobre\(\mu_0\) (y\( m_0 = \mu_0 \)).
    5. A\(p\) medida que\(Q(\mu)\) aumenta, aumenta si\(\mu \gt \mu_0\) y disminuye si\(\mu \lt \mu_0\).

    Entonces variando\( p \), podemos hacer que la prueba sea más poderosa para algunos valores de\( \mu \), pero solo a expensas de hacer que la prueba sea menos poderosa para otros valores de\( \mu \).

    La función de potencia de la prueba de cola izquierda anterior viene dada por

    \[ Q(\mu) = \Phi \left( z(\alpha) + \frac{\sqrt{n}}{\sigma}(\mu - \mu_0) \right), \quad \mu \in \R \]
    1. \(Q\)está aumentando en\(\R\).
    2. \(Q(\mu_0) = \alpha\).
    3. \(Q(\mu) \to 1\)como\(\mu \uparrow \infty\) y\(Q(\mu) \to 0\) como\(\mu \downarrow -\infty\).

    La función de potencia de la prueba de cola derecha anterior, viene dada por\[ Q(\mu) = \Phi \left( z(\alpha) - \frac{\sqrt{n}}{\sigma}(\mu - \mu_0) \right), \quad \mu \in \R \]

    1. \(Q\)está disminuyendo en\(\R\).
    2. \(Q(\mu_0) = \alpha\).
    3. \(Q(\mu) \to 0\)como\(\mu \uparrow \infty\) y\(Q(\mu) \to 1\) como\(\mu \downarrow -\infty\).

    Para cualquiera de las tres pruebas anteriores, aumentar el tamaño de la muestra\(n\) o disminuir la desviación estándar\(\sigma\) da como resultado una prueba uniformemente más potente.

    En el experimento de prueba de medias, seleccione el estadístico de prueba normal y seleccione la distribución de muestreo normal con desviación estándar\(\sigma = 2\), nivel de significancia\(\alpha = 0.1\), tamaño de la muestra\(n = 20\), y\(\mu_0 = 0\). Ejecutar el experimento 1000 veces para varios valores de la media de distribución verdadera\(\mu\). Por cada valor de\(\mu\), anote la frecuencia relativa del evento en el que se rechaza la hipótesis nula. Esbozar la función empírica de potencia.

    En el experimento de estimación media, seleccione la variable de pivote normal y seleccione la distribución normal con\(\mu = 0\) desviación estándar\(\sigma = 2\)\(1 - \alpha = 0.90\), nivel de confianza y tamaño de la muestra\(n = 10\). Para cada uno de los tres tipos de intervalos de confianza, ejecute el experimento 20 veces. Indicar las hipótesis correspondientes y el nivel de significancia, y para cada tirada, dar el conjunto de\(\mu_0\) para el que se rechazaría la hipótesis nula.

    En muchos casos, el primer paso es diseñar el experimento de manera que el nivel de significancia sea\(\alpha\) y para que la prueba tenga un poder dado\(\beta\) para una alternativa dada\(\mu_1\).

    Para cualquiera de las pruebas unilaterales anteriores, el tamaño de muestra\(n\) necesario para una prueba con nivel de significancia\(\alpha\) y potencia\(\beta\) para la alternativa\(\mu_1\) es\[ n = \left( \frac{\sigma \left[z(\beta) - z(\alpha)\right]}{\mu_1 - \mu_0} \right)^2 \]

    Prueba

    Esto se deduce de establecer la función de potencia igual a\(\beta\) y resolver para\(n\)

    Para la prueba imparcial y bilateral, el tamaño de muestra\(n\) necesario para una prueba con nivel de significancia\(\alpha\) y potencia\(\beta\) para la alternativa\(\mu_1\) es aproximadamente\[ n = \left( \frac{\sigma \left[z(\beta) - z(\alpha / 2)\right]}{\mu_1 - \mu_0} \right)^2 \]

    Prueba

    En la función de poder para la prueba bilateral dada anteriormente, podemos descuidar el primer término si\(\mu_1 \lt \mu_0\) y descuidar el segundo término si\(\mu_1 \gt \mu_0\).

    Pruebas de la Media con Desviación Estándar Desconocida

    Para nuestra siguiente discusión, construimos pruebas de\(\mu\) sin requerir la suposición que\(\sigma\) se conoce. Y en aplicaciones por supuesto,\( \sigma \) suele ser desconocido.

    Para una conjetura\( \mu_0 \in \R \), defina el estadístico de prueba\[ T = \frac{M - \mu_0}{S \big/ \sqrt{n}} \]

    1. Si\( \mu = \mu_0 \), la estadística\( T \) tiene la\( t \) distribución estudiantil con\( n - 1 \) grados de libertad.
    2. Si\( \mu \ne \mu_0 \) entonces\( T \) tiene una\( t \) distribución no central con\( n - 1 \) grados de libertad y parámetro de no centralidad\( \frac{\mu - \mu_0}{\sigma / \sqrt{n}} \).

    En el caso (b), la gráfica de la función de densidad de probabilidad de\( T \) es mucho (pero no exactamente) la misma que la de la\( t \) distribución ordinaria con\( n - 1 \) grados de libertad, pero desplazada hacia la derecha o hacia la izquierda por el parámetro de no centralidad, dependiendo de si\( \mu \gt \mu_0 \) o\( \mu \lt \mu_0 \).

    Para\( \alpha \in (0, 1) \), cada una de las siguientes pruebas tiene nivel de significancia\( \alpha \):

    1. Rechazar\( H_0: \mu = \mu_0 \) versus\( H_1: \mu \ne \mu_0 \) si y solo si\( T \lt -t_{n-1}(1 - \alpha /2) \) o\( T \gt t_{n-1}(1 - \alpha / 2) \) si y solo si\( M \lt \mu_0 - t_{n-1}(1 - \alpha / 2) \frac{S}{\sqrt{n}} \) o\( T \gt \mu_0 + t_{n-1}(1 - \alpha / 2) \frac{S}{\sqrt{n}} \).
    2. Rechazar\( H_0: \mu \le \mu_0 \) versus\( H_1: \mu \gt \mu_0 \) si y solo\( T \gt t_{n-1}(1 - \alpha) \) si y solo si\( M \gt \mu_0 + t_{n-1}(1 - \alpha) \frac{S}{\sqrt{n}} \).
    3. Rechazar\( H_0: \mu \ge \mu_0 \) versus\( H_1: \mu \lt \mu_0 \) si y solo\( T \lt -t_{n-1}(1 - \alpha) \) si y solo si\( M \lt \mu_0 - t_{n-1}(1 - \alpha) \frac{S}{\sqrt{n}} \).
    Prueba

    En la parte (a),\( T \) tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad bajo\( H_0 \). Entonces, si\( H_0 \) es cierto, la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. En las partes b) y c),\( T \) tiene una\( t \) distribución no central con\( n - 1 \) grados de libertad bajo\( H_0 \), como se discutió anteriormente. De ahí\( H_0 \) que si es verdadero, la probabilidad máxima de error tipo 1\( \alpha \) ocurre cuando\( \mu = \mu_0 \). Las reglas de decisión en términos de\( M \) son equivalentes a las correspondientes en términos\( T \) de álgebra simple.

    La parte (a) es la prueba estándar de dos caras, mientras que (b) es la prueba de cola derecha y (c) es la prueba de cola izquierda. Obsérvese que en cada caso, la prueba de hipótesis es el dual de la estimación de intervalo correspondiente construida en el apartado de Estimación en el Modelo Normal.

    Para cada una de las pruebas anteriores, fallamos\(H_0\) en rechazar a nivel de significancia\(\alpha\) si y sólo si\(\mu_0\) se encuentra en el intervalo de\(1 - \alpha\) confianza correspondiente.

    1. \( M - t_{n-1}(1 - \alpha / 2) \frac{S}{\sqrt{n}} \le \mu_0 \le M + t_{n-1}(1 - \alpha / 2) \frac{S}{\sqrt{n}} \)
    2. \( \mu_0 \le M + t_{n-1}(1 - \alpha) \frac{S}{\sqrt{n}}\)
    3. \( \mu_0 \ge M - t_{n-1}(1 - \alpha) \frac{S}{\sqrt{n}}\)
    Prueba

    Esto se desprende del resultado anterior. En cada caso, partimos con la desigualdad que corresponde a no rechazar\( H_0 \) y luego resolver por\( \mu_0 \).

    La prueba bilateral en (a) corresponde a\( \alpha / 2 \) en cada cola de la distribución del estadístico de prueba\( T \), bajo\( H_0 \). Se dice que este conjunto es imparcial. Pero por supuesto podemos construir otras pruebas sesgadas dividiendo el nivel de confianza\( \alpha \) entre las colas izquierda y derecha de una manera no simétrica.

    Para cada\(\alpha, \, p \in (0, 1)\), la siguiente prueba tiene nivel de significancia\(\alpha\): Rechazar\(H_0: \mu = \mu_0\) versus\(H_1: \mu \ne \mu_0\) si y solo si\(T \lt t_{n-1}(\alpha - p \alpha)\) o\(T \ge t_{n-1}(1 - p \alpha)\) si y solo si\( M \lt \mu_0 + t_{n-1}(\alpha - p \alpha) \frac{S}{\sqrt{n}} \) o\( M \gt \mu_0 + t_{n-1}(1 - p \alpha) \frac{S}{\sqrt{n}} \).

    1. \( p = \frac{1}{2} \)da la prueba simétrica e imparcial.
    2. \( p \downarrow 0 \)da la prueba de cola izquierda.
    3. \( p \uparrow 1 \)da la prueba de cola derecha.
    Prueba

    Una vez más,\( H_0 \) es una hipótesis simple, y bajo\( H_0 \) la prueba estadística\( T \) tiene la\( t \) distribución estudiantil con\( n - 1 \) grados de libertad. Entonces, si\( H_0 \) es cierto, la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. Las partes (a) — (c) se derivan de las propiedades de la función quantile.

    El\(P\) -valor de estas pruebas se puede computar en términos de la función\(\Phi_{n-1}\) de distribución de la\(t\) -distribución con\(n - 1\) grados de libertad.

    Los\(P\) -valores de las pruebas estándar anteriores son respectivamente

    1. \( 2 \left[1 - \Phi_{n-1}\left(\left|T\right|\right)\right]\)
    2. \( 1 - \Phi_{n-1}(T) \)
    3. \( \Phi_{n-1}(T) \)

    En el experimento de prueba de medias, seleccione el estadístico de prueba de estudiante y seleccione la distribución de muestreo normal con desviación estándar\(\sigma = 2\), nivel de significancia\(\alpha = 0.1\), tamaño de la muestra\(n = 20\), y\(\mu_0 = 1\). Ejecutar el experimento 1000 veces para varios valores de la media de distribución verdadera\(\mu\). Por cada valor de\(\mu\), anote la frecuencia relativa del evento en el que se rechaza la hipótesis nula. Esbozar la función empírica de potencia.

    En el experimento de estimación media, seleccione la variable pivote de estudiante y seleccione la distribución de muestreo normal con media 0 y desviación estándar 2. Seleccione el nivel de confianza 0.90 y el tamaño de muestra 10. Para cada uno de los tres tipos de intervalos, ejecute el experimento 20 veces. Indicar las hipótesis correspondientes y el nivel de significancia, y para cada tirada, dar el conjunto de\(\mu_0\) para el que se rechazaría la hipótesis nula.

    La función de potencia para las\( t \) pruebas anteriores se puede calcular explícitamente en términos de la función de\(t\) distribución no central. Cualitativamente, los gráficos de las funciones de potencia son similares al caso cuando\(\sigma\) se conoce, dado por encima de los casos de dos lados, de cola izquierda y de cola derecha.

    Si\(\sigma\) se conoce un límite superior\(\sigma_0\) en la desviación estándar, entonces se pueden obtener estimaciones conservadoras sobre el tamaño de muestra necesario para un nivel de confianza dado y un margen de error dado usando los métodos para la variable de pivote normal, en las dos caras y unilaterales casos.

    Pruebas de la Desviación Estándar

    Para nuestra próxima discusión, construiremos pruebas de hipótesis para la desviación estándar de distribución\( \sigma \). Entonces nuestra suposición\( \sigma \) es que se desconoce, y por supuesto casi siempre, también\( \mu \) sería desconocida.

    Para un valor conjeturado\( \sigma_0 \in (0, \infty)\), defina el estadístico de prueba\[ V = \frac{n - 1}{\sigma_0^2} S^2 \]

    1. Si\( \sigma = \sigma_0 \), entonces\( V \) tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad.
    2. Si\( \sigma \ne \sigma_0 \) entonces\( V \) tiene la distribución gamma con el parámetro shape\( (n - 1) / 2 \) y el parámetro scale\( 2 \sigma^2 \big/ \sigma_0^2 \).

    Recordemos que la distribución chi-cuadrada ordinaria con\( n - 1 \) grados de libertad es la distribución gamma con parámetro de forma\( (n - 1) / 2 \) y parámetro de escala\( \frac{1}{2} \). Entonces, en el caso (b), la distribución ordinaria de chi-cuadrado es escalada por\( \sigma^2 \big/ \sigma_0^2 \). En particular, el factor de escala es mayor que 1 si\( \sigma \gt \sigma_0 \) y menor que 1 si\( \sigma \lt \sigma_0 \).

    Para cada uno\(\alpha \in (0, 1)\), la siguiente prueba tiene nivel de significancia\(\alpha\):

    1. Rechazar\(H_0: \sigma = \sigma_0\) versus\(H_1: \sigma \ne \sigma_0\) si y solo si\(V \lt \chi_{n-1}^2(\alpha / 2)\) o\(V \gt \chi_{n-1}^2(1 - \alpha / 2)\) si y solo si\( S^2 \lt \chi_{n-1}^2(\alpha / 2) \frac{\sigma_0^2}{n - 1} \) o\( S^2 \gt \chi_{n-1}^2(1 - \alpha / 2) \frac{\sigma_0^2}{n - 1} \)
    2. Rechazar\(H_0: \sigma \ge \sigma_0\) versus\(H_1: \sigma \lt \sigma_0\) si y solo\(V \lt \chi_{n-1}^2(\alpha)\) si y solo si\( S^2 \lt \chi_{n-1}^2(\alpha) \frac{\sigma_0^2}{n - 1} \)
    3. Rechazar\(H_0: \sigma \le \sigma_0\) versus\(H_1: \sigma \gt \sigma_0\) si y solo\(V \gt \chi_{n-1}^2(1 - \alpha)\) si y solo si\( S^2 \gt \chi_{n-1}^2(1 - \alpha) \frac{\sigma_0^2}{n - 1} \)
    Prueba

    La lógica es en gran parte la misma que con nuestra otra prueba de hipótesis. En la parte (a),\( H_0 \) es una hipótesis simple, y bajo\( H_0 \), el estadístico de prueba\( V \) tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad. Entonces, si\( H_0 \) es cierto, la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. En las partes (b) y (c),\( V \) tiene la distribución gamma más general bajo\( H_0 \), como se discutió anteriormente. Si\( H_0 \) es true, la probabilidad máxima de error tipo 1 es\( \alpha \) y ocurre cuando\( \sigma = \sigma_0 \).

    La parte (a) es la prueba imparcial, bilateral que corresponde\( \alpha / 2 \) en cada cola de la distribución chi-cuadrada del estadístico de prueba\( V \), bajo\( H_0 \). La parte (b) es la prueba de cola izquierda y la parte (c) es la prueba de cola derecha. Una vez más, tenemos una dualidad entre las pruebas de hipótesis y las estimaciones de intervalo construidas en el apartado de Estimación en el Modelo Normal.

    Para cada una de las pruebas anteriores, fallamos en rechazar\(H_0\) a nivel de significancia\(\alpha\) si y sólo si\(\sigma_0^2\) se encuentra en el intervalo de\(1 - \alpha\) confianza correspondiente. Eso es

    1. \( \frac{n - 1}{\chi_{n-1}^2(1 - \alpha / 2)} S^2 \le \sigma_0^2 \le \frac{n - 1}{\chi_{n-1}^2(\alpha / 2)} S^2 \)
    2. \( \sigma_0^2 \le \frac{n - 1}{\chi_{n-1}^2(\alpha)} S^2 \)
    3. \( \sigma_0^2 \ge \frac{n - 1}{\chi_{n-1}^2(1 - \alpha)} S^2 \)
    Prueba

    Esto se desprende del resultado anterior. En cada caso, partimos con la desigualdad que corresponde a no rechazar\( H_0 \) y luego resolver por\( \sigma_0^2 \).

    Como antes, podemos construir pruebas de doble cara más generales dividiendo el nivel de significancia\( \alpha \) entre las colas izquierda y derecha de la distribución chi-cuadrada de manera arbitraria.

    Para cada\(\alpha, \, p \in (0, 1)\), la siguiente prueba tiene nivel de significancia\(\alpha\): Rechazar\(H_0: \sigma = \sigma_0\) versus\(H_1: \sigma \ne \sigma_0\) si y solo si\(V \le \chi_{n-1}^2(\alpha - p \alpha)\) o\(V \ge \chi_{n-1}^2(1 - p \alpha)\) si y solo si\( S^2 \lt \chi_{n-1}^2(\alpha - p \alpha) \frac{\sigma_0^2}{n - 1} \) o\( S^2 \gt \chi_{n-1}^2(1 - p \alpha) \frac{\sigma_0^2}{n - 1} \).

    1. \( p = \frac{1}{2} \)da la prueba de cola igual.
    2. \( p \downarrow 0 \)da la prueba de cola izquierda.
    3. \( p \uparrow 1 \)da la prueba de cola derecha.
    Prueba

    Como antes,\( H_0 \) es una hipótesis simple, y bajo\( H_0 \) la prueba estadística\( V \) tiene la distribución chi-cuadrada con\( n - 1 \) grados de libertad. Entonces, si\( H_0 \) es cierto, la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. Las partes (a) — (c) se derivan de las propiedades de la función quantile.

    Recordemos nuevamente que la función power de una prueba de un parámetro es la probabilidad de rechazar la hipótesis nula, en función del valor verdadero del parámetro. Las funciones de potencia de las pruebas para se\( \sigma \) pueden expresar en términos de la función\( G_{n-1} \) de distribución de la distribución chi-cuadrada con\( n - 1 \) grados de libertad.

    La función de potencia de la prueba general de dos caras anterior viene dada por la siguiente fórmula, y satisface las propiedades dadas:\[ Q(\sigma) = 1 - G_{n-1} \left( \frac{\sigma_0^2}{\sigma^2} \chi_{n-1}^2(1 - p \, \alpha) \right) + G_{n-1} \left(\frac{\sigma_0^2}{\sigma^2} \chi_{n-1}^2(\alpha - p \, \alpha) \right)\]

    1. \(Q\)está disminuyendo\((-\infty, \sigma_0)\) y aumentando en\((\sigma_0, \infty)\).
    2. \(Q(\sigma_0) = \alpha\).
    3. \(Q(\sigma) \to 1\)como\(\sigma \uparrow \infty\) y\(Q(\sigma) \to 1\) como\(\sigma \downarrow 0\).

    La función de potencia de la prueba de cola izquierda arriba viene dada por la siguiente fórmula, y satisface las propiedades dadas:\[ Q(\sigma) = 1 - G_{n-1} \left( \frac{\sigma_0^2}{\sigma^2} \chi_{n-1}^2(1 - \alpha) \right) \]

    1. \(Q\)está aumentando en\((0, \infty)\).
    2. \(Q(\sigma_0) = \alpha\).
    3. \(Q(\sigma) \to 1\)como\(\sigma \uparrow \infty\) y\(Q(\sigma) \to 0\) como\(\sigma \downarrow 0\).

    La función de potencia para la prueba de cola derecha anterior viene dada por la siguiente fórmula, y satisface las propiedades dadas:\[ Q(\sigma) = G_{n-1} \left( \frac{\sigma_0^2}{\sigma^2} \chi_{n-1}^2(\alpha) \right) \]

    1. \(Q\)está disminuyendo en\((0, \infty)\).
    2. \(Q(\sigma_0) =\alpha\).
    3. \(Q(\sigma) \to 0\)como\(\sigma \uparrow \infty)\) y\(Q(\sigma) \to 0\) como\(\sigma \uparrow \infty\) y como\(\sigma \downarrow 0\).

    En el experimento de prueba de varianza, seleccione la distribución normal con media 0, y seleccione el nivel de significancia 0.1, el tamaño de la muestra 10 y la desviación estándar de la prueba 1.0. Para varios valores de la desviación estándar verdadera, ejecute la simulación 1000 veces. Registrar la frecuencia relativa de rechazo de la hipótesis nula y trazar la curva de potencia empírica.

    1. Prueba a doble cara
    2. Prueba de cola izquierda
    3. Prueba de cola derecha

    En el experimento de estimación de varianza, seleccione la distribución normal con media 0 y desviación estándar 2, y seleccione nivel de confianza 0.90 y tamaño de muestra 10. Ejecutar el experimento 20 veces. Indicar las hipótesis correspondientes y el nivel de significancia, y para cada tirada, dar el conjunto de desviaciones estándar de prueba para las cuales se rechazaría la hipótesis nula.

    1. Intervalo de confianza de dos caras
    2. Confianza en el límite inferior
    3. Límite superior de confianza

    Ejercicios

    Robustez

    La suposición primaria que hicimos es que la distribución muestral subyacente es normal. Por supuesto, en problemas estadísticos reales, es poco probable que sepamos mucho sobre la distribución muestral, y mucho menos si es normal o no. Supongamos de hecho que la distribución subyacente no es normal. Cuando el tamaño de la muestra\(n\) es relativamente grande, la distribución de la media de la muestra seguirá siendo aproximadamente normal por el teorema del límite central, y así nuestras pruebas de la media aún\(\mu\) deberían ser aproximadamente válidas. Por otro lado, las pruebas de la varianza\(\sigma^2\) son menos robustas a las desviaciones que forman el supuesto de normalidad. Los siguientes ejercicios exploran estas ideas.

    En el experimento de prueba media, seleccione la distribución gamma con el parámetro de forma 1 y el parámetro de escala 1. Para las tres pruebas diferentes y para diversos niveles de significancia, tamaños de muestra y valores de\(\mu_0\), ejecutar el experimento 1000 veces. Para cada configuración, anote la frecuencia relativa de rechazo\(H_0\). Cuando\(H_0\) sea cierto, compare la frecuencia relativa con el nivel de significancia.

    En el experimento de prueba media, seleccione la distribución uniforme en\([0, 4]\). Para las tres pruebas diferentes y para diversos niveles de significancia, tamaños de muestra y valores de\(\mu_0\), ejecutar el experimento 1000 veces. Para cada configuración, anote la frecuencia relativa de rechazo\(H_0\). Cuando\(H_0\) sea cierto, compare la frecuencia relativa con el nivel de significancia.

    Lo grande que\(n\) debe ser para que el procedimiento de prueba funcione bien depende, por supuesto, de la distribución subyacente; cuanto más se desvíe esta distribución de la normalidad, mayor\(n\) debe ser. Afortunadamente, la convergencia a la normalidad en el teorema del límite central es rápida y por lo tanto, como observaste en los ejercicios, podemos salirnos con tamaños de muestra relativamente pequeños (30 o más) en la mayoría de los casos.

    En el experimento de prueba de varianza, seleccione la distribución gamma con el parámetro de forma 1 y el parámetro de escala 1. Para las tres pruebas diferentes y para diversos niveles de significancia, tamaños de muestra y valores de\(\sigma_0\), ejecutar el experimento 1000 veces. Para cada configuración, anote la frecuencia relativa de rechazo\(H_0\). Cuando\(H_0\) sea cierto, compare la frecuencia relativa con el nivel de significancia.

    En el experimento de prueba de varianza, seleccione la distribución uniforme en\([0, 4]\). Para las tres pruebas diferentes y para diversos niveles de significancia, tamaños de muestra y valores de\(\mu_0\), ejecutar el experimento 1000 veces. Para cada configuración, anote la frecuencia relativa de rechazo\(H_0\). Cuando\(H_0\) sea cierto, compare la frecuencia relativa con el nivel de significancia.

    Ejercicios Computacionales

    Se supone que la longitud de cierta pieza mecanizada es de 10 centímetros. De hecho, debido a imperfecciones en el proceso de fabricación, la longitud real es una variable aleatoria. La desviación estándar se debe a factores inherentes al proceso, que se mantienen bastante estables a lo largo del tiempo. A partir de datos históricos, se sabe que la desviación estándar con un alto grado de precisión es 0.3. La media, por otro lado, se puede establecer ajustando varios parámetros en el proceso y por lo tanto puede cambiar a un valor desconocido con bastante frecuencia. Estamos interesados en probar\(H_0: \mu = 10\) versus\(H_1: \mu \ne 10\).

    1. Supongamos que una muestra de 100 partes tiene media 10.1. Realizar la prueba en el nivel 0.1 de significancia.
    2. Calcular el\(P\) valor -para los datos en (a).
    3. Calcular la potencia de la prueba en (a) en\(\mu = 10.05\).
    4. Compute el tamaño de muestra aproximado necesario para el nivel de significancia 0.1 y la potencia 0.8 cuando\(\mu = 10.05\).
    Contestar
    1. Estadística de prueba 3.33, valores críticos\(\pm 1.645\). Rechazar\(H_0\).
    2. \(P = 0.0010\)
    3. La potencia de la prueba a 10.05 es aproximadamente 0.0509.
    4. Tamaño de la muestra 223

    Una bolsa de papas fritas de cierta marca tiene un peso anunciado de 250 gramos. En realidad, el peso (en gramos) es una variable aleatoria. Supongamos que una muestra de 75 bolsas tiene media 248 y desviación estándar 5. Al nivel de significancia 0.05, realice las siguientes pruebas:

    1. \(H_0: \mu \ge 250\)versus\(H_1: \mu \lt 250\)
    2. \(H_0: \sigma \ge 7\)versus\(H_1: \sigma \lt 7\)
    Contestar
    1. Estadística de prueba\(-3.464\), valor crítico\(-1.665\). Rechazar\(H_0\).
    2. \(P \lt 0.0001\)así que rechace\(H_0\).

    En una empresa de telemarketing, la duración de una solicitud telefónica (en segundos) es una variable aleatoria. Una muestra de 50 llamadas tiene media 310 y desviación estándar 25. En el nivel 0.1 de significancia, podemos concluir que

    1. \(\mu \gt 300\)?
    2. \(\sigma \gt 20\)?
    Contestar
    1. Estadístico de prueba 2.828, valor crítico 1.2988. Rechazar\(H_0\).
    2. \(P = 0.0071\)así que rechace\(H_0\).

    En cierta granja el peso de un durazno (en onzas) en el momento de la cosecha es una variable aleatoria. Una muestra de 100 melocotones tiene media 8.2 y desviación estándar 1.0. En el nivel 0.01 de significancia, podemos concluir que

    1. \(\mu \gt 8\)?
    2. \(\sigma \lt 1.5\)?
    Contestar
    1. Estadística de prueba 2.0, valor crítico 2.363. No rechazar\(H_0\).
    2. \(P \lt 0.0001\)así que rechace\(H_0\).

    El salario por hora para un determinado tipo de obra de construcción es una variable aleatoria con desviación estándar 1.25. Para la muestra de 25 trabajadores, el salario medio fue de $6.75. En el nivel 0.01 de significancia, ¿podemos concluir eso\(\mu \lt 7.00\)?

    Contestar

    Estadística de prueba\(-1\), valor crítico\(-2.328\). No rechazar\(H_0\).

    Ejercicios de Análisis de Datos

    Usando los datos de Michelson, pruebe para ver si la velocidad de la luz es mayor a 730 (+299000) km/seg, al nivel de significancia 0.005.

    Contestar

    Estadístico de prueba 15.49, valor crítico 2.6270. Rechazar\(H_0\).

    Usando los datos de Cavendish, prueba para ver si la densidad de la tierra es menor a 5.5 veces la densidad del agua, al nivel de significancia 0.05.

    Contestar

    Estadística de prueba\(-1.269\), valor crítico\(-1.7017\). No rechazar\(H_0\).

    Usando los datos de Short, prueba para ver si el paralaje del sol difiere de 9 segundos de un grado, en el nivel de significancia 0.1.

    Contestar

    Estadística de prueba\(-3.730\), valor crítico\(\pm 1.6749\). Rechazar\(H_0\).

    Utilizando los datos del iris de Fisher, realice las siguientes pruebas, en el nivel 0.1:

    1. La longitud media de los pétalos de los iris Setosa difiere de 15 mm.
    2. La longitud media del pétalo de los iris Verginica es mayor a 52 mm.
    3. La longitud media de los pétalos de los iris Versicolor es inferior a 44 mm.
    Contestar
    1. Estadística de prueba\(-1.563\), valores críticos\(\pm 1.672\). No rechazar\(H_0\).
    2. Estadístico de prueba 4.556, valor crítico 1.2988. Rechazar\(H_0\).
    3. Estadística de prueba\(-1.028\), valor crítico\(-1.2988\). No Rechazar\(H_0\).

    This page titled 9.2: Pruebas en el Modelo Normal is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.