Saltar al contenido principal
LibreTexts Español

9.3: Pruebas en el Modelo Bernoulli

  • Page ID
    151745
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\Z}{\mathbb{Z}}\)\(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\sd}{\text{sd}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Pruebas Básicas

    Preliminares

    Supongamos que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es una muestra aleatoria de la distribución de Bernoulli con parámetro desconocido\(p \in (0, 1)\). Así, se trata de variables aleatorias independientes que toman los valores 1 y 0 con probabilidades\(p\) y\(1 - p\) respectivamente. En el lenguaje habitual de confiabilidad, 1 denota éxito y 0 denota fracaso, pero por supuesto estos son términos genéricos. A menudo este modelo surge en uno de los siguientes contextos:

    1. Hay un evento de interés en un experimento básico, con probabilidad desconocida\(p\). Replicamos los\(n\) tiempos del experimento y definimos\(X_i = 1\) si y solo si el evento ocurrió en ejecución\(i\).
    2. Tenemos una población de objetos de varios tipos diferentes;\(p\) es la proporción desconocida de objetos de un tipo particular de interés. Seleccionamos\(n\) objetos al azar de la población y dejamos\(X_i = 1\) si y solo si el objeto\(i\) es del tipo de interés. Cuando el muestreo es con reemplazo, estas variables realmente forman una muestra aleatoria de la distribución de Bernoulli. Cuando el muestreo es sin reemplazo, las variables son dependientes, pero el modelo de Bernoulli aún puede ser aproximadamente válido si el tamaño de la población es muy grande en comparación con el tamaño de la muestra\(n\). Para más información sobre estos puntos, consulte la discusión del muestreo con y sin reemplazo en el capítulo sobre Modelos de Muestreo Finito.

    En esta sección, construiremos pruebas de hipótesis para el parámetro\(p\). El espacio de parámetros para\(p\) es el intervalo\((0, 1)\), y todas las hipótesis definen subconjuntos de este espacio. Esta sección es paralela a la sección sobre Estimación en el Modelo de Bernoulli en el Capítulo sobre Estimación de Intervalos.

    La prueba binomial

    Recordemos que el número de éxitos\(Y = \sum_{i=1}^n X_i\) tiene la distribución binomial con parámetros\(n\) y\(p\), y tiene la función de densidad de probabilidad dada por\[ \P(Y = y) = \binom{n}{y} p^y (1 - p)^{n-y}, \quad y \in \{0, 1, \ldots, n\} \] Recall también que la media es\(\E(Y) = n p\) y la varianza es\(\var(Y) = n p (1 - p)\). Además\(Y\) es suficiente para\(p\) y por lo tanto es un candidato natural para ser un estadístico de prueba para pruebas de hipótesis sobre\(p\). Para\(\alpha \in (0, 1)\), vamos a\(b_{n, p}(\alpha)\) denotar el cuantil de orden\(\alpha\) para la distribución binomial con parámetros\(n\) y\(p\). Dado que la distribución binomial es discreta, solo son posibles ciertos cuantiles (exactos). Para lo que resta de esta discusión,\( p_0 \in (0, 1) \) es un valor conjeturado de\( p \).

    Para cada uno\(\alpha \in (0, 1)\), las siguientes pruebas tienen un nivel de significancia aproximado\(\alpha\):

    1. Rechazar\(H_0: p = p_0\) versus\(H_1: p \ne p_0\) si y solo si\(Y \le b_{n, p_0}(\alpha / 2)\) o\(Y \ge b_{n, p_0}(1 - \alpha / 2)\).
    2. Rechazar\(H_0: p \ge p_0\) versus\(H_1: p \lt p_0\) si y solo si\(Y \le b_{n, p_0}(\alpha)\).
    3. Rechazar\(H_0: p \le p_0\) versus\(H_1: p \gt p_0\) si y solo si\(Y \ge b_{n, p_0}(1 - \alpha)\).
    Prueba

    En la parte (a),\( H_0 \) es una hipótesis simple, y bajo\( H_0 \) la prueba estadística\( Y \) tiene la distribución binomial con parámetro\( n \) y\( p_0 \). Así, si\( H_0 \) es cierto, entonces\( \alpha \) es (aproximadamente) la probabilidad de rechazar falsamente\( H_0 \) por definición de los cuantiles. En las partes (b) y (c),\( H_0 \) especifica un rango de valores de\( p \). Pero si\( H_0 \) es cierto, la probabilidad máxima de tipo 1 es (aproximadamente)\( \alpha \) y ocurre cuando\( p = p_0 \).

    La prueba en (a) es la prueba estándar, simétrica, de dos lados, correspondiente a la probabilidad\( \alpha / 2 \) (aproximadamente) en ambas colas de la distribución binomial bajo\( H_0 \). La prueba en (b) es la prueba de cola izquierda y la prueba en (c) es la prueba de cola derecha. Como es habitual, podemos generalizar la prueba de dos lados dividiendo\( \alpha \) entre las colas izquierda y derecha de la distribución binomial de manera arbitraria.

    Para cualquiera\(\alpha, \, r \in (0, 1)\), la siguiente prueba tiene nivel de significancia (aproximado)\(\alpha\): Rechazar\(H_0: p = p_0\) versus\(H_1: p \ne p_0\) si y solo si\(Y \le b_{n, p_0}(\alpha - r \alpha)\) o\(Y \ge b_{n, p_0}(1 - r \alpha)\).

    1. \( r = \frac{1}{2} \)da la prueba estándar simétrica de dos caras.
    2. \( r \downarrow 0 \)da la prueba de cola izquierda.
    3. \( r \uparrow 1 \)da la prueba de cola derecha.
    Prueba

    Una vez más,\( H_0 \) es una hipótesis simple y bajo\( H_0 \), el estadístico de prueba\( Y \) tiene la distribución binomial con parámetros\( n \) y\( p_0 \). Así, si\( H_0 \) es cierto entonces la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles. Las partes (a) — (c) se derivan de las propiedades de la función quantile.

    Una prueba normal aproximada

    Cuando\(n\) es grande, la distribución de\(Y\) es aproximadamente normal, por el teorema del límite central, por lo que podemos construir una prueba normal aproximada.

    Supongamos que el tamaño de la muestra\( n \) es grande. Para un conjeturado\( p_0 \in (0, 1) \), defina el estadístico de prueba\[ Z = \frac{Y - n p_0}{\sqrt{n p_0 (1 - p_0)}} \]

    1. Si\( p = p_0 \), entonces\( Z \) tiene aproximadamente una distribución normal estándar.
    2. Si\( p \ne p_0 \), entonces\( Z \) tiene aproximadamente una distribución normal con media\( \sqrt{n} \frac{p - p_0}{\sqrt{p_0 (1 - p_0)}} \) y varianza\( \frac{p (1 - p)}{p_0 (1 - p_0)} \)
    Prueba
    1. Esto se desprende del teorema de Demoivre-Laplace, el caso especial del teorema del límite central aplicado a la distribución binomial. Tenga en cuenta que\( Z \) es simplemente la puntuación estándar asociada con\( Y \).
    2. Con un álgebra bastante simple, podemos escribir\[ Z = \sqrt{n} \frac{p - p_0}{\sqrt{p_0 (1 - p_0)}} + \sqrt{\frac{p (1 - p)}{p_0 (1 - p_0)}} \frac{Y - n p}{\sqrt{n p (1 - p)}} \] El segundo factor en el segundo término vuelve a ser simplemente la puntuación estándar asociada\( Y \) y de ahí que este factor tenga aproximadamente una distribución normal estándar. Por lo que el resultado se desprende de la propiedad de linealidad básica de la distribución normal.

    Como es habitual, para\(\alpha \in (0, 1)\), vamos\(z(\alpha)\) denotar el cuantil de orden\(\alpha\) para la distribución normal estándar. Para valores seleccionados de\(\alpha\), se\(z(\alpha)\) pueden obtener de la calculadora de distribución especial, o de la mayoría de los paquetes de software estadístico. Recordemos también por simetría eso\(z(1 - \alpha) = - z(\alpha)\).

    Para cada uno\(\alpha \in (0, 1)\), las siguientes pruebas tienen un nivel de significancia aproximado\(\alpha\):

    1. Rechazar\(H_0: p = p_0\) versus\(H_1: p \ne p_0\) si y solo si\(Z \lt -z(1 - \alpha / 2)\) o\(Z \gt z(1 - \alpha / 2)\).
    2. Rechazar\(H_0: p \ge p_0\) versus\(H_1: p \lt p_0\) si y solo si\(Z \lt -z(1 - \alpha)\).
    3. Rechazar\(H_0: p \le p_0\) versus\(H_1: p \ge p_0\) si y solo si\(Z \gt z(1 - \alpha)\).
    Prueba

    En la parte (a),\( H_0 \) es una hipótesis simple y bajo\( H_0 \) la prueba el estadístico\( Z \) tiene aproximadamente una distribución normal estándar. De ahí\( H_0 \) que si es cierto entonces la probabilidad de rechazar falsamente\( H_0 \) es aproximadamente\( \alpha \) por definición de los cuantiles. En las partes (b) y (c),\( H_0 \) especifica un rango de valores de\( p \), y bajo\( H_0 \) el estadístico de prueba\( Z \) tiene una distribución normal no estándar, como se describió anteriormente. La probabilidad máxima de error tipo uno es\( \alpha \) y ocurre cuando\( p = p_0 \).

    La prueba en (a) es la prueba simétrica, de dos caras que corresponde\( \alpha / 2 \) en ambas colas de la distribución de\( Z \), bajo\( H_0 \). La prueba en (b) es la prueba de cola izquierda y la prueba en (c) es la prueba de cola derecha. Como es habitual, podemos construir una prueba de doble cara más general dividiendo\( \alpha \) entre las colas izquierda y derecha de la distribución normal estándar de manera arbitraria.

    Para cada\(\alpha, \, r \in (0, 1)\), la siguiente prueba tiene nivel de significancia aproximado\(\alpha\): Rechazar\(H_0: p = p_0\) versus\(H_1: p \ne p_0\) si y solo si\(Z \lt z(\alpha - r \alpha)\) o\(Z \gt z(1 - r \alpha)\).

    1. \( r = \frac{1}{2} \)da la prueba estándar, simétrica de dos caras.
    2. \( r \downarrow 0 \)da la prueba de cola izquierda.
    3. \( r \uparrow 1 \)da la prueba de cola derecha.
    Prueba

    En la parte (a),\( H_0 \) vuelve a ser una hipótesis simple, y bajo\( H_0 \) la prueba el estadístico\( Z \) tiene aproximadamente una distribución normal estándar. Entonces, si\( H_0 \) es cierto, la probabilidad de rechazar falsamente\( H_0 \) es\( \alpha \) por definición de los cuantiles.

    Ejercicios de Simulación

    En el experimento de prueba de proporción, establecer\(H_0: p = p_0\), y seleccionar tamaño de muestra 10, nivel de significancia 0.1, y\(p_0 = 0.5\). Para cada uno\(p \in \{0.1, 0.2, \ldots, 0.9\}\), ejecute el experimento 1000 veces y luego anote la frecuencia relativa de rechazar la hipótesis nula. Grafica la función de potencia empírica.

    En el experimento de prueba de proporción, repita el ejercicio previo con tamaño de muestra 20.

    En el experimento de prueba de proporción, establecer\(H_0: p \le p_0\), y seleccionar tamaño de muestra 15, nivel de significancia 0.05, y\(p_0 = 0.3\). Para cada uno\(p \in \{0.1, 0.2, \ldots, 0.9\}\), ejecute el experimento 1000 veces y anote la frecuencia relativa de rechazar la hipótesis nula. Grafica la función de potencia empírica.

    En el experimento de prueba de proporción, repita el ejercicio previo con tamaño de muestra 30.

    En el experimento de prueba de proporción, establecer\(H_0: p \ge p_0\), y seleccionar tamaño de muestra 20, nivel de significancia 0.01, y\(p_0 = 0.6\). Para cada uno\(p \in \{0.1, 0.2, \ldots, 0.9\}\), ejecute el experimento 1000 veces y luego anote la frecuencia relativa de rechazar la hipótesis nula. Grafica la función de potencia empírica.

    En el experimento de prueba de proporción, repita el ejercicio previo con tamaño de muestra 50.

    Ejercicios Computacionales

    En un polo de 1000 votantes registrados en un determinado distrito, 427 prefieren al candidato X. En el nivel 0.1, ¿es suficiente la evidencia para concluir que más del 40% de los votantes registrados prefieren X?

    Contestar

    Estadística de prueba 1.743, valor crítico 1.282. Rechazar\(H_0\).

    Una moneda es arrojada 500 veces y resulta en 302 cabezas. En el nivel 0.05, prueba para ver si la moneda es injusta.

    Contestar

    Estadística de prueba 4.651, valores críticos\(\pm 1.961\). Rechazar\(H_0\); la moneda es casi seguro que es injusta.

    Se prueba una muestra de 400 chips de memoria de una línea de producción y 32 están defectuosos. En el nivel 0.05, prueba para ver si la proporción de chips defectuosos es menor a 0.1.

    Contestar

    Estadística de prueba\(-1.333\), valor crítico\(-1.645\). No rechazar\(H_0\).

    Se administra un nuevo medicamento a 50 pacientes y el medicamento es efectivo en 42 casos. En el nivel 0.1, prueba para ver si la tasa de éxito para el nuevo medicamento es mayor que 0.8.

    Contestar

    Estadística de prueba 0.707, valor crítico 1.282. No rechazar\(H_0\).

    Utilizando los datos de M&M, pruebe las siguientes hipótesis alternativas en el nivel de significancia 0.1:

    1. La proporción de M&Ms rojas difiere de\(\frac{1}{6}\).
    2. La proporción de M&Ms verdes es menor que\(\frac{1}{6}\).
    3. La proporción de M&M amarillo es mayor que\(\frac{1}{6}\).
    Contestar
    1. Estadística de prueba 0.162, valores críticos\(\pm 1.645\). No rechazar\(H_0\).
    2. Estadística de prueba\(-4.117\), valor crítico\(-1.282\). Rechazar\(H_0\).
    3. Estadístico de prueba 8.266, valor crítico 1.282. Rechazar\(H_0\).

    La Prueba de Signo

    Derivación

    Supongamos ahora que tenemos un experimento aleatorio básico con una variable aleatoria\(U\) de interés de valor real. Suponemos que\(U\) tiene una distribución continua con soporte en un intervalo de\(S \subseteq \R\). Dejar\(m\) denotar el cuantil de un orden especificado\(p_0 \in (0, 1)\) para la distribución de\(U\). Así, por definición,\[ p_0 = \P(U \le m) \] en general claro,\(m\) se desconoce, aunque\(p_0\) se especifique, porque desconocemos la distribución de\(U\). Supongamos que queremos construir pruebas de hipótesis para\(m\). Para un valor de prueba dado\(m_0\), vamos\[ p = \P(U \le m_0) \] Nota que\(p\) se desconoce aunque\(m_0\) se especifique, porque de nuevo, no conocemos la distribución de\(U\).

    Relaciones

    1. \(m = m_0\)si y sólo si\(p = p_0\).
    2. \(m \lt m_0\)si y sólo si\(p \gt p_0\).
    3. \(m \gt m_0\)si y sólo si\(p \lt p_0\).
    Prueba

    Estos resultados siguen ya que estamos asumiendo que la distribución de\(U\) es continua y se soporta en el intervalo\(S\).

    Como es habitual, repetimos los\(n\) tiempos básicos del experimento para generar una muestra aleatoria\(\bs{U} = (U_1, U_2, \ldots, U_n)\) de tamaño\(n\) a partir de la distribución de\(U\). Dejar\(X_i = \bs{1}(U_i \le m_0)\) ser la variable indicadora del evento\(\{U_i \le m_0\}\) para\(i \in \{1, 2, \ldots, n\}\).

    Tenga en cuenta que\(\bs{X} = (X_1, X_2, \ldots, X_n)\) es un estadístico (una función observable del vector de datos\(\bs{U}\)) y es una muestra aleatoria de tamaño\(n\) de la distribución de Bernoulli con parámetro\(p\).

    De los dos últimos resultados se deduce que las pruebas del cuantil desconocido\(m\) pueden convertirse en pruebas del parámetro Bernoulli\(p\), y así se aplican las pruebas desarrolladas anteriormente. A este procedimiento se le conoce como prueba de signo, porque esencialmente, solo\(U_i - m_0\) se registra el signo de para cada uno\(i\). Este procedimiento también es un ejemplo de una prueba no paramétrica, ya que no\(U\) se hacen suposiciones sobre la distribución de (a excepción de continuidad). En particular, no es necesario suponer que la distribución de\(U\) pertenece a una familia paramétrica particular.

    El caso especial más importante de la prueba de signos es el caso donde\(p_0 = \frac{1}{2}\); esta es la prueba de signos de la mediana. Si se sabe\(U\) que la distribución de es simétrica, la mediana y la media coinciden. En este caso, las pruebas de signos de la mediana también son pruebas de la media.

    Ejercicios de Simulación

    En el experimento de prueba de signos, establecer la distribución muestral a normal con media 0 y desviación estándar 2. Establezca el tamaño de la muestra en 10 y el nivel de significancia en 0.1. Para cada uno de los 9 valores de\(m_0\), ejecute la simulación 1000 veces.

    1. Cuando\(m = m_0\), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.1.
    2. En los demás casos, dar la estimación empírica de la potencia de la prueba.

    En el experimento de prueba de signos, establezca la distribución de muestreo en uniforme en el intervalo\([0, 5]\). Establezca el tamaño de la muestra en 20 y el nivel de significancia en 0.05. Para cada uno de los 9 valores de\(m_0\), ejecute la simulación 1000 veces.

    1. Cuando\(m = m_0\), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.05.
    2. En los demás casos, dar la estimación empírica de la potencia de la prueba.

    En el experimento de prueba de signos, establezca la distribución de muestreo en gamma con el parámetro de forma 2 y el parámetro de escala 1. Establezca el tamaño de la muestra en 30 y el nivel de significancia en 0.025. Para cada uno de los 9 valores de\(m_0\), ejecute la simulación 1000 veces.

    1. Cuando\(m = m_0\), dar la estimación empírica del nivel de significancia de la prueba y comparar con 0.025.
    2. En los demás casos, dar la estimación empírica de la potencia de la prueba.

    Ejercicios Computacionales

    Utilizando los datos de M&M, realice una prueba para ver si la mediana de peso supera los 47.9 gramos, en el nivel 0.1.

    Contestar

    Estadístico de prueba 3.286, valor crítico 1.282. Rechazar\(H_0\).

    Utilizando los datos del iris de Fisher, realice las siguientes pruebas, en el nivel 0.1:

    1. La mediana de la longitud del pétalo de los iris de Setosa difiere de 15 mm.
    2. La mediana de la longitud del pétalo de los iris Verginica es inferior a 52 mm.
    3. La mediana de la longitud del pétalo de los iris Versicolor es inferior a 42 mm.
    Contestar
    1. Estadística de prueba 3.394, valores críticos\(\pm 1.645\). Rechazar\(H_0\).
    2. Estadística de prueba\(-1.980\), valor crítico\(-1.282\). Rechazar\(H_0\).
    3. Estadística de prueba\(-0.566\), valor crítico\(-1.282\). No rechazar\(H_0\).

    This page titled 9.3: Pruebas en el Modelo Bernoulli is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.