Saltar al contenido principal
LibreTexts Español

6.3: Pruebas de hipótesis básicas

  • Page ID
    149722
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Empecemos con un ejemplo motivador, descrito algo más casualmente que el resto del trabajo que solemos hacer, pero cuya lógica es exactamente la del estándar científico para las pruebas de hipótesis.

    EJEMPLO 6.3.1. Supongamos que alguien tiene una moneda que afirma que es una moneda justa (incluyendo, en la noción informal de una moneda justa, que los giros sucesivos son independientes entre sí). Te importa esta equidad quizás porque usarás la moneda en un juego de apuestas.

    ¿Cómo puedes saber si la moneda es realmente justa?

    Obviamente, tu mejor enfoque es comenzar a voltear la moneda y ver qué surge. Si el primer flip muestra cabezas [H], no sacarías ninguna conclusión en particular. Si el segundo también era una H, otra vez, ¿y qué? Si el tercero seguía siendo H, estás empezando a pensar que hay una carrera en marcha. Si llegaste hasta diez H s seguidas, serías muy sospechoso, y si la carrera fuera a 100 H s, exigirías que se usara alguna otra moneda (o persona que hace el volteo).

    En algún lugar entre dos y 100 H s seguidas, pasarías de la suave aceptación de la justicia a la convicción casi completa de que esta moneda no es justa — ¿por qué? Después de todo, la persona que voltea la moneda y afirma su imparcialidad podría decir, correctamente, que es posible que una moneda justa suba H cualquier número de veces seguidas. Claro, responderías, pero es muy poco probable: es decir, dado que la moneda es justa, la probabilidad condicional de que esas tiradas largas sin T s se produzcan es muy pequeña.

    Lo que a su vez también explica cómo trazarías la línea, entre dos y 100 H s seguidas, pues cuando pensabas que la improbabilidad de esa tirada particular de recta H s estaba más allá del nivel estarías dispuesto a aceptar. Otros observadores podrían trazar la línea en otra parte, de hecho, por lo que no habría una conclusión absolutamente segura sobre la cuestión de si la moneda era justa o no.

    Podría parecer que en el ejemplo anterior solo obtenemos una respuesta probabilística a una pregunta de sí/no (¿la moneda es justa o no?) simplemente porque lo que estamos preguntando es, por naturaleza, un proceso aleatorio: no podemos predecir cómo saldrá un giro particular de la moneda, pero el comportamiento a largo plazo es lo que estamos preguntando; no es de extrañar, entonces, que la respuesta implique verosimilitud. Pero quizás otras hipótesis científicas tendrán respuestas más decisivas, que no invocan la probabilidad.

    Desafortunadamente, este no será el caso, porque hemos visto anteriormente que es prudente introducir la probabilidad en una situación experimental, aunque no estuviera ahí originalmente, para evitar sesgos. Las teorías modernas de la ciencia (como la mecánica cuántica, y también, aunque de una manera diferente, la epidemiología, la termodinámica, la genética y muchas otras ciencias) también tienen cierta cantidad de aleatoriedad incorporada en sus propios fundamentos, por lo que debemos esperar que surja probabilidad en casi todo tipo de datos.

    Vamos a ponernos un poco más formales y cuidadosos con lo que tenemos que hacer con las pruebas de hipótesis.

    Los pasos formales de las pruebas de hipótesis

    1. Indicar cuál es la población objeto de estudio.
    2. Indicar cuál es la variable de interés para esta población. Para nosotros en esta sección, esa siempre será una variable cuantitativa \(X\).
    3. Estado que es el parámetro poblacional resultante de interés. Para nosotros en esta sección, esa será siempre la media poblacional\(\ \mu_X\) de \(X\).
    4. Indique dos hipótesis sobre el valor de este parámetro. Una, llamada hipótesis nula y escrita\(H_0\), será una declaración de que el parámetro de interés tiene un valor particular, entonces\[H_0: \ \mu_X = \mu_0\] donde\(\mu_0\) está algún número específico. La otra es la interesante alternativa que estamos considerando para el valor de ese parámetro, y así se llama la hipótesis alternativa, escrita\(H_a\). La hipótesis alternativa puede tener una de tres formas:\[\begin{aligned} H_a: \ \mu_X &< \mu_0\ ,\\ \hphantom{\ or\ }H_a: \ \mu_X &> \mu_0\ ,\ \text{or}\\ H_a: \ \mu_X &\neq \mu_0\ ,\\\end{aligned}\] donde\(\mu_0\) es el mismo número específico que en\(H_0\).
    5. Recopilar datos de un SRS y calcular el estadístico de muestra que mejor se relaciona con el parámetro de interés. Para nosotros en esta sección, esa será siempre la media muestral \(\overline{X}\)
    6. Calcular la siguiente probabilidad condicional\[p=P\left( \begin{matrix} \text{getting values of the statistic which are as extreme,}\\ \text{or more extreme, as the ones you did get} \end{matrix}\ \middle|\ H_0\right)\ .\] Esto se llama el \(p\)-valor de la prueba.
    7. Si el\(p\) valor -es suficientemente pequeño, normalmente,\(p<.05\) o\(p<.01\) incluso, anuncie

      “Rechazamos\(H_0\), con\(p=\left<\text{number here}\right>\).

      De lo contrario, anuncie

      “No logramos rechazar\(H_0\), con\(p=\left<\text{number here}\right>\).

    8. Traducir el resultado recién anunciado al idioma de la pregunta original. Al hacer esto, se puede decir “Hay fuertes evidencias estadísticas de que...” si el\(p\) -valor es muy pequeño, mientras que se debe simplemente decir algo como “Hay evidencia de que...” si el\(p\) valor -es pequeño pero no particularmente así.

    Tenga en cuenta que las hipótesis\(H_0\) y\(H_a\) son declaraciones, no números. Así que no escribas algo como H 0 = μ X = 17; podrías usar\[H_o: \ "\mu_X=17"\] o\[H_o: \ \mu_X=17\] (siempre usamos este último en este libro).

    ¿Qué tan pequeño es lo suficientemente pequeño, para\(p\) -valores?

    Recuerda cómo se define el\(p\) -value:\[p=P\left( \begin{matrix} \text{getting values of the statistic which are as extreme,}\\ \text{or more extreme, as the ones you did get} \end{matrix}\ \middle|\ H_0\right)\ .\] En otras palabras, si la hipótesis nula es verdadera, tal vez el comportamiento que vimos con los datos de la muestra a veces sucedería, pero si la probabilidad es muy pequeña, empieza a parecer que, bajo el supuesto\(H_0\) es verdadero, la el comportamiento de la muestra fue una suerte alocada. Si la casualidad es lo suficientemente loca, podríamos querer decir simplemente que dado que el comportamiento de la muestra realmente sucedió, nos hace dudar de que eso\(H_0\) sea cierto en absoluto.

    Por ejemplo, si\(p=.5\), eso significa que bajo el supuesto\(H_0\) es verdadero, veríamos un comportamiento como el de la muestra cada dos veces que tomamos un SRS y calculamos el estadístico de muestra. No es una gran sorpresa.

    Si el\(p=.25\), ese seguiría siendo un comportamiento que esperaríamos ver en aproximadamente uno de cada cuatro SRS, cuando el\(H_0\) es cierto.

    Cuando\(p\) se pone abajo a\(.1\), ese sigue siendo un comportamiento que esperamos ver aproximadamente una vez de cada diez, cuando\(H_0\) es cierto. Eso es raro, pero no querríamos apostar nada importante por ello.

    A través de la ciencia, en materia jurídica, y definitivamente para los estudios médicos, empezamos a rechazar\(H_0\) cuándo\(p<.05\). Después de todo, si\(p<.05\) y\(H_0\) es cierto, entonces esperaríamos ver resultados tan extremos como los que vimos en menos de un SRS de 20.

    Hay cierta terminología para estos diversos cortes.

    DEFINICIÓN 6.3.2. Cuando estamos haciendo una prueba de hipótesis y obtenemos un\(p\) -valor que satisface\(p<\alpha\), para algún número real\(\alpha\), decimos que los datos son estadísticamente significativos a nivel\(\alpha\). Aquí el valor\(\alpha\) se llama el nivel de significancia de la prueba, como en la frase “Rechazamos\(H_0\) a nivel de significancia\(\alpha\), que diríamos si\(p<\alpha\).

    EJEMPLO 6.3.3. Si hiciéramos una prueba de hipótesis y obtuviéramos un\(p\) -valor de\(p=.06\), diríamos al respecto que el resultado fue estadísticamente significativo en el\(\alpha=.1\) nivel, pero no estadísticamente significativo en el\(\alpha=.05\) nivel. En otras palabras, diríamos “Rechazamos la hipótesis nula a\(\alpha=.1\) nivel”, pero también “No rechazamos la hipótesis nula a\(\alpha=.05\) nivel”,.

    HECHO 6.3.4. Los tribunales de Estados Unidos, así como la mayoría de las pruebas científicas y médicas estándar que hacen una prueba de hipótesis formal, utilizan el nivel de significancia de\(\alpha=.05\).

    En este capítulo, cuando no se especifique lo contrario, utilizaremos ese valor de\(\alpha=.05\) como nivel de significancia predeterminado.

    EJEMPLO 6.3.5. Hemos dicho reiteradamente en este libro que las alturas de los machos americanos se distribuyen como\(N(69, 2.8)\). El semestre pasado, un estudiante de estadística llamado Mohammad Wong dijo que pensaba que tenía que estar equivocado, y decidió hacer un estudio de la pregunta. MW es un poco más corto que 69 pulgadas, por lo que su conjetura fue que la altura media debe ser menor, también. Midió las alturas de todos los hombres de su clase de estadística, y se sorprendió al descubrir que el promedio de esos 16 alturas masculinas era de 68 pulgadas (solo mide 67 pulgadas de alto, y pensó que era típico, al menos para su clase 12). ¿Esto apoya su conjetura o no?

    Hagamos la prueba de hipótesis formal.

    La población que tiene sentido para este estudio serían todos los hombres estadounidenses adultos hoy en día — MW no está seguro de si la afirmación de que las alturas de los hombres estadounidenses que tienen una media de población de 69 pulgadas siempre estuvo mal, solo está convencido de que hoy está mal.

    La variable cuantitativa de interés sobre esa población es su estatura, a la que llamaremos\(X\).

    El parámetro de interés es la media poblacional\(\ \mu_X\).

    Las dos hipótesis son entonces\[\begin{aligned} H_0: \ \mu_X &= 69\quad \text{and}\\ H_a: \ \mu_X &< 69\ ,\end{aligned}\] donde la idea básica en la hipótesis nula es que la afirmación en este libro de alturas masculinas que tienen media 69 es cierta, mientras que la nueva idea de la que MW espera encontrar evidencia, codificada en hipótesis alternativa, es que la verdadera media de las alturas masculinas de hoy es menor que 69 pulgadas (como él).

    MW ahora tiene que hacer dos malas suposiciones: la primera es que los 16 alumnos de su clase son un SRS extraído de la población de interés; el segundo, que la desviación estándar poblacional de las alturas de los individuos en su población de interés es la misma que la desviación estándar poblacional del grupo de todos los machos americanos adultos afirmaran en otra parte de este libro, 2.8. Estas son definitivamente malas suposiciones —particularmente que los compañeros de clase masculinos de MW son un SRS de la población de los varones estadounidenses adultos de hoy— pero tiene que hacerlos sin embargo para poder llegar a algún lado.

    La altura media muestral\(\overline{X}\) para el SRS de MW de tamaño\(n=16\) es\(\overline{X}=68\).

    MW ahora puede calcular el valor p de esta prueba, utilizando el Teorema de Límite Central. Según el CLT, la distribución de X es N (69, 2.8/\(\ \sqrt{16}\)). Por lo tanto, el valor p es

    \(p=P\left(\begin{array}{c}{\text { MW would get values of } \bar{X} \text { which are as }} \\ {\text { extreme, or more extreme, as the ones he did get }}\end{array} | H_{0}\right)=P(\bar{X}<69)\)

    Lo cual, por lo que acabamos de observar nos dice el CLT, es computable por

    normalcdf (−9999, 68, 69, 2.8/\(\ \sqrt{16}\)

    en una calculadora, o

    NORM.DIST (68, 69, 2.8/SQRT (16), 1)

    en una hoja de cálculo, cualquiera de las cuales da un valor alrededor de .07656.

    Esto significa que si MW utiliza el nivel de significancia del 5%, como solemos hacer, el resultado no es estadísticamente significativo. Sólo en el nivel de significancia mucho más crudo del 10% diría MW que rechaza la hipótesis nula.

    En otras palabras, podría concluir su proyecto diciendo

    -2.5mm “Mi investigación recopiló datos sobre mi conjetura que fue estadísticamente insignificante al nivel de significancia del 5% pero los datos, significativos en el nivel más débil del 10%, sí indicaron que la estatura promedio de los hombres estadounidenses es menor que las 69 pulgadas que nos dijeron que es ( \(p=.07656\)).”

    Las personas que hablen con MW sobre su estudio deberían tener preocupaciones adicionales sobre sus suposiciones de tener un SRS y del valor de la desviación estándar de la población

    Cálculos para la prueba de hipótesis de medias poblacionales

    Reunimos las ideas del §3.1 anterior y las conclusiones del Teorema del Límite Central para resumir qué cálculos son necesarios para realizar:

    HECHO 6.3.6. Supongamos que estamos haciendo una prueba de hipótesis formal con variable\(X\) y parámetro de interés la media poblacional\(\ \mu_X\). Supongamos que de alguna manera conocemos la desviación estándar poblacional\(\sigma_X\) de\(X\). Supongamos que la hipótesis nula\(\mu_0\) es\[H_0: \ \mu_X = \mu_0\] donde hay un número específico. Supongamos también que tenemos un SRS de tamaño\(n\) que arrojó la media de la muestra\(\overline{X}\). Entonces exactamente se aplicará una de las siguientes tres situaciones:

    1. Si la hipótesis alternativa es\(H_a:\ \mu_X<\mu_0\) entonces el\(p\) -valor de la prueba se puede calcular de cualquiera de las siguientes maneras
      1. el área a la izquierda de\(\overline{X}\) debajo de la gráfica de una\(N(\mu_0, \sigma_X/\sqrt{n})\) distribución,
      2. normalcdf\((-9999, \overline{X}, \mu_0, \sigma_X/\sqrt{n})\) en una calculadora, o
      3. NORM.DIST (\(\overline{X}\), \(\mu_0\), \(\sigma_X\)/SQRT(\(n\)), 1)en una hoja de cálculo.
    2. Si la hipótesis alternativa es\(H_a:\ \mu_X>\mu_0\) entonces el\(p\) -valor de la prueba se puede calcular de cualquiera de las siguientes maneras
      1. el área a la derecha de\(\overline{X}\) debajo de la gráfica de una\(N(\mu_0, \sigma_X/\sqrt{n})\) distribución,
      2. normalcdf\((\overline{X}, 9999, \mu_0, \sigma_X/\sqrt{n})\) en una calculadora, o
      3. 1-NORM.DIST (\(\overline{X}\), \(\mu_0\), \(\sigma_X\)/SQRT(\(n\)), 1)en una hoja de cálculo.
    3. Si la hipótesis alternativa es\(H_a:\ \mu_X\neq \mu_0\) entonces el\(p\) -valor de la prueba se puede encontrar usando el enfoque en exactamente una de las siguientes tres situaciones:
      1. Si\(\overline{X}<\mu_0\) entonces\(p\) se calcula por cualquiera de las siguientes tres maneras:
        1. dos veces el área a la izquierda de\(\overline{X}\) debajo de la gráfica de una\(N(\mu_0, \sigma_X/\sqrt{n})\) distribución,
        2. 2 normalcdf\((-9999, \overline{X}, \mu_0, \sigma_X/\sqrt{n})\) en una calculadora, o
        3. 2 NORM.DIST (\(\overline{X}\), \(\mu_0\), \(\sigma_X\)/SQRT(\(n\)), 1)en una hoja de cálculo.
      2. Si\(\overline{X}>\mu_0\) entonces\(p\) se calcula por cualquiera de las siguientes tres maneras:
        1. dos veces el área a la derecha de\(\overline{X}\) debajo de la gráfica de una\(N(\mu_0, \sigma_X/\sqrt{n})\) distribución,
        2. 2 normalcdf\((\overline{X}, 9999, \mu_0, \sigma_X/\sqrt{n})\) en una calculadora, o
        3. 2 (1-NORM.DIST (\(\overline{X}\), \(\mu_0\), \(\sigma_X\)/SQRT(\(n\)), 1))en una hoja de cálculo.
      3. Si\(\overline{X}=\mu_0\) entonces\(p=1\).

    Observe la razón por la que existe esa multiplicación por dos si la hipótesis alternativa\(H_a:\ \mu_X\neq \mu_0\) es que hay dos direcciones —la distribución tiene dos colas— en las que los valores pueden ser más extremos que\(\overline{X}\). Por esta razón tenemos la siguiente terminología:

    DEFINICIÓN 6.3.7. Si estamos haciendo una prueba de hipótesis y la hipótesis alternativa es\(H_a:\ \mu_X>\mu_0\) o\(H_a:\ \mu_X<\mu_0\) entonces esto se llama prueba de una cola. Si, en cambio, la hipótesis alternativa es\(H_a:\ \mu_X\neq\mu_0\) entonces esto se llama prueba de dos colas.

    EJEMPLO 6.3.8. Hagamos un ejemplo muy directo de una prueba de hipótesis:

    Una compañía de cosméticos llena sus frascos de 8 onzas de crema facial más vendidos mediante una máquina dispensadora automática. La máquina está preparada para dispensar una media de 8.1 onzas por frasco. Los factores incontrolables en el proceso pueden alejar la media de 8.1 y causar ya sea un llenado insuficiente o un sobrellenado, ambos de los cuales son indeseables. En tal caso la máquina dispensadora es detenida y recalibrada. Independientemente de la cantidad media dispensada, la desviación estándar de la cantidad dispensada siempre tiene un valor de .22 onzas. Un ingeniero de control de calidad selecciona al azar 30 frascos de la línea de ensamblaje cada día para verificar los montos llenados. Un día, la media de la muestra es\(\overline{X}=8.2\) onzas. Veamos si hay evidencia suficiente en esta muestra para indicar, al nivel de significancia del 1%, que la máquina debe ser recalibrada.

    La población en estudio es la totalidad de los frascos de crema facial el día de la muestra de 8.2 onzas.

    La variable de interés es el peso\(X\) del frasco en onzas.

    El parámetro poblacional de interés es la media poblacional\(\ \mu_X\) de\(X\).

    Las dos hipótesis son entonces\[\begin{aligned} H_0: \ \mu_X &= 8.1\quad \text{and}\\ H_a: \ \mu_X &\neq 8.1\ .\end{aligned}\]

    La media de la muestra es\(\overline{X}=8.2\), y la muestra —que debemos suponer que es un SRS— es de tamaño\(n=30\).

    Usando el caso de Fact 6.3.6 donde la hipótesis alternativa es H a: μ X\(\ \neq\) μ 0 y el subcaso donde\(\ \bar{X}\) > μ 0, calculamos el valor p por

    2 * (1-NORM.DIST (8.2, 8.1, .22/SQRT (30), 1))

    en una hoja de cálculo, que arroja p = .01278.

    Ya que no\(p\) es menor que\(.01\), fallamos\(H_0\) en rechazar a\(\alpha=.01\) nivel de significación.

    Por lo tanto, el ingeniero de control de calidad debería decir a la dirección

    -2.5mm “La muestra de hoy, aunque fuera de peso, no fue estadísticamente significativa en el estricto nivel de significancia\(\alpha=.01\) que hemos elegido usar en estas pruebas, que la máquina llenadora de tarros necesita recalibración hoy (\(p=.01278\))”.

    Precauciones

    Como hemos visto antes, el requisito de que la muestra que estamos utilizando en nuestra prueba de hipótesis sea un SRS válido es bastante importante. Pero también es bastante difícil conseguir una muestra tan buena, por lo que a menudo esto es algo que puede ser un problema real en la práctica, y algo que debemos asumir es cierto con muchas veces muy poca razón real.

    Debe ser evidente a partir de los Hechos y Ejemplos anteriores que la mayor parte del trabajo al hacer una prueba de hipótesis, después de una cuidadosa configuración inicial, viene en el cálculo del\(p\) -valor.

    Tenga cuidado con la frase estadísticamente significativa. ¡No quiere decir que el efecto sea grande! Puede haber un efecto muy pequeño, el\(\overline{X}\) podría estar muy cerca\(\mu_0\) y, sin embargo, podríamos rechazar la hipótesis nula si la desviación estándar de la población\(\sigma_X\) fuera suficientemente pequeña, o incluso si el tamaño de la muestra\(n\) fuera lo suficientemente grande como para \(\sigma_X/\sqrt{n}\)se hizo muy pequeño. Así, curiosamente, un resultado estadísticamente significativo, uno donde la conclusión de la prueba de hipótesis fue estadísticamente bastante cierta, podría no ser significativo en el sentido de importar mucho. Con suficiente precisión, podemos estar muy seguros de pequeños efectos.

    Obsérvese que el significado del\(p\) -valor se explica anteriormente en su definición como probabilidad condicional. Entonces\(p\) no calcula la probabilidad de que la hipótesis nula\(H_0\) sea cierta, o cualquier cosa tan simple. En contraste, el enfoque bayesiano de la probabilidad, que elegimos no utilizar en el libro, a favor del enfoque frecuentista, sí tiene una especie de prueba de hipótesis que incluye algo así como la probabilidad directa que\(H_0\) es verdadera. Pero aquí no seguimos el enfoque bayesiano porque de muchas otras maneras es más confuso.

    En particular, una consecuencia del verdadero significado del\(p\) -valor tal como lo usamos en este libro es que a veces rechazaremos una verdadera hipótesis nula\(H_0\) solo por mala suerte. De hecho, si\(p\) es solo un poco menor que\(.05\), rechazaríamos\(H_0\) a nivel de\(\alpha=.05\) significancia aunque, en un poco menos de un caso en 20 (es decir, 1 SRS de 20 elegidos independientemente), haríamos este rechazo incluso aunque\(H_0\) era cierto.

    Tenemos un nombre para esta situación.

    DEFINICIÓN 6.3.9. Cuando rechazamos una hipótesis nula verdadera\(H_0\) esto se llama error tipo I. Tal error suele ser (pero no siempre: depende de cómo se configuró la población, variable, parámetro e hipótesis) un falso positivo, es decir, que se encontró algo emocionante y nuevo (o aterrador y peligroso) aunque no esté realmente presente en la población.

    EJEMPLO 6.3.10. Echemos un vistazo a la compañía de cosméticos con una máquina llenadora de frascos del Ejemplo 6.3.8. No sabemos cuál era la mediana de los datos SRS, pero no sería sorprendente que los datos fueran simétricos y por lo tanto la mediana sería la misma que la media de la muestra\(\overline{X}=8.2\). Eso significa que había al menos 15 frascos con 8.2 onzas de crema en ellos, a pesar de que todos los frascos están etiquetados como “8oz”. La compañía está dando paso al menos\(.2\times15=3\) onzas de la muy valiosa crema —de hecho, probablemente mucho más, ya que eso fue simplemente el sobrellenado en esa muestra.

    Así que nuestro intrépido ingeniero de control de calidad bien podría proponer a la gerencia aumentar el nivel\(\alpha\) de significancia del régimen de pruebas en la fábrica. Es cierto que con una mayor\(\alpha\), será más fácil que la aleatoriedad simple resulte en errores tipo I, pero a menos que el proceso de recalibración lleve mucho tiempo (y así resulte en que se llenen menos frascos ese día), el análisis costo-beneficio probablemente se inclina hacia fijar la máquina ligeramente con demasiada frecuencia, en lugar de esperar hasta que las pruebas sean sumamente contundentes, debe hacerse.


    This page titled 6.3: Pruebas de hipótesis básicas is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jonathan A. Poritz via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.