Saltar al contenido principal
LibreTexts Español

3.5: Sacando conclusiones a partir de datos

  • Page ID
    71003
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje

    Asegúrese de comprender a fondo las siguientes ideas esenciales que se han presentado anteriormente. Es especialmente importante que conozcas los significados precisos de todos los términos en cursiva en el contexto de este tema.

    • ¿Qué significa la desviación de la población, por qué no podemos conocer su valor y por qué es sin duda una cantidad fundamentalmente importante en la estadística?
    • Dibuje una curva gaussiana y etiquete los dos ejes, mostrando en el eje x la desviación de la media en términos de desviaciones estándar. Sombra en la zona correspondiente al nivel de confianza del 95.4 por ciento,
    • Indicar el significado de un intervalo de confianza y cómo se relaciona con la desviación estándar en una gráfica de la curva gaussiana.
    • Indicar el significado de un intervalo de confianza y cómo se relaciona con la desviación estándar en una gráfica de la curva gaussiana.
    • ¿Cuál es la distinción entre un intervalo de confianza y el nivel de confianza?
    • Describir las circunstancias cuando una estadística t de Student es útil.
    • Describir algunos de los principales problemas que pueden hacer que las estadísticas sean erróneas o engañosas.

    OK, has recopilado tus datos, entonces, ¿qué significa? Esta pregunta comúnmente surge cuando las mediciones realizadas en diferentes muestras producen diferentes valores. ¿Qué tan bien reflejan las mediciones de las concentraciones de mercurio en diez latas de atún la composición de toda la producción de la fábrica? ¿Por qué no puedes simplemente usar el promedio de estas medidas? ¿Cuánto mejores serían los resultados de 100 pruebas de este tipo? Esta lección final sobre medición examinará estas preguntas y le presentará algunos de los métodos para tratar los datos. Esto es importante no sólo para los científicos, sino también para cualquier ciudadano inteligente que desee evaluar de manera independiente la avalancha de números atendidos por anunciantes, políticos, “expertos”, y sí— por otros científicos.

    La Desviación Estándar

    Cada uno de estos conjuntos tiene el mismo valor medio de 40, pero la “calidad” del conjunto que se muestra a la derecha es mayor porque los puntos de datos están menos dispersos; la precisión del resultado es mayor.

    La medida cuantitativa de esta precisión viene dada por la desviación estándar

    cuyo valor equivale al 28 y al 7 para los dos conjuntos ilustrados anteriormente. Un conjunto de datos que contiene solo dos valores es demasiado pequeño para un análisis estadístico adecuado; no querría juzgar el contenido promedio de mercurio del atún enlatado sobre la base de solo dos muestras, por ejemplo. Supongamos, entonces, a efectos de ilustración, que hemos acumulado muchos más puntos de datos pero las desviaciones estándar de los dos conjuntos permanecen en 28 y 7 como antes. ¿Qué conclusiones podemos sacar sobre lo cerca que es probable que llegue el valor medio de 40 al “valor verdadero” (la población media μ) en cada caso?

    Aunque normalmente no podemos conocer el valor de μ, podemos asignar a cada punto de datos x i una cantidad (x i — x m) que llamamos la desviación de la media [poblacional] , un índice de hasta qué punto se diferencia cada punto de datos del elusivo “valor verdadero”. Ahora dividimos esta desviación de la media por la desviación estándar de todo el conjunto de datos:

    Si trazamos los valores de z que corresponden a cada punto de datos, obtenemos las siguientes curvas para los dos conjuntos de datos que estamos usando como ejemplos:

    calidad de una medición

    Tenga en cuenta que en realidad no podemos trazar estas curvas a partir de nuestros puntos de datos experimentales porque no conocemos el valor de la media poblacional μ (si lo hiciéramos, ¡no habría necesidad de hacer las mediciones en primer lugar!) , y es poco probable que tengamos suficientes puntos de datos para obtener una curva suave de todos modos.

    No intentaremos probarlo aquí, pero las propiedades matemáticas de una curva gaussiana son tales que su forma depende de la escala de unidades a lo largo del eje x y de la desviación estándar del conjunto de datos correspondiente. En otras palabras, si conocemos la desviación estándar de un conjunto de datos, podemos construir una gráfica de z que muestre cómo se distribuirían las mediciones

    • si el número de observaciones es muy grande
    • si los diferentes valores se deben solo a un error aleatorio

    Un corolario importante de la segunda condición es que si los puntos de datos no se aproximan a la forma de esta curva, entonces es probable que la muestra no sea representativa, o que algún factor de complicación esté involucrado. Esto último suele ocurrir cuando un maestro traza un conjunto de puntajes de los exámenes de los estudiantes, y obtiene una curva que tiene dos picos en lugar de uno, representando quizás las dos subpoblaciones de estudiantes que dedican su tiempo a estudiar y festejar.

    Esta joya menor fue ideada por el estadístico W.J. Youdan y aparece en La exhibición visual de la información cuantitativa, un libro atractivo de Edward R. Tufte (Graphics Press, Cheshire CT, 1983).

    Curva gaussiana de Youdan

    Intervalos de confianza

    Claramente, cuanto más nítida y más estrecha sea la curva de error estándar para un conjunto de mediciones, más probable será que cualquier valor observado se aproxime al valor verdadero que estamos tratando de encontrar. Debido a que la forma de la curva está determinada por S, podemos hacer predicciones cuantitativas sobre la confiabilidad de nuestros datos a partir de su desviación estándar. En particular, si trazamos z en función del número de desviaciones estándar de la media (más que como el número de desviaciones absolutas de la media como se hizo anteriormente), la forma de la curva depende únicamente del valor de S. Es decir, se elimina la dependencia de las unidades particulares de medida.

    intervalos de confianza

    Además, se puede demostrar que si todo el error de medición es verdaderamente aleatorio, 68.3 por ciento (alrededor de dos tercios) de los puntos de datos caerán dentro de una desviación estándar de la media poblacional, mientras que 95.4 por ciento de las observaciones diferirán de la media poblacional en no más de dos desviaciones estándar. Esto es sumamente importante, porque nos permite expresar cuantitativamente la fiabilidad de una medición, en términos de intervalos de confianza.

    Es posible que ocasionalmente veas u oigas un reportaje de noticias en el que se afirma que los resultados de una determinada encuesta de opinión pública se consideran confiables dentro de, digamos, 5%, “diecinueve veces de cada veinte”. Esta es solo otra manera de decir que el intervalo de confianza en la encuesta es del 95%, la desviación estándar es de aproximadamente 2.5% del resultado declarado, y que no hay más de un 5% de probabilidad de que una encuesta idéntica realizada en otro conjunto de individuos seleccionados aleatoriamente de la misma población arroje una resultado diferente. Esto es lo más cercano a “la verdad” como podemos conseguir en las mediciones científicas.

    intervalo de confianza

    Tenga en cuenta cuidadosamente: ¡El intervalo de confianza (CI) y el nivel de confianza (CL) no son lo mismo!

    Un CI dado (denotado por el rango sombreado de 18-33 ppm en el diagrama) siempre se define en relación con alguna CL particular; especificar el primero sin el segundo no tiene sentido. Si el CI ilustrado aquí está en el 90% CL, entonces un IC para un CL superior sería más amplio, mientras que para un CL más pequeño abarcaría un rango de valores más pequeño.

    Las unidades de IC son las de la medida (e.g., ppm); la CL misma generalmente se expresa en porcentaje.

    Cómo depende el nivel de confianza del número de mediciones

    Cuantas más medidas hagamos, más probable es que su valor promedio se aproxime al valor verdadero. El ancho del intervalo de confianza (expresado en las unidades de medida reales) es directamente proporcional a la desviación estándar S y al valor de z (ambos términos se definen anteriormente). El intervalo de confianza de una sola medida en términos de estas cantidades y de la media de la muestra observada viene dado por:

    CI = x m + z S

    Si se realizan n mediciones replicadas, el intervalo de confianza se vuelve más pequeño:

    Esta relación se suele utilizar “a la inversa”, es decir, para determinar cuántas mediciones replicadas n se deben realizar para obtener un valor dentro de un intervalo de confianza deseado.

    Como señalamos anteriormente, cualquier relación que involucre la cantidad z (de la que la curva de error estándar es una gráfica) es de uso limitado a menos que tengamos alguna idea del valor de la media poblacional μ. Si hacemos un número muy grande de mediciones (100 a 1000, por ejemplo), entonces podemos esperar que nuestra media de muestra observada se aproxime bastante a μ, por lo que no hay dificultad.

    El área sombreada en cada parcela muestra la fracción de mediciones que se encuentran dentro de dos desviaciones estándar (2 S) del valor “verdadero” (es decir, la media poblacional μ). Es evidente que el ancho del intervalo de confianza disminuye a medida que aumenta el número de mediciones. Esto es básicamente el resultado de que los errores aleatorios relativamente grandes tienden a ser menos comunes que los más pequeños, y por lo tanto es menos probable que se cancelen si solo se realiza un pequeño número de mediciones.

    Tratar con pequeños conjuntos de datos

    OK, así que los conjuntos de datos más grandes son mejores que los pequeños. Pero, ¿y si simplemente no es práctico medir el contenido de mercurio de 10 mil latas de atún? O si estuvieras realizando un examen forense de una pequeña viruta de pintura, es posible que solo tengas suficiente muestra (o tiempo suficiente) para hacer dos o tres análisis replicados. Hay dos formas comunes de lidiar con tal dificultad.

    Una forma de sortear esto es utilizar datos agrupados; es decir, apoyarse en determinaciones previas similares, realizadas en otras muestras comparables, para llegar a una desviación estándar que sea representativa de este tipo particular de determinación. La otra forma común de lidiar con pequeños números de mediciones replicadas es buscar, en una tabla, una cantidad t, cuyo valor depende del número de mediciones y del nivel de confianza deseado. Por ejemplo, para un nivel de confianza del 95%, t sería 4.3 para tres muestras y 2.8 para cinco. La magnitud del intervalo de confianza viene dada por

    CI = ± t S

    Este procedimiento no es magia negra, sino que se basa en un análisis cuidadoso de la forma en que la curva gaussiana se distorsiona a medida que disminuye el número de muestras. ¿Por qué se inventó la prueba t en una cervecería? ¿Y por qué tiene un nombre tan gracioso?

    Uso de pruebas estadísticas para tomar decisiones

    Una vez que hemos obtenido suficiente información sobre una muestra dada para evaluar parámetros como medias y desviaciones estándar, a menudo nos enfrentamos a la necesidad de comparar esa muestra (o la población que representa) con otra muestra o con algún tipo de patrón. Las siguientes secciones parafrasean algunas de las preguntas típicas que se pueden decidir mediante pruebas estadísticas basadas en las cantidades que hemos definido anteriormente. Es importante entender, sin embargo, que debido a que estamos tratando las preguntas estadísticamente, solo podemos responderlas en términos de estadísticas, es decir, a un nivel de confianza dado.

    El enfoque habitual es comenzar asumiendo que la respuesta a cualquiera de las preguntas que se dan a continuación es “no” (esto se denomina hipótesis nula), para luego usar la prueba estadística apropiada para juzgar la validez de esta hipótesis al nivel de confianza deseado. Debido a que nuestro propósito aquí es mostrarle lo que se puede hacer en lugar de cómo hacerlo, las siguientes secciones no presentan fórmulas o cálculos de ejemplo, los cuales están cubiertos en la mayoría de los libros de texto sobre química analítica. Debes concentrarte aquí en tratar de entender por qué son importantes preguntas de este tipo.

    “¿Debería tirar esta medida?”

    atípicoEs decir, ¿es probable que algo distinto al error ordinario indeterminado sea responsable de este resultado sospechosamente diferente? Cualquiera que recopile datos de casi cualquier tipo ocasionalmente se enfrentará a esta pregunta. Muy a menudo, el sentido común ordinario será suficiente, pero si necesitas alguna ayuda, dos pruebas estadísticas, llamadas prueba Q y prueba T, son ampliamente empleadas para este propósito.

    No los describiremos aquí, pero ambas pruebas implican calcular una cantidad (Q o T) para un resultado en particular mediante una fórmula simple, y luego consultar una tabla para determinar la probabilidad de que el valor que se cuestiona sea miembro de la población representada por los otros valores en el conjunto de datos.

    “¿Este met hod produce resultados confiables?”

    Esto siempre se debe preguntar al probar un nuevo método por primera vez; es esencialmente una cuestión de probar un error determinado. La respuesta sólo se puede tener ejecutando el mismo procedimiento en una muestra cuya composición es conocida. La desviación del valor medio del “conocido” x m de su valor verdadero μ se utiliza para calcular una t de Student para el nivel de confianza deseado. A continuación, aplica este valor de t a las mediciones en sus muestras desconocidas.

    “¿Estas dos muestras son idénticas?”

    Se desea comparar las medias x m1 y x m2 a partir de dos conjuntos de medidas para evaluar si su diferencia podría deberse a un error indeterminado. Supongamos, por ejemplo, que está comparando el porcentaje de cromo en una muestra de pintura retirada del guardabarros de un automóvil con una muestra encontrada en la ropa de una víctima de atropello y fuga. Ejecuta análisis replicados en ambas muestras y obtiene diferentes valores medios, pero los intervalos de confianza se superponen. ¿Cuáles son las posibilidades de que las dos muestras sean de hecho idénticas y que la diferencia en las medias se deba únicamente a un error indeterminado?

    cantidad detectable más pequeñaUna fórmula bastante simple, usando la t de Student, la desviación estándar y los números de mediciones replicadas realizadas en ambas muestras, proporciona una respuesta a esta pregunta, pero solo a un nivel de confianza especificado. Si se trata de una investigación forense que va a presentar ante el tribunal, prepárese para que su testimonio sea demolido por el abogado contrario si el CL es menor al 99%.

    “¿Cuál es la cantidad más pequeña que puedo detectar?”

    Esto es sólo una variante de la pregunta anterior. La estimación del límite de detección de una sustancia por un método dado comienza con un conjunto de mediciones en un blanco, es decir, una muestra en la que se supone que la sustancia en cuestión está ausente, pero por lo demás es lo más similar posible a las muestras reales a ensayar. Entonces preguntamos si alguna diferencia entre la media de las mediciones en blanco y de las réplicas de la muestra puede atribuirse a un error indeterminado a un nivel de confianza dado.

    Por ejemplo, una pregunta que surge en cada evento olímpico mundial, ¿cuál es el nivel mínimo de un metabolito de un fármaco que se puede detectar en la orina de un atleta? Muchos métodos sensibles están sujetos a errores aleatorios que pueden conducir a un resultado distinto de cero incluso en una muestra que se sabe que está completamente libre de lo que se está probando. Entonces, ¿a qué distancia de “cero” debe estar el valor medio de una prueba para estar seguro de que el medicamento estaba presente en una muestra en particular? Una pregunta similar surge con mucha frecuencia en los estudios de contaminación ambiental.

    Cómo mentir con las estadísticas

    Cómo mentir con las estadísticas es el título de un libro divertido de Darrell Huff (Norton, 1954). Algunas de las ilustraciones de Irving Geiss para este libro aparecen a continuación. Ver también

    Tirando a la basura respuestas “incorrectas”.

    Ocasionalmente sucede que unos pocos valores de datos están tan separados del resto que no pueden considerarse razonablemente representativos. Si estos “valores atípicos” claramente caen fuera del rango de error estadístico razonable, generalmente pueden ignorarse como probables debido a fallas instrumentales o interferencias externas como sacudidas mecánicas o fluctuaciones eléctricas.

    Sin embargo, se debe tener cierto cuidado cuando se desechan los datos; Sin embargo, ha habido una serie de casos bien documentados en los que investigadores que tenían ciertas anticipaciones sobre el resultado de sus experimentos pudieron traer estas expectativas al eliminar resultados contradictorios del conjunto de datos en los terrenos que esos datos particulares “tenían que estar equivocados”

    Cuidado con las muestras demasiado pequeñas

    La probabilidad de diez volteos sucesivos de una moneda que arroje 8 cabezas viene dada por

    ... indicando que no es muy probable, pero se puede esperar que suceda unas ocho veces en mil carreras. Pero no hay ninguna ley de la naturaleza que diga que no puede suceder en tu primera carrera, así que claramente sería una tontería llorar “Eureka” y detener el experimento después de uno —o incluso algunos intentos. O para olvidarse de las carreras que no subieron ¡8 cabezas!

    Los peligros de dudosas “correlaciones”

    El hecho de que dos conjuntos de estadísticas muestren la misma tendencia no prueba que estén conectados, incluso en los casos en que se pudiera argumentar una correlación lógica. De esta manera se ha sugerido que de acuerdo con las dos parcelas a continuación, “En términos relativos, la temperatura global parece estar rastreando bastante bien el PIB mundial promedio en los últimos 70 años”.

    La diferencia entre niveles de confianza de 90% y 95% puede no parecer mucho, pero equivocarse puede transformar la ciencia en ciencia basura, una práctica no desconocida de intereses especiales que intenta manipular la ciencia para influir en las políticas públicas; vea el excelente libro de 2008 de David Michaels "La duda es Su producto: Cómo el asalto de la industria a la ciencia amenaza tu salud”.


    This page titled 3.5: Sacando conclusiones a partir de datos is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Stephen Lower via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.