Saltar al contenido principal
LibreTexts Español

1.11: Estadística - Dar sentido a los números

  • Page ID
    98184
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Los datos no renuncian fácilmente a sus secretos. Deben ser torturados para confesar.

    —JEFF HOPPER1

    Lo que los números nos pueden decir

    Aquí hay un gráfico que parece decir bastante.

    FIGURA 4. Tasa de desempleo civil

    Recuperado de https://www.bls.gov/charts/employment-situation/civilian-unemployment-rate.htm #.

    Después de la desastrosa recesión de 2008, la historia sobre empleos en Estados Unidos parece de hecho color de rosa. La tendencia de julio de 2010 a julio de 2018 muestra una caída dramática en la tasa de desempleo nacional. Al escribir estas palabras en el verano de 2018, “las vacantes de empleo alcanzaron máximos históricos y la tasa de desempleo bajó al nivel más bajo en décadas” 2 Ordinariamente todo esto habría resultado en salarios más altos para hombres y mujeres que trabajan y un aumento en su nivel de vida. Esto no es, sin embargo, lo que se siente para muchos estadounidenses que trabajan. Quizás el siguiente gráfico da una cuenta más precisa de lo que realmente está sucediendo.

    FIGURA 5. Ingresos semanales medios, 2004-2014

    Obtenido de Bureau of Labor Statistics, The Economics Daily, https://www.bls.gov/opub/ted/2014/ted_20141028.htm

    Todo esto, “la tasa de desempleo civil ajustada estacionalmente”, “la mediana de ingresos semanales ajustados por inflación” y similares, realmente importan por varias razones. La mayor preocupación, por supuesto, es que la mayoría de mis lectores tienen facturas que pagar, familias que apoyar y planes financieros para hacer para su futuro; cuál es su sueldo, y qué les compra, son de suma importancia. Además, políticos de todas las rayas exigen sus votos porque a la economía le va muy bien o porque lo está haciendo mal. Por último, como buenos buscadores de explicaciones, a todos nos gustaría saber qué está pasando.

    Si fuera mi sueldo, mi voto, o simplemente mi curiosidad intelectual, probablemente tomaría uno o dos cursos de economía, leería un poco más sobre dónde se encuentran los partidos y sus candidatos en todo esto, y como habrás adivinado, aplicaría los métodos de inferencia a la mejor explicación a todos estos datos estadísticos.

    Muestras y Poblaciones

    Usaremos el término población como jerga para cualquier tipo de grupo, un grupo de personas; un grupo de cosas, como vehículos que superan las treinta millas por galón; o grupos de cosas muy abstractas, como representaciones de Santa Claus en la televisión de horario estelar. Podemos utilizar la noción matemática de un conjunto para caracterizar una población. De igual manera, utilizaremos el término muestra como jerga para cualquier parte del grupo que constituya la población. Así, las muestras son subconjuntos del conjunto que compone la población. En un diagrama familiar de Venn, el óvalo más claro, más pequeño constituye la muestra y el óvalo más oscuro, mayor es la población.

    Muy a menudo nos interesan las muestras porque asumimos que nos pueden decir algo interesante sobre la población. Bien podrías preguntar, Si realmente nos interesa la población, ¿por qué no solo la miraríamos directamente? Y la respuesta simple es una de practicidad. Sería demasiado tiempo, demasiado caro, o de otra manera demasiado poco práctico para encuestar a toda la población. Así, utilizamos la muestra, que puede ser examinada y descrita, como una pista sobre toda la población, que no puede.

    Las inferencias de muestras a poblaciones son ejemplos clásicos de inferencias para la mejor explicación. Nuestros datos son el descubrimiento de que alguna muestra tiene una característica o propiedad interesante, y usamos esto como evidencia de que la población también tiene esta propiedad. Hacemos la pregunta explicativa: ¿por qué la muestra tiene P? Y nuestra hipótesis responde que tiene P porque la población en su conjunto tiene P.

    e 1. Muestra tiene propiedad P.


    t 0. Población tiene propiedad P.

    ¿No podría ser simplemente una casualidad?

    Espero que a estas alturas estés casi programado cuando veas un argumento como el anterior para empezar a pensar en explicaciones rivales. Seguro, si la población tiene P, esa sería una buena explicación de por qué la muestra tiene P. Pero, ¿qué más podría explicar la muestra que tiene P?

    Llego a casa a las 6:00 de un martes por la noche y antes de que pueda terminar de mirar el correo y arreglar un martini, el teléfono ha sonado tres veces, todas de organizaciones benéficas que buscan contribuciones. Concluyo que este martes es un gran empujón para conseguir dinero. Mi muestra, esas tres llamadas telefónicas, es bastante escasa. Después de todo, estoy ofreciendo una hipótesis sobre todo el país (o tal vez estado o condado). ¿No es la siguiente explicación rival igual de plausible, quizás más plausible, que la teoría de la prensa de mi corte completo de caridad?

    t 1. Es solo una coincidencia que esas tres llamadas fueran todas de organizaciones benéficas.

    O de manera más general,

    t 1. Es solo una coincidencia que la muestra tenga propiedad P.

    La teoría moderna de la probabilidad ha dedicado mucho tiempo y atención a desarrollar algunas pruebas matemáticas muy sofisticadas de cuán probable es que una muestra tenga una propiedad dada simplemente como una cuestión de azar. Algunos de ustedes pueden estar familiarizados con algunas de estas pruebas para lo que se llama significancia estadística de otros cursos o software de computadora. Incluso aquellos de ustedes que odian los números o las matemáticas estarían bien aconsejados, en mi humilde opinión, que aprendan un poco sobre todo esto tomando un curso introductorio de estadística. Pero ese no es mi objetivo en el presente contexto.

    Incluso aquellos de ustedes con menos experiencia y confianza con las matemáticas saben que el tamaño de la muestra importa de manera importante. Una muestra de tres llamadas no nos dice casi nada, mientras que una muestra de tres mil nos puede decir bastante. Vamos a limitar nuestra discusión a un tratamiento informal de lo que los estadísticos llaman significancia estadística. ¿Qué tan precisas son nuestras medidas dentro de muestras de un tamaño dado? Un filósofo contemporáneo de la ciencia Ronald Giere ofrece lo que él llama una regla general para responder a esta pregunta.3 Ofrece la siguiente escala para correlacionar el tamaño de la muestra con la precisión de lo que se está midiendo:

    TAMAÑO DE LA MUESTRA (PERSONAS) PRECISIÓN

    100

    ±10 por ciento

    500

    ±5 por ciento

    2,000

    ±2 por ciento

    10,000

    ±1 por ciento

    Podrías anotar un par de cosas sobre este pequeño gráfico. Una es lo bien que el primer dígito en el tamaño de la muestra se correlaciona con la medición de precisión, por lo que es bastante fácil de recordar. El otro es lo que los economistas llaman “la ley de rendimientos decrecientes”. Al aumentar la muestra de cien a quinientos te compra mucha mayor precisión; aumentándola de dos mil a diez mil compra apenas aumentaste la precisión. Encontrarás, predigo, que casi todas las encuestas sobre las que lees en los periódicos tendrán tamaños de muestra alrededor de quinientos. Esto se debe a que una precisión de aproximadamente ±5 por ciento es todo lo que se necesita para la mayoría de los propósitos, y sería muy costoso y llevaría mucho tiempo mejorar esa precisión de manera significativa.

    ¿No se pudo sesgar la muestra?

    La noción de sesgo en el discurso coloquial a menudo transmite una falta de apertura o incluso prejuicio, lo que cuenta como una especie de defecto de carácter, por ejemplo, “está realmente sesgado en su calificación contra los estudiantes atletas”. Estoy sesgada hacia la música folk y rock porque es con lo que crecí. Algunos de ustedes, Dios no lo quiera, están sesgados hacia el hip-hop por la misma razón. Todo lo que realmente significa es que la gente no es igualmente abierta, a dar buenas notas, apreciar una canción como buena, o darse cuenta de que hay que lavar los platos. Tenemos que asegurarnos de que nuestras muestras no sean sesgadas sino igualmente abiertas a todos o a todo en la población.

    Los estadísticos desean muestras seleccionadas al azar. Esta es una jerga técnica que significa que cada individuo de la población tiene la misma probabilidad de ser seleccionado como miembro de la muestra. Mi computadora puede aproximar la selección aleatoria, por lo que sería relativamente fácil para mí alimentar todas las listas de mis clases durante los últimos cinco años, seleccionar aleatoriamente a tres estudiantes de cada curso y luego consultar esta muestra para descubrir cosas sobre mi enseñanza, calificaciones, etc. No es mala idea, en realidad.

    En el mundo real, sin embargo, la aleatoriedad técnica suele ser imposible. Solo tenemos un par de días para conocer el sentimiento de los votantes en las próximas elecciones, y así llamamos por teléfono a una muestra de seiscientos votantes probables. Obviamente, esta no es una verdadera muestra aleatoria, ya que cada votante probable no tenía las mismas posibilidades de ser seleccionado, algunos no tenían teléfonos, algunos estaban de vacaciones y otros proyectaban sus llamadas. Pero para fines prácticos, si los números de teléfono se seleccionan aleatoriamente de una lista maestra de probables votantes que contestan sus teléfonos, la información que recopilamos se aproxima a lo que podría recopilarse de una muestra técnicamente aleatoria, y nuestra muestra podría caracterizarse como prácticamente aleatoria. Las muestras técnicamente aleatorias son la excepción, mientras que lo que esperamos sean prácticamente muestras aleatorias son la regla.

    Considera una encuesta muy famosa que salió espectacularmente mal. El Compendio Literario llevaba realizando encuestas sobre las elecciones presidenciales desde 1920 y había conseguido acertar al ganador en cuatro elecciones consecutivas; efectivamente, en la elección de 1932, obtuvieron el voto popular justo dentro del 1 por ciento. A medida que se acercaba la elección de 1936, volvieron a realizar una encuesta masiva. Echa un vistazo a los datos relevantes.

    e 1. El Digesto Literario envió por correo más de diez millones de boletas de votación paja.

    e 2. Su muestra fue extraída principalmente de listas de registro de automóviles y libretas telefónicas.4

    e 3. “Se devolvieron más de 2.3 millones de boletas electorales” 5.

    e 4. 55 por ciento planeó votar por Alf Landon, 41 por ciento por Roosevelt y 4 por ciento para Lemke.

    Esto llevó a su conclusión de que los votantes favorecieron abrumadoramente a Landon y su historia de portada predicción de que ganaría la elección. Hicieron una inferencia clásica de una muestra a una población.

    e 1. La muestra de Literary Digest favorece fuertemente a Landon.


    t 0. Los votantes, a nivel nacional, favorecen fuertemente a Landon.

    ¡Mala suerte para el Digesto Literario! Usted, por supuesto, sabe que Alf Landon nunca llegó a ser presidente. Apuesto a que un buen número de ustedes nunca antes habían oído hablar de él. Roosevelt aplastó a Landon en la elección general 61 por ciento a 37 por ciento. ¿Qué salió mal?

    La muestra del Digest estaba terriblemente sesgada. No porque tuvieran prejuicios o tuvieran algún hacha que moler sino porque la forma en que seleccionaron los nombres y direcciones estuvo lejos de ser aleatoria, no la aleatoriedad técnica que casi nunca encontramos, sino la aleatoriedad práctica que requiere una buena encuesta. La pista está en e 2. Esto fue, después de todo, el apogeo de la Gran Depresión. Los pobres tenían muchas menos probabilidades de poseer un auto. E incluso los teléfonos se consideraban entonces no necesidades sino, en cierto sentido, lujos. Nuevamente, los pobres tenían muchas menos probabilidades de tener teléfonos. Lo que el Digesto Literario había hecho involuntariamente es medir los sentimientos de los votantes relativamente ricos, no de los votantes en general. Esto sugiere la siguiente explicación rival:

    t 1. Los votantes adinerados favorecen fuertemente a [ed] Landon.

    Es bien sabido en la ciencia política que los votantes más ricos tienden a votar por los republicanos y los votantes menos ricos por los demócratas. No es de extrañar, por lo tanto, que una muestra de votantes sesgados hacia el Partido Republicano tendiera a favorecer al candidato republicano.

    Hubo una segunda fuente de sesgo en la muestra que es menos discutida en los círculos académicos. Toda la encuesta dependía de lo que los estadísticos llaman la “tasa de respuesta”. The Literary Digest envió una cantidad realmente asombrosa de globos de paja, más de diez millones. También obtuvieron una respuesta bastante buena, casi una cuarta parte. Pero deberíamos preguntarnos si había algo especial en esos 2.3 millones que se tomaron la molestia de enviar sus boletas de vuelta por correo. Parece razonable suponer que estaban más educados y políticamente preocupados. Entonces tenemos una segunda explicación rival:

    t 2. Los votantes mejor educados y políticamente preocupados favorecieron a Landon.

    Y, de hecho, t 1 y t 2 se complementan muy bien y sugieren un rival más completo:

    t 3. Los votantes adinerados, así como los votantes mejor educados y políticamente preocupados, favorecieron a Landon.

    Para que ninguno de ustedes piense que toda esta preocupación por las encuestas para las elecciones presidenciales es cosa del pasado, bien podría reflexionar sobre las elecciones recientes. Esto es lo que preocupaba a los encuestadores profesionales cuando se acercaba la elección de 2008:

    “Todos estábamos muertos de miedo en 2004, porque tuvimos una carrera cercana y el problema del teléfono celular ya estaba con nosotros entonces”, dice Scott Keeter, el jefe de encuestas del Pew Research Center.

    “Los encuestadores han aprendido bastante sobre los usuarios solo de teléfonos celulares a los que llaman. Es más probable que sean menores de 30 años, solteros, inquilinos, ganan menos de 30,000 dólares al año, y son un poco más propensos a ser negros o hispanos”, dice Keeter.

    Agrega: “Sugiere que si hay suficientes de ellos, y los estás perdiendo en tus encuestas de teléfonos fijos, entonces tus encuestas tendrán un sesgo por eso”. 6

    Estudio de Naomi Oreskes

    Hay un segmento interesante en la película de Al Gore, An Inconvenient Truth, donde cita un estudio académico de artículos revisados por pares sobre el cambio climático.

    Una científica de la Universidad de California en San Diego, la Dra. Naomi Oreskes, publicó en la revista Science un estudio masivo de todos los artículos de revistas científicas revisadas por pares sobre el calentamiento global de los 10 años anteriores. Ella y su equipo seleccionaron una gran muestra aleatoria de 928 artículos que representan casi el 10% de ese total, y analizaron cuidadosamente cuántos de los artículos coincidieron o no estaban de acuerdo con la opinión de consenso prevaleciente. Alrededor de una cuarta parte de los artículos de la muestra abordaron aspectos del calentamiento global que no involucraron discusión alguna sobre los elementos centrales del consenso. De las tres cuartas partes que sí abordaron estos puntos principales, ¿el porcentaje que no estuvo de acuerdo con el consenso? Cero. 7

    Aquí tenemos, un poco de segunda mano, una muestra increíblemente interesante, y potencialmente bastante importante. El argumento deja la conclusión no declarada pero todavía bastante obvia: casi todos los científicos naturales que publican sobre el cambio climático respaldan la visión consensuada sobre el cambio climático.

    e 1. En una muestra de 928 artículos revisados por pares que tratan sobre el cambio climático, 0 por ciento no estuvo de acuerdo con la opinión consensuada.


    t 0. Prácticamente todas las investigaciones revisadas por pares sobre el cambio climático avalan la visión consensuada.

    El señor Gore tiene toda la razón en que el Dr. Oreskes publicó un artículo breve, pero muy influyente, “Más allá de la Torre de Marfil: El consenso científico sobre el cambio climático”, en una prestigiosa revista, Science, en diciembre de 2004.8 Comienza recordando a sus lectores que los formuladores de políticas y los medios de comunicación a menudo sugieren que gran incertidumbre científica sobre el cambio climático “antropogénico” pero afirma rotundamente: “Este no es el caso” .9

    En defensa de su tesis, ofrece un estudio bastante elaborado que ha realizado. Ofrece una definición de trabajo de lo que llamará “la visión consensuada”, a partir de informes del Panel Intergubernamental de Cambio Climático:

    Actividades humanas... están modificando la concentración de constituyentes atmosféricos... que absorben o dispersan la energía radiante... La mayor parte del calentamiento observado en los últimos 50 años probablemente se debió al aumento de las concentraciones de gases de efecto invernadero. 10

    Fíjate en el reto que enfrenta. Ella está haciendo una afirmación sobre una población muy grande, y no tan bien definida, la ciencia (“gran incertidumbre científica”). Para empeorar las cosas, los políticos y los medios de comunicación disputan su afirmación.

    Su primer paso es definir más cuidadosamente a la población que le interesa. Utiliza una herramienta de referencia estándar en las ciencias naturales, la base de datos del Instituto de Información Científica (ISI). En esta base de datos, se pide a los autores que identifiquen ciertas “palabras clave”, realmente temas, que abordan sus artículos. El profesor Oreskes buscó la palabra clave “cambio climático”. Posteriormente, su equipo seleccionó al azar más de 928 artículos.

    Obviamente no todos los artículos van a refrendar explícitamente o estar en desacuerdo con la opinión consensuada, por lo que Oreskes y su equipo tuvieron que leer y “codificar” los artículos. Los dividieron en seis categorías.

    Los 928 trabajos se dividieron en seis categorías: aval explícito a la posición de consenso, evaluación de impactos, propuestas de mitigación, métodos, análisis paleoclimáticos y rechazo de la posición consensuada. De todos los trabajos, 75% se ubicó en las tres primeras categorías, ya sea explícita o implícitamente aceptando la visión consensuada; 25% se refería a métodos o paleoclima, sin tomar posición sobre el cambio climático antropogénico actual. Notablemente, ninguno de los documentos estuvo en desacuerdo con la posición consensuada. 11

    También es bastante franca de que se requirió cierta cantidad de juicio y edición de la muestra.

    Algunos resúmenes fueron eliminados de nuestro análisis porque, aunque los autores habían puesto “cambio climático” en sus palabras clave, el artículo no se refería al cambio climático. 12

    Entonces, ¿qué pensamos nosotros (ninguno de nosotros capacitó a los científicos climáticos) de la evidencia del profesor Oreskes? Poseemos las herramientas para hacer algún tipo de evaluación.

    Tenemos una buena cantidad de datos que se ofrecen como evidencia:

    e 1. Definición de la “visión de consenso”

    e 2. Base de datos ISI

    e 3. Palabra clave: cambio climático

    e 4. 928 artículos

    e 5. Algunos artículos no abordaron realmente el cambio climático y se eliminaron.

    e 6. Seis categorías potenciales

    e 7. 75 por ciento “implícita o explícitamente” refrendó la opinión consensuada.

    e 8. 25 por ciento no tomó posición.

    e 9. Ni un solo artículo estuvo en desacuerdo con la opinión consensuada.


    t 0. Casi todos los científicos que trabajan y publican sobre el cambio climático avalan la visión consensuada.

    Explicaciones rivales de la muestra

    Comenzaremos con dos explicaciones rivales distintas que atribuyen el hecho de que nadie desafió la visión consensuada a pura casualidad. Quizás fue sólo una casualidad que todos los 928 artículos o bien avalaran la opinión consensuada o no adoptaran ninguna posición al respecto. Quizás el estudio nos dice algo sobre los artículos en la base de datos ISI, pero es simplemente una casualidad que los artículos que incluye la base de datos no sean escépticos sino que otros artículos revisados por pares no incluidos sean escépticos. Cualquiera de los siguientes tipos de coincidencia matemática es posible:

    t 1. Fue una casualidad que los 928 artículos no mostraran escepticismo sobre la visión consensuada; la base de datos del ISI contenía muchos artículos que eran escépticos.

    t 2. Aunque la muestra nos dijo algo significativo sobre la base de datos ISI, fue una coincidencia que los artículos que incluyeron no mostraran escepticismo cuando de hecho muchos artículos revisados por pares no incluidos muestran mucho escepticismo.

    Ya he admitido que ambos rivales son lógicamente posibles. Quiero insistir, sin embargo, que son muy improbables. ¿Recuerdas la “regla general” de Giere? Nos dice que para muestras aleatorias, el margen de error es una función directa del tamaño de la muestra. Las muestras de quinientas tienen una precisión de aproximadamente ±5 por ciento, y las muestras de dos mil tienen una precisión de aproximadamente ±2 por ciento. Eso significa que la muestra del profesor Oreskes tiene una precisión de, conservadoramente, ±4 por ciento. Para un estadístico que adopta un nivel de confianza del 95 por ciento, solo hay un 5 por ciento de probabilidad de que la población caiga fuera del margen de error de ±4 por ciento. ¿Podría suceder? Sí. ¿Es probable en absoluto? No.

    Rivales mucho más interesantes tendrán que ver con el problema del sesgo, ya sea intencional o, más probablemente, no intencional. Sospecho que algunos de ustedes ya se han preguntado si podría haber un sesgo en la base de datos del ISI. A lo mejor solo listan artículos “verdes”. Nuevamente, es posible la siguiente explicación rival:

    t 3. La base de datos ISI está sesgada a favor de la visión consensuada.

    Un sesgo muy diferente es posible gracias a la metodología de Oreskes. Es muy poco probable que la mayoría de los artículos de la muestra salieron enseguida y dijeran dónde se encontraban en la opinión consensuada. Efectivamente, nos dice que parte del refrendo estaba implícito. Eso debe significar que su equipo tuvo que “codificar”, o interpretar de otra manera, la intención de ese artículo y su posterior respaldo o no respaldo. Quizás su equipo estaba tan inconscientemente casado con la opinión consensuada que malinterpretaron muchos de los artículos como refrendando o no tomando posición cuando de hecho los autores de esos artículos pretendían rechazar la opinión consensuada. Así, otra posible explicación rival se centra en la codificación de los artículos:

    t 4. Oreskes, por sus sesgos, malinterpretó muchos de los artículos como favorables o neutrales cuando en realidad los autores argumentaban en contra de la opinión consensuada.

    Una explicación final rival se centra en el posible sesgo de toda la comunidad científica. Se podría argumentar, como algunos lo han hecho en defensa de la “ciencia de la creación”, que existe una especie de conspiración profesional que efectivamente censura artículos que desafían la visión consensuada (no solo del cambio climático sino de cualquier teoría científica aceptada) de ser publicados en revistas revisadas por pares en primer lugar. Aquí, el rival no desafía realmente a la población de publicaciones revisadas por pares, sino a la actitud implícita de respaldo por parte de los científicos trabajadores.

    t 5. Los científicos respetables que argumentan en contra de la visión consensuada no pueden publicar sus artículos en revistas revisadas por pares.

    ¿La Mejor Explicación?

    En el caso de los rivales enfocándose en una casualidad estadística, podría argumentar en contra de su plausibilidad centrándome en su improbabilidad matemática. No existe tal técnica para tratar con los rivales t 3, t 4 y t 5. Sin embargo, quiero argumentar que todos son inverosímiles, al menos en comparación con la explicación original de que existe un respaldo prácticamente universal de la visión consensuada sobre el cambio climático entre científicos capacitados en el clima.

    Considere primero la revista en la que apareció el artículo de Oreskes, Ciencia. La revista es una de las revistas académicas más respetadas del mundo. Tienen un enorme interés en vigilarse ellos mismos, ya que su nombre está en la portada de cada artículo que publican.

    A continuación, debemos enfrentar el cargo de que el Instituto de Información Científica está de alguna manera sesgado. Nuevamente, nos encontramos ante una herramienta de referencia muy prestigiosa y ampliamente utilizada, que ahora es operada por una corporación con fines de lucro. El ISI tiene una enorme participación, tanto su reputación como sus perspectivas financieras, en ser considerado como absolutamente confiable. Así también se puede esperar que ellos mismos se policíen.

    Lo mismo se puede argumentar para la propia profesora Oreskes. Es una académica, educadora y administradora universitaria muy respetada. Su propia reputación profesional está en juego. Sería una locura no asegurar cuidadosamente la exactitud de un artículo en una revista importante que estaba garantizado para ser leído y debatido por una amplia audiencia de científicos y de hecho, aquellos fuera de las ciencias.

    Por último, llegamos a quizás el más grave de los cargos en nuestros rivales. Quizás toda la ciencia climática está sesgada contra los críticos de la visión consensuada. Como dije en un capítulo anterior, este tipo de teorías conspirativas conscientes o inconscientes las ofrecen los críticos de la selección natural. Quiero reconocer que algo así puede suceder, y la historia de la ciencia nos dice que en ocasiones ha sucedido. En cierto modo, la crítica a la teoría de Semmelweis por parte de escépticos de la generación arraigada tenía matices de este mecanismo. Pero con todo esto concedido, tengo que decirte que este tipo de cosas son muy, muy raras. La mayoría de los científicos naturales respetan la necesidad de escepticismo de sus pares. Los estudios que desafían la visión consensuada, en un sentido, tienen más posibilidades de ser publicados, si por ninguna otra razón que esa están diciendo algo nuevo. Además, vivimos en la era de la información. Se está publicando mucho más, y ahora existen muchos más lugares para la publicación académica revisada por pares. Así, el hecho de que la base de datos del ISI no incluyera ni una sola defensa escéptica me lleva a creer que simplemente no hay muchos escépticos por ahí, al menos no dentro de la ciencia climática convencional.

    EJERCICIOS

    1. 1. Para el trimestre de otoño de 2008, Eastern contaba con 3 mil 666 estudiantes. Cuando desglosas ese número en función del sexo, descubres algo un poco sorprendente. De esos alumnos 2,344 eran mujeres, mientras que sólo 1,322 eran hombres. ¿Por qué habría sido una mala idea tomar los datos institucionales de 2008 de Eastern como decirnos algo significativo sobre género y asistencia universitaria a nivel nacional?
    2. 2. ¿Por qué casi nunca vemos muestras que son verdaderamente (técnicamente) aleatorias?
    3. 3. Las evaluaciones docentes para cursos en línea tienen tasas de respuesta notoriamente bajas. Menos del 10 por ciento de mis alumnos en línea devuelven sus evaluaciones del curso. ¿Qué tipo de sesgo podría infectar la precisión de estas evaluaciones de los estudiantes? ¿Esta muestra está lo suficientemente cerca de la aleatoriedad práctica como para decirnos algo interesante sobre la calidad de mi enseñanza en línea?

    QUIZ ONCE

    Una historia reciente de Gallup News afirma que “la preocupación pública por el calentamiento global es evidente en todos los grupos de edad en Estados Unidos, con mayorías de estadounidenses más jóvenes y mayores que dicen que se preocupan por el problema mucho o una cantidad justa. Sin embargo, la medida en que los estadounidenses toman en serio el calentamiento global y se preocupan por ello difiere notablemente según la edad, ya que los adultos menores de 35 años suelen estar mucho más comprometidos con el problema que los de 55 años y mayores” 13.

    Los siguientes resultados fueron “basados en entrevistas telefónicas agregadas de cuatro encuestas separadas de Gallup realizadas entre 2015 y 2018 con una muestra aleatoria de 4,103 adultos, mayores de 18 años, que viven en los 50 estados de Estados Unidos y el Distrito de Columbia. Para los resultados basados en la muestra total de adultos nacionales, el margen de error de muestreo es de ±2 puntos porcentuales al nivel de confianza del 95%. Todos los márgenes de error de muestreo reportados incluyen efectos de diseño calculados para ponderación” .14

    Aquí hay un resumen de sus hallazgos: el 75 por ciento de los encuestados de dieciocho a treinta y cuatro años creía que “el calentamiento global es causado por actividades humanas”, mientras que solo el 55 por ciento de los encuestados de cincuenta y cinco años o más creían esto. A propósito de nuestra discusión anterior, el 73 por ciento de la cohorte más joven pensó que “la mayoría de los científicos creen que el calentamiento global está ocurriendo”, pero solo el 58 por ciento en el grupo mayor pensó que esto era cierto.15

    Con base en la información de las encuestas de Gallup, utilizar las técnicas desarrolladas en este capítulo para evaluar la calidad de la evidencia que tenemos para la afirmación del autor de que “la medida en que los estadounidenses toman en serio el calentamiento global y se preocupan por él difiere marcadamente según la edad”.

    Aquí está el artículo completo de Gallup: https://news.gallup.com/poll/234314/global-warming-age-gap-younger-americans-worried.aspx.

    Notas

    1. Citado en Sourav S. Bhownick y Boon-Siew Seah, Resumiendo redes biológicas (Nueva York: Springer, 2017), vii.

    2. Heather Long, “En Estados Unidos, el crecimiento salarial está siendo borrado por completo por la inflación”, Washington Post, 10 de agosto de 2018, https://www.washingtonpost.com/business/2018/08/10/america-wage-growth-is-getting-wiped-out-entirely-by-inflation/?noredirect=on&utm_term=.65fd9f744116.

    3. Ronald Giere, Explicando la ciencia (Belmont, CA: Wadsworth, 2005), 142—44.

    4. Peverill Squire, “Por qué falló la encuesta de la Recogida Literaria de 1936”, Opinión Pública Trimestral 52, núm. 1 (Primavera de 1988): 128.

    5. Escudero, 128.

    6. Audie Cornish, “¿Las encuestas extrañan las vistas de los jóvenes y móviles? ,” NPR, 1 de octubre de 2007, http://www.npr.org/templates/story/s...oryId=14863373.

    7. Al Gore, Una verdad incómoda (Emaús: Rodale, 2006), 262.

    8. Naomi Oreskes, “El consenso científico sobre el cambio climático”, Science 305, núm. 5702 (2004): 1686, http://www.sciencemag.org/cgi/content/full/306/5702/1686.

    9. Oreskes, 1686.

    10. Oreskes, 1686.

    11. Oreskes, 1686.

    12. Oreskes, 1686.

    13. R. J. Reinhart, “La brecha de edad del calentamiento global: los estadounidenses más jóvenes más preocupados”, Gallup, 11 de mayo de 2018, https://news.gallup.com/poll/234314/global-warming-age-gap-younger-americans-worried.aspx?version=print.

    14. Reinhart.

    15. Reinhart.


    This page titled 1.11: Estadística - Dar sentido a los números is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by Jeffery L. Johnson (Portland State University Library) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.