Saltar al contenido principal
LibreTexts Español

16: La desinformación y los sesgos infectan las redes sociales, tanto intencionalmente como accidentalmente (Ciampaglia y Filippo Menczer)

  • Page ID
    99642
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Giovanni Luca Ciampaglia y Filippo Menczer

    #argument, #causalargument, #cognitivebias, #ethos, #logos, #sharedvalues, #reportinginformation

    “Social Media” de mgysler está licenciado bajo CC BY-NC-SA 2.0

    Las redes sociales se encuentran entre las principales fuentes de noticias en Estados Unidos y en todo el mundo. Sin embargo, los usuarios están expuestos a contenido de cuestionable precisión, incluyendo teorías de conspiración, clickbait, contenido hiperpartidista, pseudo ciencia e incluso informes fabricados de “noticias falsas”.

    No es de extrañar que haya tanta desinformación publicada: el spam y el fraude en línea son lucrativos para los delincuentes, y la propaganda gubernamental y política producen beneficios tanto partidistas como financieros. Pero el hecho de que el contenido de baja credibilidad se propague tan rápida y fácilmente sugiere que las personas y los algoritmos detrás de las plataformas de redes sociales son vulnerables a la manipulación.

    Explicar las herramientas desarrolladas en el Observatorio de Redes Sociales.

    Nuestra investigación ha identificado tres tipos de sesgo que hacen que el ecosistema de redes sociales sea vulnerable a la desinformación intencional y accidental. Es por ello que nuestro Observatorio en Redes Sociales de la Universidad de Indiana está construyendo herramientas para ayudar a las personas a tomar conciencia de estos sesgos y protegerse de influencias externas diseñadas para explotarlos.

    Sesgo en el cerebro

    Los sesgos cognitivos se originan en la forma en que el cerebro procesa la información que cada persona encuentra todos los días. El cerebro solo puede lidiar con una cantidad finita de información, y demasiados estímulos entrantes pueden causar sobrecarga de información. Eso en sí mismo tiene serias implicaciones para la calidad de la información en las redes sociales. Hemos encontrado que la fuerte competencia por la atención limitada de los usuarios significa que algunas ideas se vuelven virales a pesar de su baja calidad, incluso cuando la gente prefiere compartir contenido de alta calidad.

    Para evitar agobiarse, el cerebro utiliza una serie de trucos. Estos métodos suelen ser efectivos, pero también pueden convertirse en sesgos cuando se aplican en contextos equivocados.

    Un atajo cognitivo ocurre cuando una persona está decidiendo si compartir una historia que aparece en su feed de redes sociales. Las personas están muy afectadas por las connotaciones emocionales de un titular, aunque eso no es un buen indicador de la precisión de un artículo. Mucho más importante es quién escribió la pieza.

    Para contrarrestar este sesgo y ayudar a las personas a prestar más atención a la fuente de un reclamo antes de compartirlo, desarrollamos Fakey, un juego de alfabetización de noticias móvil (gratuito en Android e iOS) que simula un típico feed de noticias de redes sociales, con una mezcla de artículos de noticias de mainstream y low- fuentes de credibilidad. Los jugadores obtienen más puntos por compartir noticias de fuentes confiables y marcar contenido sospechoso para verificar los hechos. En el proceso, aprenden a reconocer señales de credibilidad de origen, como afirmaciones hiperpartidistas y titulares cargados de emociones.

    Capturas de pantalla del juego Fakey. Mihai Avram y Filippo Menczer

    Sesgo en la sociedad

    Otra fuente de sesgo proviene de la sociedad. Cuando las personas se conectan directamente con sus compañeros, los sesgos sociales que guían su selección de amigos llegan a influir en la información que ven.

    De hecho, en nuestra investigación hemos encontrado que es posible determinar las inclinaciones políticas de un usuario de Twitter simplemente mirando las preferencias partidistas de sus amigos. Nuestro análisis de la estructura de estas redes de comunicación partidistas encontró que las redes sociales son particularmente eficientes para difundir información —precisa o no— cuando están estrechamente ligadas y desconectadas de otras partes de la sociedad.

    La tendencia a evaluar la información de manera más favorable si proviene de dentro de sus propios círculos sociales crea “cámaras de eco” que están maduras para la manipulación, ya sea consciente o involuntariamente. Esto ayuda a explicar por qué tantas conversaciones en línea se convierten en confrontaciones de “nosotros contra ellos”.

    Para estudiar cómo la estructura de las redes sociales en línea hace que los usuarios sean vulnerables a la desinformación, construimos Hoaxy, un sistema que rastrea y visualiza la difusión del contenido de fuentes de baja credibilidad, y cómo compite con el contenido de verificación de hechos. Nuestro análisis de los datos recopilados por Hoaxy durante las elecciones presidenciales de Estados Unidos de 2016 muestra que las cuentas de Twitter que compartieron desinformación quedaron casi completamente separadas de las correcciones hechas por los verificadores de hechos.

    Cuando analizamos las cuentas de difusión de información errónea, encontramos un grupo central muy denso de cuentas que se retuitean entre sí casi exclusivamente, incluidos varios bots. Las únicas veces que las organizaciones de verificación de hechos fueron citadas o mencionadas por los usuarios del grupo desinformado fueron cuando cuestionaban su legitimidad o reclamaban lo contrario de lo que escribían.

    Una captura de pantalla de una búsqueda Hoaxy muestra cómo los bots comunes —en rojo y rosa oscuro— están difundiendo una historia falsa en Twitter. Hoaxy

    Sesgo en la máquina

    El tercer grupo de sesgos surge directamente de los algoritmos utilizados para determinar lo que la gente ve en línea. Tanto las plataformas de redes sociales como los motores de búsqueda los emplean. Estas tecnologías de personalización están diseñadas para seleccionar solo el contenido más atractivo y relevante para cada usuario individual. Pero al hacerlo, puede terminar reforzando los sesgos cognitivos y sociales de los usuarios, haciéndolos aún más vulnerables a la manipulación.

    Por ejemplo, las herramientas publicitarias detalladas integradas en muchas plataformas de redes sociales permiten a los activistas de desinformación explotar el sesgo de confirmación adaptando los mensajes a personas que ya están inclinadas a creerles.

    Además, si un usuario a menudo hace clic en los enlaces de Facebook de una fuente de noticias en particular, Facebook tenderá a mostrar a esa persona más del contenido de ese sitio. Este llamado efecto de “burbuja filtrante” puede aislar a las personas de diversas perspectivas, fortaleciendo el sesgo de confirmación.

    Nuestra propia investigación muestra que las plataformas de redes sociales exponen a los usuarios a un conjunto de fuentes menos diverso que los sitios no sociales como Wikipedia. Debido a que esto es a nivel de toda una plataforma, no de un solo usuario, llamamos a esto el sesgo de homogeneidad.

    Otro ingrediente importante de las redes sociales es la información que es tendencia en la plataforma, de acuerdo a lo que está recibiendo más clics. A esto lo llamamos sesgo de popularidad, porque hemos encontrado que un algoritmo diseñado para promover contenido popular puede afectar negativamente la calidad general de la información en la plataforma. Esto también alimenta el sesgo cognitivo existente, reforzando lo que parece ser popular independientemente de su calidad.

    Todos estos sesgos algorítmicos pueden ser manipulados por bots sociales, programas informáticos que interactúan con los humanos a través de cuentas de redes sociales. La mayoría de los bots sociales, como el Big Ben de Twitter, son inofensivos. Sin embargo, algunos ocultan su naturaleza real y son utilizados para propósitos maliciosos, como impulsar la desinformación o crear falsamente la apariencia de un movimiento de base, también llamado “astroturfing”. Encontramos evidencia de este tipo de manipulación en el período previo a las elecciones de mitad de período de 2010 en Estados Unidos.

    Captura de pantalla del sitio web de Botometer, que muestra una cuenta humana y una cuenta de bot. Botómetro

    Para estudiar estas estrategias de manipulación, desarrollamos una herramienta para detectar bots sociales llamada Botometer. Botometer utiliza el aprendizaje automático para detectar cuentas de bot, al inspeccionar miles de características diferentes de las cuentas de Twitter, como los tiempos de sus publicaciones, la frecuencia con la que tuitea y las cuentas a las que sigue y retuitea. No es perfecto, pero ha revelado que hasta el 15 por ciento de las cuentas de Twitter muestran signos de ser bots.

    Usando Botometer en conjunto con Hoaxy, analizamos el núcleo de la red de desinformación durante la campaña presidencial estadounidense de 2016. Encontramos muchos bots explotando tanto los sesgos cognitivos, de confirmación y popularidad de sus víctimas como los sesgos algorítmicos de Twitter.

    Estos bots son capaces de construir burbujas de filtro alrededor de usuarios vulnerables, alimentándoles falsas afirmaciones y desinformación. Primero, pueden atraer la atención de usuarios humanos que apoyan a un candidato en particular tuiteando los hashtags de ese candidato o mencionando y retuiteando a la persona. Entonces los bots pueden amplificar afirmaciones falsas que manchan a los oponentes retuiteando artículos de fuentes de baja credibilidad que coinciden con ciertas palabras clave. Esta actividad también hace que el algoritmo destaque para otros usuarios historias falsas que se están compartiendo ampliamente.

    Comprender las vulnerabilidades complejas

    Aun cuando nuestra investigación, y la de otras, muestran cómo individuos, instituciones e incluso sociedades enteras pueden ser manipuladas en las redes sociales, quedan muchas preguntas por responder. Es especialmente importante descubrir cómo estos diferentes sesgos interactúan entre sí, creando potencialmente vulnerabilidades más complejas.

    Herramientas como la nuestra ofrecen a los usuarios de Internet más información sobre la desinformación, y por lo tanto cierto grado de protección contra sus daños. Es probable que las soluciones no sean solo tecnológicas, aunque probablemente habrá algunos aspectos técnicos en ellas. Pero deben tomar en cuenta los aspectos cognitivos y sociales del problema.

    Nota del editor: Este artículo fue actualizado el 10 de enero de 2019, para reemplazar un enlace a un estudio que había sido retraído. El texto del artículo sigue siendo exacto, y permanece sin cambios.

    ____________________

    Giovanni Luca Ciampaglia es Profesor Asistente, Departamento de Ciencias de la Computación e Ingeniería, Universidad del Sur de Florida. Filippo Menczer es
    profesor de Ciencias de la Computación e Informática y Director del Centro de Investigación de Redes Complejas y Sistemas de la Universidad de Indiana. Este artículo apareció originalmente en La conversación.

    Licencia Creative Commons

    La desinformación y los sesgos infectan las redes sociales, tanto intencionalmente como accidentalmente por Giovanni Luca Ciampaglia y Filippo Menczer está bajo una Licencia Creative Commons Atribución-SinDerivadas 4.0 Internacional.