Saltar al contenido principal
LibreTexts Español

2.1: Comida para llevar 1- Los estudiantes tienen un vínculo ambivalente con plataformas impulsadas por algoritmos.

  • Page ID
    90702
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Casi todos los estudiantes de nuestros grupos focales eran conscientes de que las plataformas empujaban el contenido a sus pantallas. Si bien la mayoría dijo que no tenía idea de cómo funcionaban realmente los algoritmos, tenían opiniones definidas sobre los efectos que la personalización tenía en sus vidas en línea. Como explicó un novato autodenominado, “Realmente no soy un gurú, pero los algoritmos de los motores de búsqueda toman lo que haces clic y hacen esta poción mágica que siempre atiende a sitios que usas constantemente para noticias como CNN en lugar de BBC”.

    Los estudiantes se apresuraron a dar ejemplos de publicidad dirigida, donde la lógica interna de la persuasión algorítmica era más visible ya que los mismos anuncios los perseguían a través de plataformas y dispositivos. A menudo intercambiaban historias sobre cómo algunos intentos de personalización habían fracasado. Un estudiante dijo que una búsqueda de prácticas políticas en D.C. arrojó una pasantía en Corea. Otra dijo que seguía recibiendo anuncios de vuelos a un lugar que acababa de visitar.

    Si bien las discusiones a menudo comenzaron con reacciones al comportamiento publicitario, los estudiantes también hablaron sobre algoritmos utilizados para personalizar otro tipo de contenido. Según los estudiantes, el uso de algoritmos por parte de las plataformas de redes sociales fue pernicioso. Como se dijo, sitios como Facebook “pueden servir información y noticias, casi como propaganda, pueden servir cualquier información que quieran, y potencialmente cambiar tu cosmovisión —puede ser un arma de doble filo”.

    Obtener noticias en línea a través de los gigantes de internet revelaron una creciente tensión entre recibir los servicios que querían y el costo psíquico. Un estudiante, resignado a la compensación, admitió: “Estoy renunciando al control de mis datos personales para poder recibir noticias con las que estoy de acuerdo, ver mis intereses reflejados en mi feed y comprar de manera más eficiente”.

    Renuncia e indignación

    Una conclusión importante de nuestros grupos focales fue la profunda ambivalencia —la maraña de resignación e indignación— que casi todos los estudiantes expresaron sobre las plataformas impulsadas por algoritmos que recopilan datos sobre sus vidas personales. Si bien muchos estudiantes se opusieron a ciertas prácticas publicitarias utilizadas en las plataformas, no obstante se resignaron a usar sitios como Google y YouTube. En sus palabras, los algoritmos eran “parte del trato” si querían usar “aplicaciones gratuitas”. Menos, sin embargo, parecían darse cuenta de que sus motivaciones para conectarse y obtener contenido podrían explotarse de formas que se extendieran más allá de los anuncios dirigidos. Si bien algunos dijeron que sabían que Google y Facebook eran “empresas de publicidad” y “su objetivo es adaptar los anuncios a usted”, la mayoría encontró estos sitios demasiado útiles para abandonarlos. Aún para otros, los algoritmos eran necesarios y bienvenidos, ya que la personalización ayudó a filtrar la gran cantidad de resultados web irrelevantes que de otra manera podrían obtener de una búsqueda en Google. Como un estudiante lo resumió sobre su cohorte, “Preferiríamos tener esta conveniencia que proteger nuestra privacidad”.

    Comentarios como estos sugieren que los estudiantes tienen conciencia sobre los beneficios de los algoritmos para clasificar la información para obtener resultados relevantes. Al mismo tiempo, señalan la conciencia de los estudiantes sobre los escollos de compartimentar a las personas para influir en sus acciones y exacerbar las divisiones. Pero exactamente lo que una empresa podría estar haciendo con los datos recopilados sobre ellos era a menudo una variable desconocida en el análisis costo-beneficio de los estudiantes. Si bien algunos sopesaron si la capacidad de usar ciertos sitios valía la pena sacrificar sus datos, muchos otros afirmaron que ya era demasiado tarde. Como un estudiante racionalizó, “Tu información está 100% ahí afuera en alguna parte, y definitivamente es preocupante, pero quiero una cuenta de Amazon, así puedo comprar cosas, y quiero una cuenta de Facebook, también”. Hubo un consenso generalizado por parte de los estudiantes de que estos sitios les ayudaban a mantenerse en contacto con amigos y familiares. Como admitió un alumno sobre su ambivalencia:

    Simplemente me siento insensibilizado a ello. Si realmente lo pienso, estoy como, sí, eso está mal, y no quiero que me escuchen, pero luego sigo usando esas aplicaciones y estoy dejando que suceda. Entonces, obviamente, a mí no me importa tanto. Quiero decir, ¿qué vas a hacer?

    Sentimientos contradictorios como estos fueron más evidentes cuando se les preguntó a los estudiantes sobre sus “puntos de inflexión”. 65 ¿Cuándo había ido demasiado lejos una plataforma impulsada por algoritmos? El potencial de que las conversaciones fueran captadas por los dispositivos y activaran la publicidad relacionada era un punto de inflexión común para ellos (ver barra lateral, “Cuando los algoritmos 'se ponen espeluznantes'”). Algunos estudiantes dijeron que apagaron el micrófono de su dispositivo para tomar represalias contra la práctica; muchos otros dijeron que se negaron a tener a Alexa en sus residencias. En palabras de un estudiante, “el teléfono ya está haciendo suficiente escucha”. 66 Otro agregó: “Es interesante que las personas que están más cerca de trabajar tecnologías como Alexa no las usen”.

    Otros cuestionaron qué tan casados estaban con los gigantes en línea después de enterarse de que Cambridge Analytica utilizó algoritmos para desarrollar una campaña dirigida a millones de perfiles de Facebook para influir en los hábitos de voto de los usuarios. Aún otros se refirieron a “falsificaciones profundas” 67 y engaños virales, como un videoclip de la presidenta de la Cámara de Representantes Nancy Pelosi que se desaceleró deliberadamente para hacerla parecer ebria 68 que se difundió a través de Facebook, YouTube y Twitter en mayo de 2019. Algunos dijeron que la negativa de Facebook a bajar el video, junto con el intercambio generalizado del video por parte de partidarios pro-Trump, había cruzado la línea para ellos.

    Al mismo tiempo, muchos estudiantes compartieron preocupaciones sobre las cámaras de eco que profundizaron las desigualdades sociales. Una mujer de color relacionó la injusticia algorítmica con los sesgos que llevaron a sobrevigilar a las comunidades negras al tiempo que no logró evitar los tiroteos masivos por parte de blancos de comunidades ricas. Otro estudiante describió los algoritmos predictivos como “solo una forma elegante de estereotipado y discriminación habilitada por la tecnología, lo cual es inherentemente problemático, pero es más fácil para nosotros pasar por alto porque está sucediendo en línea y no lo estamos viendo”. Aún otro estudiante relató cómo había pensado en especializarse en el campo de la informática, pero decidió no hacerlo:

    No me gusta la dirección en la que va la tecnología. Gran parte de ella se puede usar para el mal, y aunque es realmente inteligente, y es como muy bien implementada y efectiva para la gente a la que está sirviendo, no está sirviendo a la población en general. Y eso me enloquece.

    En conjunto, estos comentarios sugieren que muchos estudiantes, aunque no todos, tienen una comprensión más amplia del impacto de los algoritmos en sus vidas más allá de los efectos estrictamente personales de la publicidad que muchos estaban ansiosos por discutir. Fueron desgarrados por el atractivo de usar “sitios gratuitos “al tiempo que sabían que estaban siendo rastreados con fines no revelados. Y casi todos ellos todavía estaban tratando de encontrar alguna manera de eludir la vigilancia en línea y proteger su vulnerabilidad, independientemente de lo efectivos que pudieran haber sido sus métodos. Como describió un estudiante una sensación de resignación combinada con indignación: “Es un horrible infierno totalitario, pero es algo así como lo mejor que podemos esperar razonablemente”.

    Cuando los algoritmos “se vuelven espeluznantes”

    clipboard_e54ed3ee25246f6853c0311fab7e477ae.png

    Las ricas discusiones en nuestros grupos focales mostraron que los estudiantes de todo el país tenían algunas preocupaciones comunes sobre los algoritmos. *

    En un análisis de registros y transcripciones, el Equipo PIL utilizó ocho temas individuales en función de si uno o más estudiantes de uno de los 16 grupos (N=103) habían planteado la preocupación (ver Tabla 1). Si los estudiantes mencionaban una preocupación, por ejemplo, sobre “la próxima generación” más de una vez en una sesión, solo la contábamos una vez.

    Más que nada, escuchamos preocupaciones de los estudiantes sobre el “escalofriante” de los algoritmos que violaban su privacidad. Esto sucedió cuando las plataformas 'escucharon' sus discusiones o compartieron datos entre sí para lanzarles productos.

    Estaba conversando con mi amiga y bromeando sobre que alguien estaba embarazada, y luego empezaron a aparecer anuncios en mis búsquedas de pruebas de embarazo y suplementos. Me estaba riendo porque Google se equivocó, pero sigue siendo espeluznante.

    Si bien a los estudiantes de muchos grupos les preocupaba cómo le iría a la próxima generación, ellos mismos a menudo no estaban familiarizados con cómo se estaba desarrollando y expandiendo el uso de algoritmos. La toma de decisiones automatizada que puede afectar directamente a sus vidas es particularmente inquietante. También remarcaron sobre la desaparición de una realidad compartida que resulta de noticias e información personalizadas. En muchas discusiones estas preocupaciones sociales y personales se cruzaron.

    * Los investigadores del PIL Alaina Bull y Jessica Yurkofsky hicieron la codificación para este análisis de contenido del 10 de octubre al 4 de diciembre de 2019.

    Cuadro 1: ¿Qué preocupa a los estudiantes sobre los algoritmos informáticos?
    Preocupaciones sobre los algoritmos Contar Por ciento
    1. (P) Plataformas “escuchando” a través de dispositivos o plataformas. 14 88%
    2. (S) Algoritmos y toma de decisiones automatizada reforzando desigualdades 12 75%
    3. (P) Plataformas que dan forma al contenido individual y a los anuncios que ven. 12 75%
    4. (S) Los usuarios en línea no ven la misma realidad. 11 69%
    5. (S) La próxima generación. 10 63%
    6. (P) Plataformas de venta de datos personales a terceros. 8 50%
    7. (P) Permanencia de los datos que se están recabando sobre ellos. 7 44%
    8. (S) Generaciones mayores que utilizan estas tecnologías y se adaptan a los cambios. 5 31%

    El conteo se basa en las preocupaciones discutidas por 16 grupos focales de estudiantes.

    (P = Preocupaciones personales, S = preocupaciones sociales)

    Referencias

    1. En el libro más vendido de Malcolm Gladwell, The tipping point: How little things can make a big difference (2000), el autor describe el punto de inflexión como “el momento de la masa crítica, el umbral, el punto de ebullición”, p. 304.
    2. Si bien la preocupación por la “escucha” de los teléfonos es generalizada, lo más probable es que no suceda de manera rutinaria. Ver Bree Fowler (10 Julio 2019), “¿Tu smartphone te está escuchando en secreto?” Consumer Reports, www.consumerreports.org/smar... tening-to-you/
    3. Oscar Schwartz (12 de noviembre de 2018), “¿Pensaste que las noticias falsas eran malas? Las falsificaciones profundas son donde la verdad va a morir”, The Guardian, www. theguardian.com/technology/2018/nov/12/deep-fake-fake-news-truth
    4. Charlie Warzel (26 de marzo de 2019), “El falso video de Nancy Pelosi nos secuestró la atención. Tal como se pretendía”, The New York Times, www. nytimes.com/2019/05/26/opinion/nancy-pelosi-video-facebook.html

    Colaboradores y Atribuciones