Saltar al contenido principal
LibreTexts Español

2.3: Sesgo algorítmico

  • Page ID
    100012
    • Walter D. Butler; Aloha Sargent; and Kelsey Smith
    • Pasadena City College, Cabrillo College, and West Hills Community College
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    “Aunque el impulso es creer en la objetividad de la máquina, necesitamos recordar que los algoritmos fueron construidos por personas” (Chmielinski, qtd. en Head et al. 38).

    Descripción general y ejemplos

    Debido a que a menudo asumimos que los algoritmos son neutrales y objetivos, pueden proyectar de manera incorrecta una mayor autoridad que la experiencia humana. Así, la omnipresencia de los algoritmos, y su increíble potencial para influir en nuestra sociedad, política, instituciones y comportamientos, ha sido una fuente de creciente preocupación.

    El sesgo algorítmico es una de esas preocupaciones clave. Esto ocurre cuando los algoritmos reflejan los valores implícitos de los humanos involucrados en su creación o uso, sistemáticamente “replicando o incluso amplificando sesgos humanos, particularmente aquellos que afectan a grupos protegidos” (Lee et al.). En los motores de búsqueda, por ejemplo, el sesgo algorítmico puede crear resultados de búsqueda que reflejen sesgos racistas, sexistas u otros prejuicios sociales, a pesar de la presunta neutralidad de los datos. Estos son solo algunos ejemplos de sesgo algorítmico (Lee et al. ):

    • Se encontró que un algoritmo utilizado por los jueces para predecir si los acusados deberían ser encarcelados o puestos en libertad bajo fianza, estaba sesgado contra los afroamericanos.
    • Amazon tuvo que dejar de usar un algoritmo de reclutamiento después de descubrir el sesgo de género: El algoritmo estaba penalizando cualquier currículum que contuviera la palabra “mujeres” en el texto, porque los datos se basaban en currículums presentados históricamente a Amazon, que eran predominantemente de hombres blancos.
    • Investigadores de la Universidad de Princeton analizaron algoritmos y encontraron que captaron los prejuicios raciales y de género existentes: los nombres europeos se percibían como más agradables que los de los afroamericanos, y las palabras “mujer” y “niña” tenían más probabilidades de asociarse con las artes en lugar de con la ciencia y las matemáticas.
    • Numerosos artículos han examinado el papel que el algoritmo de recomendación de YouTube podría desempeñar en la radicalización de los espectadores.

    Desafiando los algoritmos de opresión

    La Dra. Safiya U. Noble, Profesora Asociada de UCLA (Departamentos de Estudios de la Información y Estudios Afroamericanos) es autora del libro Algoritmos de opresión: Cómo los motores de búsqueda refuerzan el racismo. También es codirectora del UCLA Center for Critical Internet Inquiry, y cofundadora del Information Ethics & Equity Institute. En el siguiente video [3:43], la Dra. Noble analiza sus hallazgos sobre el sesgo algorítmico en los resultados de búsqueda de Google, particularmente para mujeres de color.

    Miniatura del elemento incrustado “Algoritmos de opresión: Safiya Umoja Noble”

    Un elemento de YouTube ha sido excluido de esta versión del texto. Puedes verlo en línea aquí: http://pb.libretexts.org/collegeresearch/?p=49

    Nota: Este video está subtitulado automáticamente. Los subtítulos precisos están disponibles en la versión Amara. Usa la transcripción del texto si prefieres leer.

    Combatir el sesgo en algoritmos

    Joy Buolamwini, investigadora del MIT, Rhodes Scholar, Fulbright Fellow, poeta del código y fundadora de la Liga de la Justicia Algorítmica, descubrió que los algoritmos que alimentaban los sistemas de software de reconocimiento facial no reconocían las tez de piel más oscura, porque se basaban en conjuntos de datos que eran en gran parte blancos y masculinos. Ahora está comprometida a combatir el sesgo en el aprendizaje automático, al que llama la “mirada codificada”. En el siguiente video [8:44], explica su trabajo con el reconocimiento facial y también hace preguntas importantes sobre cómo los algoritmos influyen en las decisiones críticas, como: ¿A quién contratan o despiden? ¿Obtienes ese préstamo? ¿Obtienes seguro? ¿Eres admitido en la universidad en la que querías ingresar? ¿Tú y yo pagamos el mismo precio por el mismo producto comprado en la misma plataforma?

    Miniatura para el elemento incrustado “Joy Buolamwini: Cómo estoy luchando contra el sesgo en algoritmos”

    Un elemento TED ha sido excluido de esta versión del texto. Puedes verlo en línea aquí: http://pb.libretexts.org/collegeresearch/?p=49

    Nota: Activa los subtítulos cerrados con el botón de subtítulos o usa la transcripción del texto interactivo si prefieres leer.

    Armas de destrucción matemática

    Cathy O'Neil ha escrito varios libros sobre ciencia de datos, entre ellos Armas de destrucción matemática. Fue la ex Directora del Programa Lede en Prácticas de Datos en la Escuela de Periodismo de la Universidad de Columbia. En el siguiente video [13:11], explica cómo los algoritmos no son justos y objetivos, y de hecho pueden “automatizar el status quo” y “codificar” el sexismo y la intolerancia. Concluye que estos algoritmos secretos de “caja negra”, creados por empresas privadas, pueden ocultar verdades feas, a menudo con resultados destructivos.

    Miniatura para el elemento incrustado “Cathy O'Neil: La era de la fe ciega en el big data debe terminar”

    Un elemento TED ha sido excluido de esta versión del texto. Puedes verlo en línea aquí: http://pb.libretexts.org/collegeresearch/?p=49

    Nota: Activa los subtítulos cerrados con el botón de subtítulos o usa la transcripción del texto interactivo si prefieres leer.


    Fuentes

    Algoritmos de opresión, foco de facultad: Safiya Umoja Noble”. YouTube, subido por USC Annenberg, 28 de febrero de 2018.

    La era de la fe ciega en el Big Data debe terminar: Cathy O'Neil” de TED está licenciada bajo CC BY-NC-ND 4.0

    Jefe, Alison J., Barbara Fister y Margy MacMillan. “Alfabetización informacional en la era de los algoritmos”. Alfabetización Informativa de Proyectos, 15 Ene. 2020. Licenciado bajo CC BY-NC-SA 4.0

    Cómo estoy luchando contra el sesgo en algoritmos: Joy Buolamwini” de TED está licenciado bajo CC BY-NC-ND 4.0

    Lee, Nicole Turner, Paul Resnick y Genie Barton. “Detección y mitigación de sesgos algorítmicos: mejores prácticas y políticas para reducir los daños al consumidor”. Brookings, 22 de mayo de 2019.

    Texto adaptado de “Ciudadanía Digital” de Aloha Sargent y James Glapa-Grossklag para @ONE, licenciado bajo CC BY 4.0


    This page titled 2.3: Sesgo algorítmico is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by Walter D. Butler; Aloha Sargent; and Kelsey Smith via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.