¿Puede una herramienta de Inteligencia Artificial reproducir estereotipos humanos y sesgos sociales vinculados a la raza, el sexo y la edad? Un concurso convocado por Twitter, como parte de la convención de piratería informática desarrollada en Las Vegas, Estados Unidos, demostró que los algoritmos, programados y entrenados por seres humanos, son capaces de aprender lo que sus desarrolladores, de forma pública, dicen querer evitar.
En mayo pasado, las alarmas se encendieron luego de que algunos usuarios detectaran que el algoritmo empleado por la plataforma de microbloging, recortaba las fotografías para favorecer la promoción de personas blancas, jóvenes y sanas.
Tal descubrimiento provocó que la compañía retirara el algoritmo para pensar cómo evitar el sesgo.
Bodgan Kulynych, investigadora suiza y ganadora del evento mostró a los expertos de Twitter cómo la tecnología favorecía la promoción de mujeres blancas, delgadas y jóvenes en un experimento en el que analizó miles de fotografías y aplicó técnicas de deepfake, con las cuales pudo generar distintos rostros.
En realidad se trata de un “racismo involuntario que no es inusual”, según dijo Parham Aarabi, profesor de la Universidad de Toronto, quien obtuvo el segundo premio del encuentro.
“Casi en todos los sistemas de inteligencia artificial que hemos probado para las principales empresas de tecnología, encontramos sesgos significativos”, aseguró en una nota publicada por la cadena NBC.
La presentación del grupo de Aarabi encontró que el algoritmo de Twitter sesgaba “severamente” a las personas con cabello blanco o gris y a las personas discapacitadas.
Otros concursantes revelaron la alta probabilidad de que Twitter ignorara a las personas que se cubrieran la cabeza, entre las cuales están quienes usan un un hijab musulmán por razones religiosas.
La directora del equipo de la plataforma dedicado a la ética del aprendizaje automático, Rumman Chowdhury, expresó que esperaba un mayor número de empresas tecnológicas solicitando ayuda externa para identificar sesgos algorítmicos.
“Identificar todas las formas en las que un algoritmo podría salir mal cuando se lanza al público es realmente una tarea abrumadora para un equipo y probablemente-concluyó-no sea factible”.