Un estudio desarrollado por investigadores de la empresa de inteligencia artificial (IA) Hugging Face y la Universidad de Leipzig (Sajonia-Alemania), determinó que dos de los generadores de imágenes más populares reflejan prejuicios raciales y de género, que pueden perpetuar resultados discriminatorios en la vida real.
DALL-E 2 y Stable Diffusion son las dos herramientas de IA más utilizadas para crear imágenes a partir de texto. El estudio señaló que el 97% de los resultados obtenidos para palabras como ‘consejero delegado’ o ‘director’ muestran imágenes de hombres blancos.
Los investigadores explican que los estereotipos más habituales vinculan a los hombres en posiciones de poder y a las mujeres como asistentes o recepcionistas.
En el caso de rasgos de personalidad, los resultados también mostraron importantes estereotipos. “Cuando se agregaban adjetivos como ‘compasivo’, ‘emocional’ o ‘sensible’ para describir una profesión, la IA ofrecía más imágenes de mujeres; mientras que, si las palabras adicionales eran ‘obstinado’ o ‘intelectual’, en la mayoría de los casos, los resultados eran imágenes de hombres”, revela el estudio.
Los científicos advierten que la manera en la que se desarrollan estas tecnologías puede repercutir en la cantidad de hechos de discriminación. Señalan que “dado que los sistemas de conversión de texto en imagen basados en el aprendizaje automático son cada vez más frecuentes y se adoptan cada vez más como servicios comerciales, caracterizar los sesgos sociales que presentan es un primer paso necesario para reducir el riesgo de resultados discriminatorios”.
Por su parte, la investigadora de la Universidad Abierta de Cataluña, Juliana Castañeda Jiménez, afirma que los estereotipos afectan a todo aquel que se encuentre discriminado, excluido o asociado a un rasgo como el color de piel.
En cuanto a las causas, los estudios detallan que entre las principales se encuentra la ausencia o menor presencia de las mujeres en el diseño, desarrollo de productos y servicios de IA; y el uso de conjuntos de datos con sesgos de género. Esto genera desequilibrios en la presentación de las imágenes.
“El problema está relacionado con los entornos culturales en los que son desarrollados. El algoritmo, al entrenarse con datos sesgados, puede determinar los patrones ocultos que existen socialmente y, a la hora de operar, los reproduce”, afirman los expertos.
Finalmente, sugieren que para abordar estos problemas es necesario que los desarrolladores de algoritmos utilicen datos diversos y representativos, y evalúen constantemente cualquier sesgo que se identifique.
“También se deben implementar medidas de transparencia y rendición de cuentas para garantizar que las decisiones tomadas por la IA sean justas e imparciales”, concluye la investigación.
Oficina de Gestión Comunicacional del Ministerio del Poder Popular para Ciencia y Tecnología / Periodista: Sheila Bravo.