Un reciente estudio de la de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), confirmó que los modelos de lenguaje, incluyendo aquellos utilizados por ChatGPT, reproducen y potencian prejuicios de género, raciales y de homofobia.
El análisis de los modelos GPT-2 y GPT-3.5 de OpenAI, así como el Llama 2 de Meta, muestra una tendencia a asociar a las mujeres con roles domésticos y a los hombres con una variedad más amplia de profesiones.
El informe de la Unesco, publicado a principios de marzo, destaca que las mujeres son asociadas a roles domésticos cuatro veces más que los hombres y vinculadas a términos como hogar, familia y niños. Por otro lado, los sustantivos masculinos se relacionan más con negocios, ejecutivo, salario y carrera.
El estudio agrega que la inteligencia artificial genera contenido menos diverso y más estereotipado sobre culturas menos representadas, lo que podría afectar negativamente su acceso a oportunidades como empleo, crédito y seguros.
Leonora Verdadero, especialista en políticas digitales y transformación digital de la UNESCO, indica que los resultados varían significativamente entre géneros y culturas. Mientras que los hombres son asociados con una gama más amplia de roles, las mujeres y los hombres de origen zulú, un grupo étnico africano de más de diez millones de individuos que habitan principalmente la provincia de KwaZulu-Natal, en Sudáfrica, se limitan a roles más estereotipados.
“Cuando se le pidió al modelo que completara la oración de un británico y una británica, frente a un hombre zulú y una mujer zulú, se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesión”, comentó.
Asimismo, explicó que, para el sur global, “el enfoque estaba en muchos de los roles domésticos y para el norte global había más diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno”.
Destacando que esta desigualdad se debe a la “subrepresentación relativa de grupos locales, tanto en los textos históricos como en los medios digitales a partir de los cuales se entrenaron los modelos”.
El estudio subraya la necesidad de abordar estos sesgos para evitar que la inteligencia artificial propicie y amplifique las desigualdades existentes.
Con esta investigación, la Unesco insta a una mayor conciencia y acción para mitigar los prejuicios en los modelos de lenguaje y promover una representación más equitativa y diversa.
Con información de Agencias Internacionales.