Innovación y discriminación: los dilemas éticos de la IA

Por: Gabriela Jiménez Ramírez

(Caracas, 05 de agosto de 2025).- La inteligencia artificial (IA) puede ser considerada uno de los mayores avances del siglo XXI, con capacidad para transformar la medicina, la educación, el campo laboral, entre otros.

Sin embargo, la IA tiene conflictos éticos, entre los que destacan la discriminación sistemática hacia las mujeres. Estudios desarrollados por agencias y organismos internacionales advierten sobre cómo modelos de lenguajes y conjuntos de datos utilizados en la Inteligencia Artificial (IA), podrían perpetuar estereotipos de género o discriminación.

Uno de estos estudios fue presentado en junio de este año y se titula «Justicia Superficial, Sesgo profundo: Un estudio comparativo del Sesgo en los modelos de lenguaje». En esta investigación, difundida por el portal alemán DW, se evaluaron los cinco modelos de lenguaje más utilizados como lo son GPT4, Claude 3.5 Haiku, Gemini 1.5 Pro, Mistral IA y Llama 3.

A estos modelos de IA, se les consultó cuánto debería ganar una persona en un cargo determinado. Se suministraron los perfiles laborales de estas personas, solo cambiando el género del candidato.

Tras las consultas realizadas, se observó que, por ejemplo, GPT, recomendó un salario de 280.000 dólares para una mujer, mientras que para un hombre se propuso 400.000, aunque optaban por el mismo cargo y tenían el mismo perfil académico.

En el análisis de este estudio, reseñado por el portal alemán, se detalla que las áreas en donde más se nota esta desigualdad son en los sectores jurídicos, médicos, empresariales e ingenierías.

En un mundo donde la IA es consultada para asesoramientos profesionales y financieros, estos algoritmos que no cuentan con una perspectiva inclusiva donde se le de el verdadero valor a las mujeres en el campo laboral, pueden presentar serios problemas a futuro.

Otro estudio clave es el desarrollado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), presentado en marzo del año pasado, donde se confirmó que los modelos de lenguaje, incluyendo aquellos utilizados por ChatGPT, reproducen y potencian prejuicios de género, raciales y de homofobia.

En el proyecto «Sesgo contra mujeres y niñas en los modelos de lenguaje a gran escala», se muestra una tendencia a asociar a las mujeres con roles domésticos y a los hombres con una variedad más amplia de profesiones.

«Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real», expresa el informe, publicado en el portal web de la Unesco.

El estudio subraya la necesidad de abordar estos sesgos para evitar que la IA propicie y amplifique las desigualdades existentes, considerando que, actualmente, solo el 20% de los puestos técnicos en las principales empresas de IA, están ocupados por mujeres.

Es evidente que los creadores de estos algoritmos de IA, son responsables de reproducir los sesgos, las brechas y desigualdades. Lo que sucede con la IA, no es una acción espontánea o casual, responden a acciones humanas que manejan diversos propósitos e intereses. No es generación espontánea son acciones humanas.

Desde la República Bolivariana de Venezuela, en representación del Gobierno Nacional, participamos en la reciente Conferencia Mundial de IA 2025 y la Reunión de Alto Nivel sobre la Gobernanza Global, celebrada en Shanghái, China, donde abordamos los desafíos y oportunidades que tiene la mujer en este campo, ratificando la posición del Estado venezolano de promover una IA con ética y principios.

También fuimos invitados al Foro de Mujeres Élite de IA 2025, donde advertimos sobre la importancia de crear proyectos liderados por mujeres, y alzamos la voz por el desarrollo de IA con algoritmos sin sesgos, sin discriminación racial o de género. #CienciaparalaVida

Dirección: Av. Universidad, esquina El Chorro, Torre Ministerial. La Hoyada, Parroquia Catedral. Código Postal 1012 / Caracas - Venezuela.

MINCYT | Ministerio del Poder Popular para Ciencia y Tecnología | RIF: 20013038-5