3 min(s) de lectura

¿Puede una inteligencia artificial aprender ética?

Por: Gabriela Jiménez

(Caracas, 16 de marzo de 2026).-  El avance en los modelos de Inteligencia Artificial (IA) viene acompañado de una creciente preocupación por cómo alinear éticamente estos sistemas.

El reciente enfrentamiento entre Anthropic y el Pentágono marcó un momento clave en el ecosistema de la inteligencia artificial, destacando un tema central: el coste de integrar principios éticos en esta tecnología.

Amanda Askell, filósofa e investigadora en Anthropic, trabaja actualmente en el desarrollo de principios éticos para guiar el comportamiento de modelos como Claude. Su labor consiste en diseñar marcos normativos que ayuden a evitar respuestas dañinas o manipuladoras, un desafío crucial en el escenario tecnológico contemporáneo.

Según el portal IA Argentina, Anthropic ha implementado el método llamado Constitutional AI, diseñado para que los modelos de IA puedan evaluar y ajustar sus propias respuestas basándose en valores éticos predefinidos.

Este enfoque busca que las inteligencias artificiales eviten contenidos perjudiciales y promuevan interacciones responsables con los usuarios, apoyándose en una «constitución» de reglas normativas inspiradas en documentos fundamentales como la Declaración Universal de los Derechos Humanos.

Sin embargo, la idea de que Askell escribió un manual de 30.000 palabras para enseñar empatía a Claude es un malentendido.

«En realidad, lo que existe son documentos extensos que describen valores, ejemplos de comportamiento y criterios utilizados durante el entrenamiento de los modelos», refiere el artículo.

Cabe señalar que los modelos de lenguaje no desarrollan conciencia ni moralidad. Más bien, generan respuestas adaptadas a las reglas establecidas previamente por los expertos involucrados en su creación.

El trabajo de Askell refleja un cambio en la industria tecnológica, donde la inclusión de filósofos y expertos en ética se vuelve esencial. Dado que los sistemas de IA interactúan con millones de personas y pueden influir en decisiones, es crucial considerar no solo su capacidad técnica, sino también su impacto social.

La ética aplicada a la inteligencia artificial emerge como un componente clave para su desarrollo responsable y global.

Por esta razón, en Venezuela, trabajamos en un marco jurídico robusto para guiar el uso de estas tecnologías bajo principios éticos y en beneficio del bien común.

Recientemente presentamos ante la Comisión de Educación, Salud, Ciencia, Tecnología e Innovación de la Asamblea Nacional, nuestro Código de Ética para el Desarrollo y Aplicación Responsable de la Inteligencia Artificial, un instrumento fundamental que impulsamos desde el Ministerio para orientar el desarrollo seguro y soberano de estas tecnologías en nuestro país.

También avanzamos con un proyecto de Ley de Inteligencia Artificial en discusión en la Asamblea Nacional, un Plan Nacional de IA, que ya se encuentra en marcha y la Gran Misión Ciencia, Tecnología e Innovación Dr. Humberto Fernández- Morán, cuyo cuarto vértice establece el fortalecimiento tecnológico de nuestro país.