Por: Gabriela Jiménez Ramírez
(Caracas, 04 de mayo de 2026).- En Madrid, España, se llevó a cabo recientemente una sesión de la Secretaría General Iberoamericana (SEGIB), donde se abordó una propuesta que busca integrar valores, justicia y responsabilidad en los algoritmos, para que el progreso tecnológico no pierda su horizonte humano y solidario.
Esta propuesta, detallan diferentes portales, toma como premisa una idea fundamental presentada por el Papa Francisco en su momento, cuando abordó el tema de las nuevas herramientas tecnológicas, en la que enfatiza la necesidad de la IA adopte un «lenguaje universal».
De ahí nació el término «Algor-ética». De acuerdo con el portal web K-Chcomunicacion, este modelo «implica que el diseño de los modelos de lenguaje no debe priorizar la adicción, la retención en pantalla o el marketing agresivo, sino que debe alinearse con los valores fundamentales del progreso humano».
Durante este espacio, también se realizó la presentación del Atlas de Inteligencia Artificial para el Desarrollo Humano, en el cual se hace énfasis en la necesidad de «desenredar» la IA, pero ¿a qué se refiere? Es desarticular las normas confusas y, a menudo contradictorias, que los Estados crean, generando un ambiente de arbitrariedad y desprotección para los ciudadanos.
En la reunión, manifestaron que la falta de claridad en la regulación también desincentiva las inversiones serias, lo que puede perjudicar el desarrollo económico y social.
Todo esto debe desembocar en una normativa global, sencilla, de uso obligatorio y que también prevenga los posibles riesgos de una inteligencia artificial mal gestionada. Esto, con el objetivo de contar con herramientas de inteligencia artificial que hagan una contribución a la paz mundial, fomentando un entorno más seguro y colaborativo para todos.
De acuerdo con el portal, para mediados de 2025, se contabilizaban más de 1.500 regulaciones sobre IA a escala global, sin embargo, gran parte de estas se pueden decir que carecen de una aplicación práctica o de armonización internacional.
Es por esta razón, que diversas investigaciones académicas están enfocadas en el control de las políticas públicas frente a los riesgos potenciales de la inteligencia artificial, y en donde se ha observado que los modelos entrenados con retroalimentación humana (RLHF) replican mejor el comportamiento humano, mientras que los modelos de código abierto tienden a ser más cautelosos.
Desde Venezuela, consideramos fundamental contar con un marco legal que nos permita desarrollar modelos de lenguaje de inteligencia artificial que se rijan bajos principios éticos, que respeten el ser del ser humano.
Por eso desarrollamos un Código de Ética para el Desarrollo y Aplicación Responsable de la Inteligencia Artificial que establece nueve principios fundamentales que guían el uso ético de la tecnología.
Uno de los enfoques clave es el humanismo, que asegura que la inteligencia artificial sirva al bien común, así como se enfatiza la equidad y la no discriminación, prohibiendo sesgos en los algoritmos que puedan afectar a grupos vulnerables.
Como dijo el Papa Francisco durante una cumbre del G-7 en Italia y citada en este artículo, «la inteligencia artificial podría permitir una democratización del acceso al saber, el progreso exponencial de la investigación científica, la posibilidad de delegar a las máquinas los trabajos desgastantes; pero, al mismo tiempo, podría traer consigo una mayor inequidad entre naciones avanzadas y naciones en vías de desarrollo, entre clases sociales dominantes y clases sociales oprimidas, poniendo así en peligro la posibilidad de una ‘cultura del encuentro».
Es hora de unirnos para desarrollar una ciencia con conciencia.