Por Gabriela Jiménez Ramírez
El debate del uso de los datos y el acceso de estos por parte de la inteligencia artificial, sigue más vigente que nunca.
El reciente experimento del senador demócrata de Estados Unidos, Bernie Sanders, quién ejecutó una conversación pública con el asistente virtual de Claude, la IA de Anthropic, la compañía que rechazó las presiones del Pentágono, para quitarle los límites éticos, va más allá de una pieza de divulgación tecnológica.
Los temas abordados en ese intercambio no son una sorpresa para quienes siguen de cerca la economía digital, pero sí un recordatorio de que el modelo de negocio que sostiene gran parte de la inteligencia artificial moderna descansa sobre una extracción masiva, silenciosa y, en muchos casos, apenas comprendida de datos personales.
El video, divulgado en sus redes sociales y replicado por diferentes medios, revela algo que, tampoco es secreto, la falta de privacidad de los datos.
La IA fue muy clara cuando fue consultada de donde adquiere su información. «¿Cuánta de la información que recopila la IA se está utilizando?», preguntó el senador, a lo que le respondió la IA «Las empresas están recopilando datos de todas partes: tu historial de navegación, tu ubicación, lo que compras, lo que buscas, incluso cuanto tiempo pasas en una página web».
Que una IA reconozca que esta magnitud «sorprendería a la mayoría de los estadounidenses», debería verse como una evidencia de un sistema deliberadamente diseñado para operar fuera del escrutinio público.
«Tu atención, tu comportamiento, tus decisiones, todo se ha convertido en una mercancía que se puede comprar y vender», fue el mensaje claro de la IA cuando fue consultado por el motivo para acceder a la información.
La normalización de términos de uso interminables y crípticos ha convertido el consentimiento en una ficción legal más que en una decisión informada.
Otro punto central de la entrevista, es el tema económico. Cuando Claude responde con la palabra «dinero», cuando se le pregunta sobre el objetivo de esta recolección, pone en evidencia la lógica estructural del capitalismo de datos.
Va más allá de mejorar servicios o personalizar experiencias, se trata de convertir cada aspecto del comportamiento humano en un activo comercializable. En este esquema, los usuarios no son clientes, sino materia prima.
Esta dinámica se vuelve aún más problemática cuando se consideran sus implicaciones políticas y es un tema que aborda la IA de manera inmediata y palabras como «democracia» y «privacidad» y cómo la privacidad y el derecho individual se han convertido en los pilares democráticos.
«La IA es un peligro para las democracias, permite microsegmentar los mensajes y mostrar diferentes narrativas a diferentes grupos», señaló el chatbot.
Esta afirmación obliga a replantear el debate. Desarrollar estas herramientas tecnológicas debe proteger la intimidad de los usuarios y limitar la concentración de la información a la que pueden acceder las corporaciones y gobiernos sin fines éticos, transgrediendo los derechos de los ciudadanos y el bienestar común y colectivo como prioridad. En ausencia de controles claros, ese poder puede traducirse en una capacidad sin precedentes para moldear comportamientos colectivos.
Desde Venezuela, desarrollamos un Código de Ética para el Desarrollo y Aplicación Responsable de la Inteligencia Artificial que establece nueve principios fundamentales que guían el uso ético de la tecnología.
Uno de los enfoques clave es el humanismo, que asegura que la inteligencia artificial sirva al bien común, así como se enfatiza la equidad y la no discriminación, prohibiendo sesgos en los algoritmos que puedan afectar a grupos vulnerables. La seguridad, la privacidad, la transparencia y la rendición de cuentas son también prioridades, con la implementación de protocolos estrictos para la protección de datos personales y la exigencia de consentimiento informado.