Estudio revela que la IA tergiversa las noticias en el 45% de las respuestas que ofrece a sus usuarios

Por: Gabriela Jiménez Ramírez

El auge de la inteligencia artificial viene acompañado de dilemas éticos que surgen de la capacidad que tienen estos sistemas para reproducir prejuicios, tergiversar información y cometer errores que deben ser tomados en cuenta por los usuarios.

Recientemente, la Unión Europea de Radiodifusión (UER) realizó un estudio para evaluar las respuestas de cuatro asistentes de IA: ChatGPT, Gemini, Copilot y Perplexity, sobre la difusión de noticias. La investigación responde al creciente uso de estas plataformas como sustituto de los canales informativos oficiales.

Según la UER, los cuatro sistemas ofrecieron un 45% de respuestas tergiversadas, y al sumar otras carencias, la tasa de inexactitudes asciende a 81%. Las fallas incluyen referencias falsas, descontextualización, imprecisión en las citas, mal empleo de las fuentes, entre otros problemas, detectadas por 22 organizaciones de medios públicos que analizaron más de 3.000 respuestas en 14 idiomas.

Al respecto, Jean Philip De Tender, director de medios de la UER, advirtió: “Estos fallos no son incidentes aislados; son sistémicos, transfronterizos y multilingües, y creemos que ponen en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede frenar la participación democrática”.

Los participantes del estudio revelan que el 31% de las respuestas mostraron serios problemas de atribución, con referencias engañosas o inexistentes. Gemini, desarrollado por Google, obtuvo el peor desempeño, con 75% de errores; los demás asistentes registraron entre 30% y 37% de errores similares. ChatGPT ofreció respuestas extensas pero con errores fácticos y mala atribución de fuentes. Perplexity fue más preciso, aunque inventó o alteró citas; y Copilot falló por falta de contexto, presentar opiniones como hechos y usar información desactualizada.

Uno de los mayores riesgos es la falsa sensación de fiabilidad que generan estos sistemas, pese a no tener rigor periodístico. “Si los asistentes de IA aún no son una forma fiable de acceder a las noticias, pero muchos usuarios confían en ellos, tenemos un problema”, explican Jean Philip De Tender y Pete Archer, respectivamente responsable de la investigación y de proyectos de inteligencia artificial generativa de la BBC.

Los investigadores exhortan a los desarrolladores a asumir responsabilidad y a crear sistemas que permitan tener mayor control sobre cómo la IA sintetiza sus noticias, cuando están autorizadas a ser difundidas por estas alternativas digitales.

Estas evidencias son una clara muestra de la necesidad de usar la IA con responsabilidad y ética.

En Venezuela avanzamos en estas tareas, creando con expertos y expertas soluciones tecnológicas, y consolidando leyes desde nuestra Asamblea Nacional que garanticen un uso correcto, preciso y ético de estos sistemas.

Mincyt/Prensa/

Dirección: Av. Universidad, esquina El Chorro, Torre Ministerial. La Hoyada, Parroquia Catedral. Código Postal 1012 / Caracas - Venezuela.

MINCYT | Ministerio del Poder Popular para Ciencia y Tecnología | RIF: 20013038-5