2 min(s) de lectura

El cerebro distingue voces humanas de IA aunque nuestra mente no lo note

Por: Gabriela Jiménez Ramírez

(Caracas, 30 de marzo de 2026).- Un estudio realizado por investigadores de la Universidad de Tianjin y la Universidad China de Hong Kong revela la disociación entre lo que nuestro cerebro percibe y lo que nuestra mente consciente reconoce en materia de Inteligencia artificial.

Esto, en medio de los avances en esta área tecnológica, donde la inteligencia artificial perfecciona su capacidad para imitar la voz humana.

El trabajo, publicado por la revista eNeuro y citado por la Agencia Sinc, investigó a 30 voluntarios que escucharon frases pronunciadas tanto por humanos como por sistemas de texto a voz.

Los participantes debían «juzgar el origen de la voz antes y después de recibir un entrenamiento de apenas 12 minutos».

Los resultados iniciales mostraron que los humanos somos “poco hábiles” a la hora de distinguir entre voces humanas y generadas por IA, y que el breve entrenamiento apenas mejoró la capacidad de decisión consciente.

No obstante, cuando los investigadores trataron de comparar el análisis de la actividad cerebral, realizada por electroencefalografía, el escenario fue muy distinto. En el contexto de la actividad neuronal, el entrenamiento generó que «las respuestas ante el habla humana y la de IA fueran mucho más diferenciadas en etapas tempranas y tardías del procesamiento auditivo», específicamente a los 55, 210 y 455 milisegundos.

Este hallazgo sugiere que nuestro sistema auditivo empieza a captar matices casi imperceptibles, incluso cuando nuestra mente consciente aún no logra traducirlos en una decisión fiable.

Como explica Xiangbin Teng, investigador principal del estudio, esto ocurre «aunque las personas aún no sean capaces de convertir esa información en una decisión conductual fiable».

En otras palabras, el cerebro comienza a «etiquetar» el habla de IA de manera distinta, detectando microdiferencias en ritmo y tono que todavía no son priorizadas por la conciencia.

La investigación plantea interrogantes importantes en un mundo donde la inteligencia artificial mejora constantemente en emular aspectos emocionales y melódicos del habla humana. Este progreso puede confundir fácilmente nuestro juicio consciente, haciéndonos más vulnerables a tecnologías como los deepfakes y la clonación de voces.

Los riesgos asociados no son menores, especialmente en términos de privacidad y seguridad. Estas herramientas avanzadas, si son empleadas por personas malintencionadas, podrían ser utilizadas para crear deepfakes con fines fraudulentos, engañosos o incluso difamatorios.

Por eso, desde Venezuela, consideramos importante desarrollar un marco legal y medidas efectivas para proteger a los usuarios frente a estas amenazas emergentes.

Mincyt / Prensa /