Los programas de IA que produjeron declaraciones falsas con mayor frecuencia en sus respuestas a la actualidad fueron PI, de Inflection, y Perplexity.
La alarma la dio NewsGuard, la plataforma internacional que monitorea la desinformación en línea, que ya ha abordado la propagación de deepfakes y noticias manipuladas sobre guerras, elecciones y eventos importantes como los Juegos Olímpicos de París.
«En agosto de 2025, los 10 principales chatbots impulsados ;;por IA repitieron información falsa sobre temas noticiosos controvertidos identificados en nuestra base de datos a casi el doble de velocidad que hace un año», declaró NewsGuard.
En promedio, difunden información falsa el 35 % de las veces cuando se les pregunta sobre temas controvertidos, casi el doble del 18 % de agosto pasado.
Para realizar el análisis, la plataforma desanonimizó los resultados observados por primera vez y los asoció con modelos de inteligencia artificial, afirmando que los datos específicos son lo suficientemente robustos como para extraer conclusiones sobre el progreso logrado y las deficiencias persistentes en los chatbots, y que este aumento puede describirse como estructural.
Según el informe, los chatbots que con mayor frecuencia produjeron afirmaciones falsas en sus respuestas sobre temas de actualidad son Pi de Inflection (56,67 %), una de las primeras empresas en crear un chatbot empático que habla con las personas; le siguió Perplexity (46,67 %), que recientemente saltó a la fama por su oferta para comprar el navegador Chrome de Google y destronarlo como el motor de búsqueda líder.
La IA de ChatGPT y Meta se ubicó en el siguiente puesto del análisis (difundiendo falsedades el 40 % del tiempo), mientras que Copilot de Microsoft y Le Chat de Mistral lo hicieron el 36,67 %.
Los chatbots con las tasas de fallo más bajas fueron Claude de Anthropic (10 %) y Gemini de Google (16,67 %).
NewsGuard identificó un par de factores que llevaron a que la tasa de información falsa difundida por los chatbots se duplicara en un año.
El primero es un cambio en la forma en que se entrenan; el otro es su uso cada vez más común en lugar de los motores de búsqueda para obtener o incluso verificar información.
«En lugar de alegar limitaciones de datos o negarse a abordar temas sensibles los grandes modelos de lenguaje ahora se basan en búsquedas web en tiempo real, a veces difundidas deliberadamente por vastas redes de actores maliciosos, incluidas las operaciones de desinformación rusas», enfatiza el analista McKenzie Sadeghi.
Agentes maliciosos están aprovechando este nuevo interés por responder a las preguntas de los usuarios para blanquear información falsa a través de sitios web, publicaciones en redes sociales y granjas de contenido generadas por IA que los modelos no pueden distinguir de fuentes fiables.
En resumen —concluye el analista de NewsGuard—, el afán por hacer que los chatbots sean más receptivos y oportunos ha aumentado, sin querer, la probabilidad de que difundan propaganda.
ANSA / CubaSí