Un nuevo estudio impulsado por la Unión Europea de Radiodifusión (UER) y encabezado por la BBC, con la participación de RTVE, concluye que el 45% de las respuestas de los asistentes de inteligencia artificial basadas en noticias contienen “un problema significativo”. Los resultados se dieron a conocer durante la Asamblea de la UER celebrada en Nápoles (Italia).
El informe indica que los asistentes de IA tienden a ofrecer representaciones inexactas del contenido periodístico, independientemente del idioma, la región o la plataforma analizada.
Cómo se realizó el estudio
En la investigación participaron periodistas de 222 radiotelevisiones públicas de 18 países de Europa, Estados Unidos y Canadá. Analizaron más de 3.000 respuestas generadas por ChatGPT, Copilot, Gemini y Perplexity.
Las evaluaciones se basaron en criterios como la precisión de la información, la calidad de las fuentes, la diferenciación entre hechos y opiniones y el contexto ofrecido.
Principales resultados de la inteligencia artificial
El estudio revela que el 31% de las respuestas presenta problemas en la atribución de fuentes: referencias incorrectas, ausencia de enlaces o vínculos que no coinciden con la noticia mencionada. Además, el 20% incluye errores de precisión graves, como datos inventados o desactualizados.
Entre los asistentes evaluados, Gemini obtuvo los peores resultados, con problemas significativos en el 76% de sus respuestas, principalmente por su deficiente manejo de fuentes. Le siguen Copilot (37%), ChatGPT (36%) y Perplexity (30%), según datos compartidos por RTVE.

Algunos avances, pero los fallos continúan
Aunque el estudio muestra ciertas mejoras respecto a los primeros resultados obtenidos por la BBC a comienzos de año, la UER señala que los niveles de error siguen siendo altos.
El Digital News Report 2025 del Instituto Reuters indica que el 7% de los usuarios de noticias online recurre a asistentes de IA para informarse, porcentaje que sube al 15% entre los menores de 25 años.
Riesgos para la confianza pública
“El estudio demuestra de forma concluyente que estos fallos no son incidentes aislados”, ha afirmado Jean Philip De Tender, director de Medios y subdirector general de la UER.
“Son sistémicos, transfronterizos y multilingües, y creemos que ponen en riesgo la confianza pública. Cuando la gente no sabe en qué confiar, termina por no confiar en nada, lo que puede desalentar la participación democrática”, ha añadido.
Por su parte, Peter Archer, director de Programas de IA Generativa de la BBC, ha señalado que “entusiasma el potencial de la IA y cómo puede ayudar a aportar más valor al público”. Sin embargo, ha recordado que “las personas deben poder confiar en lo que leen, ven y escuchan”.
“A pesar de algunas mejoras, todavía existen problemas importantes con estos asistentes. Queremos que estas herramientas tengan éxito y estamos abiertos a colaborar con las empresas de IA para ofrecer un mejor servicio a la sociedad”, ha subrayado.
Herramientas para mejorar la fiabilidad
El equipo de investigación ha presentado además un Kit de herramientas sobre integridad informativa en asistentes de IA. Este recurso ofrece medidas para corregir los errores detectados y promover una mayor alfabetización mediática entre los usuarios.
El informe amplía una investigación previa publicada por la BBC en febrero de 2025, que ya había advertido sobre las dificultades de la inteligencia artificial a la hora de manejar y transmitir información periodística con precisión.
Síguenos en Google Discover y no te pierdas las noticias, vídeos y artículos más interesantes
Síguenos en Google Discover* Este artículo ha sido elaborado con la asistencia de una inteligencia artificial y con supervisión humana.