Cuidado con la inteligencia artificial en las noticias: el 45% de las respuestas contienen errores

Una nueva investigación internacional, realizada por la BBC en colaboración con la Unión Europea de Radiodifusión (EBU), ha revelado resultados impactantes que destacan el peligro de confiar en asistentes de inteligencia artificial para obtener noticias.
Se ha encontrado que casi la mitad de las respuestas proporcionadas por las principales aplicaciones de inteligencia artificial contienen distorsiones significativas de la información!
* ¿Qué reveló la investigación?
Se analizaron 3000 respuestas de asistentes de inteligencia artificial a preguntas relacionadas con las noticias.
El estudio incluyó la evaluación de las respuestas en 14 idiomas diferentes, en términos de:
_ precisión
_ calidad de las fuentes
_ distinción entre opinión y hecho
El estudio incluyó las siguientes aplicaciones:
ChatGPT, Copilot, Gemini, Perplexity.
* Resultados preocupantes en cifras :
• 45% de las respuestas contienen al menos un error grave.
• 81% de las respuestas presentaron algún tipo de problema (precisión, fuente o distorsión).
• Un tercio de las respuestas contenían errores significativos en las fuentes (como la falta de atribución o atribuciones engañosas).
• El asistente "Gemini" de Google fue el peor en cuanto a la fiabilidad de las fuentes, encontrándose problemas en el 72% de sus respuestas.
• En comparación, los demás asistentes registraron una tasa de problemas en las fuentes inferior al 25%.
• 20% de las respuestas incluyeron información desactualizada o inexacta.
* Ejemplos de errores:
_ "ChatGPT" mencionó que el Papa Francisco sigue siendo el actual Papa, a pesar de haber fallecido hace meses!
_ "Gemini" proporcionó información incorrecta sobre la modificación de leyes relacionadas con los cigarrillos electrónicos de un solo uso.
* Las empresas responden...
En una llamada realizada por la agencia "Reuters" a las empresas desarrolladoras de estas aplicaciones:
Tanto OpenAI como Microsoft confirmaron que están trabajando para resolver el problema de la "alucinación" informativa, un fenómeno común en el que los modelos de inteligencia artificial generan información engañosa debido a la falta de datos o problemas en el procesamiento.
La empresa Perplexity mencionó en su sitio oficial que uno de sus modelos de búsqueda profunda logra una precisión de hasta 93.9% en términos de realismo.
* ¡La inteligencia artificial amenaza la confianza del público en los medios!
22 instituciones de medios públicos de 18 países, incluidos Francia, Alemania, Reino Unido, España, Ucrania y Estados Unidos, participaron en la elaboración de este informe.
La Unión Europea de Radiodifusión advirtió que la creciente dependencia de las aplicaciones de inteligencia artificial como fuente principal de noticias amenaza la confianza del público en los medios de comunicación.
Jean Philippe de Tender, director de medios de la unión, declaró:
"Cuando las personas no saben en qué pueden confiar, terminan sin confiar en nada. Esto representa una amenaza directa para la participación democrática".
* Los jóvenes dependen más de la inteligencia artificial para las noticias
Según el informe de noticias digitales de 2025 publicado por el Instituto Reuters:
• 7% de los usuarios de Internet dependen de asistentes de inteligencia artificial para obtener noticias.
• La cifra aumenta al 15% entre los usuarios menores de 25 años.
* Llamado a la responsabilidad y supervisión
El informe instó a las empresas de inteligencia artificial a:
• mejorar el mecanismo para manejar las consultas noticiosas
• verificar la información con precisión
• asumir la responsabilidad en caso de publicar información engañosa
En una era de creciente dependencia de la inteligencia artificial como fuente de información, la verificación y la rendición de cuentas se vuelven inevitables, en protección de la democracia y la confianza pública.
¿Debería la inteligencia artificial ser utilizada como una fuente de noticias confiable?