Méfiez-vous de l'intelligence artificielle dans les nouvelles : 45 % des réponses contiennent des erreurs

Une nouvelle recherche internationale, menée par la BBC en collaboration avec l'Union européenne de radiodiffusion (EBU), a révélé des résultats choquants soulignant le danger de s'appuyer sur des assistants d'intelligence artificielle pour obtenir des nouvelles.
Il a été constaté qu'environ la moitié des réponses fournies par les principales applications d'intelligence artificielle contiennent une déformation significative des informations !
* Que révèle la recherche ?
Une analyse de 3000 réponses d'assistants d'intelligence artificielle à des questions liées aux nouvelles a été réalisée.
L'étude a évalué les réponses dans 14 langues différentes, en termes de :
_ précision
_ qualité des sources
_ distinction entre opinion et vérité
L'étude a inclus les applications suivantes :
ChatGPT, Copilot, Gemini, Perplexity.
* Résultats préoccupants en chiffres :
• 45% des réponses contiennent au moins une erreur grave.
• 81% des réponses étaient entachées d'un type de problème (précision, source ou déformation).
• Un tiers des réponses contenait de grandes erreurs dans les sources (comme l'absence de citation ou une citation trompeuse).
• L'assistant "Gemini" de Google était le pire en termes de fiabilité des sources, avec des problèmes trouvés dans 72% de ses réponses.
• En comparaison, les autres assistants ont enregistré un taux de problèmes de sources inférieur à 25%.
• 20% des réponses contenaient des informations obsolètes ou inexactes.
* Exemples d'erreurs :
_ "ChatGPT" a déclaré que le pape François est toujours le pape actuel, malgré sa mort il y a quelques mois !
_ "Gemini" a fourni des informations incorrectes concernant la modification des lois sur les cigarettes électroniques à usage unique.
* Les entreprises réagissent ..
Dans un entretien réalisé par l'agence "Reuters" avec les entreprises développant ces applications :
OpenAI et Microsoft ont confirmé qu'elles travaillent à résoudre le problème de "l'hallucination" informationnelle, un phénomène courant où les modèles d'intelligence artificielle produisent des informations trompeuses en raison d'un manque de données ou de problèmes de traitement.
La société Perplexity a déclaré sur son site officiel qu'un de ses modèles de recherche approfondie atteint une précision de 93,9% en termes de réalisme.
* L'intelligence artificielle menace la confiance du public dans les médias !
22 institutions médiatiques publiques de 18 pays, dont la France, l'Allemagne, le Royaume-Uni, l'Espagne, l'Ukraine et les États-Unis, ont participé à la rédaction de ce rapport.
L'Union européenne de radiodiffusion a averti que la dépendance croissante aux applications d'intelligence artificielle comme principale source d'informations menace la confiance du public dans les médias.
Jean Philippe de Tender, directeur des médias à l'union, a déclaré :
"Lorsque les gens ne savent pas à quoi se fier, ils finissent par ne faire confiance à rien. Cela constitue une menace directe pour la participation démocratique".
* Les jeunes s'appuient davantage sur l'intelligence artificielle pour les nouvelles
Selon le rapport sur les nouvelles numériques de 2025 publié par l'Institut Reuters :
• 7% des utilisateurs d'Internet s'appuient sur des assistants d'intelligence artificielle pour obtenir des nouvelles.
• Ce pourcentage grimpe à 15% chez les utilisateurs de moins de 25 ans.
* Appel à la responsabilité et à la régulation
Le rapport a exhorté les entreprises d'intelligence artificielle à :
• améliorer le mécanisme de traitement des demandes d'information
• vérifier les informations avec précision
• assumer la responsabilité en cas de diffusion d'informations trompeuses
À une époque où la dépendance à l'intelligence artificielle comme source d'information augmente, la vérification et la responsabilité deviennent inévitables, pour protéger la démocratie et la confiance publique.
Faut-il utiliser l'intelligence artificielle comme source d'information fiable ?