Des chercheurs avertissent : « La contamination » d'Internet menace le comportement de modèles comme ChatGPT
October 11, 2025332 VuesTemps de lecture: 2 minutes

Taille de police:
16
Des chercheurs ont averti que les modèles de langage d'intelligence artificielle, tels que ChatGPT et Gemini, peuvent être manipulés en introduisant des textes trompeurs sur Internet — ce que l'on appelle « la contamination des données » — ce qui conduit à la production de contenu erroné ou ambigu.
Résumé des résultats
Des équipes du Centre d'intelligence artificielle britannique, de l'Institut Alan Turing et de la société Entropic ont mené une expérience de formation qui a montré que l'introduction d'environ 250 documents contaminés suffit à affecter négativement les résultats des modèles. Par la suite, les modèles ont produit des textes ambigus et peu fiables, montrant la facilité avec laquelle des acteurs malveillants peuvent influencer le comportement des systèmes.
Comment l'attaque se produit-elle ?
L'attaque repose sur la diffusion d'articles et de publications faux ou contaminés dans des espaces publics sur Internet (sites personnels, blogs, Wikipédia, etc.), ces matériaux devenant alors une partie de l'ensemble de données utilisées ultérieurement pour former ou mettre à jour les modèles. Selon les chercheurs, la création d'environ 250 articles contaminés pourrait suffire à modifier le comportement du modèle.
Pourquoi est-ce dangereux ?
La plupart des modèles sont formés sur des données publiques d'Internet, donc tout contenu falsifié devient une source potentielle d'apprentissage.
La contamination des données affaiblit la confiance dans l'intelligence artificielle pour des tâches sensibles (médicales, juridiques, sécuritaires).
L'attaque est relativement facile à exécuter et ses risques sont étendus car les victimes peuvent ne pas détecter la manipulation rapidement.
Recommandations des chercheurs et impacts prévus
Les chercheurs appellent à :
Renforcer les mécanismes de filtrage et de validation des sources de données avant leur utilisation dans la formation.
Développer des outils pour détecter le contenu contaminé et des mécanismes de traçabilité des sources de données.
Imposer des normes strictes de transparence dans les processus de mise à jour des modèles d'intelligence artificielle.
Les chercheurs soulignent que le non-respect de mesures efficaces pourrait limiter la confiance sécurisée dans l'intelligence artificielle dans des domaines vitaux.