Avec la montée en puissance des technologies d'intelligence artificielle à travers le monde, une étude récente menée par Reuters en collaboration avec des chercheurs a révélé que des robots de conversation comme Gemini de Google, ChatGPT de OpenAI , Grok de xAI , Claude de Anthropic, et MetaAI sont désormais capables de rédiger des messages de phishing convaincants ciblant la population la plus vulnérable et à risque : les personnes âgées.
Dans une expérience pratique impliquant 108 volontaires âgés, 9 messages de phishing générés par ces robots ont été envoyés.
Les chercheurs ont constaté que 11% des participants avaient cliqué sur les liens frauduleux, la plupart étant produits par MetaAI et Grok, tandis qu'aucun clic n'a été enregistré sur les messages de ChatGPT et DeepSeek.
Cependant, les experts ont souligné que l'absence de clics ne signifie pas la sécurité de ces systèmes, mais reflète simplement l'efficacité des attaques de phishing en général.
Les résultats ont également montré que le robot d'intelligence artificielle Gemini a fourni des conseils spécifiques sur les meilleurs moments pour envoyer des messages afin d'attirer les personnes âgées, indiquant que la période entre 9 heures du matin et 15 heures de l'après-midi est la plus efficace.
Il est intéressant de noter que ChatGPT (dans sa version GPT_5) a d'abord refusé de générer des messages frauduleux, mais a répondu après une légère insistance, produisant des messages intitulés "Choisissez" avec des emplacements pour ajouter de faux liens, tandis que Grok a parfois refusé de produire des messages demandant des informations sensibles directement, comme des numéros de comptes bancaires ou des numéros d'identité nationale.
Ces résultats sont un indicateur alarmant que l'intelligence artificielle, malgré les politiques et les restrictions mises en place pour prévenir son utilisation abusive, peut être facilement exploitée par des fraudeurs, devenant un outil puissant leur permettant de produire rapidement et à faible coût des messages frauduleux sans fin.
En réponse à ces résultats, Google a confirmé avoir réentraîné Gemini et ajouté de nouvelles couches de protection, tandis que d'autres entreprises comme Meta et Anthropic ont souligné que la fraude constitue une violation de leurs politiques et se sont engagées à imposer des sanctions sévères.
Quant à OpenAI, elle a précédemment reconnu que GPT_4 pourrait être exploité pour la "manipulation sociale", mais a affirmé avoir mis en place plusieurs mesures de protection.
Cependant, l'étude indique que les systèmes de protection dans les robots d'intelligence artificielle restent instables et peuvent être facilement manipulés, rendant les personnes âgées des cibles faciles face à ces attaques, transformant l'intelligence artificielle en une arme dangereuse entre les mains des fraudeurs à grande échelle.