Dans une démarche qui a suscité beaucoup d'inquiétude, un chercheur polonais a réussi à utiliser la technologie ChatGPT_4o d'OpenAI pour falsifier un passeport, qui a été accepté par des plateformes utilisant des systèmes de vérification traditionnels.
Cet événement révèle une faille de sécurité grave qui pourrait entraîner de grands risques pour la sécurité numérique dans les institutions financières et de services.
De nombreuses plateformes, notamment dans le domaine financier, utilisent des systèmes de vérification basés sur la comparaison de la photo d'identité scannée avec la photo personnelle.
Si les photos sont identiques, l'accès est rapidement autorisé, mais sans analyse approfondie.
Les experts ont été surpris de constater que ces systèmes ne sont pas capables de détecter la contrefaçon à l'aide d'outils d'intelligence artificielle, qui peuvent désormais créer des identités falsifiées avec une précision étonnante.
Dans un post sur la plateforme "X", le chercheur Boris Mosielak a publié son expérience, affirmant avoir utilisé ChatGPT_4o pour créer une copie contrefaite de son passeport en seulement cinq minutes, et les systèmes de vérification l'ont acceptée sans difficulté.
Il a considéré que cette astuce ne représentait pas seulement une contrefaçon inexacte, mais une menace réelle pour le système financier et mondial, où cette technologie pourrait être utilisée pour créer de fausses identités à grande échelle.
De son côté, Mosielak a mis en garde contre le risque de fraude identitaire à grande échelle, affirmant que la seule solution était d'adopter des mécanismes de vérification numériques avancés tels que les portefeuilles numériques agréés par l'Union européenne.
Quelques heures après la publication de l'expérience, OpenAI a réagi en suspendant l'acceptation des demandes de falsification, confirmant que ces préoccupations étaient très sérieuses et qu'elles suivaient les politiques de sécurité nécessaires.
Cet incident ouvre la voie à un large débat sur la nécessité de renforcer les systèmes de vérification d'identité, bien que de nombreuses institutions aient adopté des systèmes externes pour remplir les missions de "connaître votre client" (KYC), ces systèmes n'ont pas été conçus pour détecter la fraude créée par l'intelligence artificielle.
Cela signifie que les risques pourraient augmenter considérablement si le besoin de mettre à jour et de développer les procédures de sécurité dans les institutions financières continue d'être ignoré.
En outre, les experts estiment que la plus grande préoccupation réside non seulement dans la capacité de l'intelligence artificielle à s'infiltrer dans les systèmes, mais aussi dans la capacité de ces technologies à apporter des changements majeurs dans les domaines de la fraude financière et des crimes numériques, qui pourraient entraîner des pertes graves, notamment en raison de la rapidité et de l'efficacité avec lesquelles des identités falsifiées peuvent être créées.