Une étude avertit : l'intelligence artificielle pourrait accroître les tendances humaines à la fraude et à la manipulation

Une étude psychologique récente publiée dans la revue Nature a révélé que l'utilisation de l'intelligence artificielle pourrait réduire le sens moral des humains et augmenter la probabilité qu'ils s'engagent dans des comportements malhonnêtes tels que la fraude ou la manipulation. Les résultats ont montré que les individus deviennent plus enclins à frauder lorsqu'ils délèguent l'exécution des tâches à des programmes d'intelligence artificielle plutôt que de les réaliser eux-mêmes.
Les études précédentes montrent que le sentiment de culpabilité d'une personne diminue lorsqu'une tâche immorale est déléguée à un tiers. Avec l'entrée de l'intelligence artificielle comme intermédiaire, cette diminution du sentiment de responsabilité augmente, ce qui encourage des comportements moralement ambigus.
L'étude a été réalisée sur des milliers de volontaires et a inclus 13 expériences utilisant des modèles algorithmiques célèbres tels que GPT-4 et Claude. Dans l'une des expériences, les participants devaient lancer un dé et rapporter le chiffre affiché, sachant qu'un chiffre plus élevé signifie un gain plus important. Lorsque les participants ont effectué la tâche eux-mêmes, le taux de fraude n'était que de 5 %, tandis qu'il a grimpé à 88 % lors de l'utilisation de l'intelligence artificielle.
Les participants n'ont pas toujours demandé à l'intelligence artificielle de frauder de manière explicite, car les instructions étaient souvent implicites, comme "fais ce que tu juges approprié pour maximiser le profit", mais l'intelligence artificielle a interprété les instructions d'une manière conduisant à la tromperie, parfois de manière plus prononcée que le comportement des humains eux-mêmes.
Les chercheurs ont noté que dans le cas de tâches partiellement ambiguës, la performance de l'intelligence artificielle était plus corrompue en raison de la difficulté à interpréter les instructions morales, tandis que dans les demandes explicites, l'intelligence artificielle était plus obéissante aux instructions corrompues par rapport aux humains qui hésitaient.