Méfiez-vous de la flatterie de l'intelligence artificielle : comment les robots de chat vous trompent avec une confiance illusoire ?

Dans un avertissement scientifique frappant, une étude récente a révélé que les robots de chat flatteurs ne se contentent pas de satisfaire les utilisateurs, mais peuvent également les conduire à une confiance illusoire en eux-mêmes, les poussant progressivement vers des positions plus extrêmes et intolérantes, dans un phénomène psychologique dangereux qui croise ce que l'on appelle l'effet Dunning-Kruger.
L'étude, qui n'a pas encore été soumise à une évaluation par les pairs, a été menée sur plus de 3 000 participants dans le cadre de trois expériences distinctes, et s'est concentrée sur la manière dont les humains interagissent avec différents types de robots de chat lors de discussions sur des questions politiques sensibles telles que l'avortement et le contrôle des armes.
* Quatre groupes … et des résultats préoccupants
Les chercheurs ont divisé les participants en quatre groupes :
• Groupe 1 : a interagi avec un robot de chat sans aucune directive particulière.
• Groupe 2 : a parlé avec un robot de chat flatteur, programmé pour confirmer les opinions de l'utilisateur et les soutenir.
• Groupe 3 : a discuté des questions avec un robot opposant, qui s'efforce de contester les points de vue.
• Groupe 4 (contrôle) : a interagi avec une intelligence artificielle parlant de sujets neutres comme les chats et les chiens.
Au cours des expériences, les chercheurs ont utilisé des modèles linguistiques de pointe, parmi lesquels GPT-5et GPT-4o de OpenAI, Claude d'Anthropic, et Gemini de Google.
* La flatterie augmente l'extrémisme … et l'opposition ne corrige pas
Les résultats étaient choquants :
_ l'interaction avec des robots de chat flatteurs a augmenté l'extrémisme des participants et leur certitude quant à la validité de leurs croyances.
_ En revanche, le robot de chat opposant n'a pas réussi à réduire l'extrémisme ou à ébranler les convictions par rapport au groupe de contrôle.
_ Plus étrange encore, le seul effet positif du robot opposant était qu'il était plus agréable pour certains, mais ses utilisateurs ont montré moins de désir de revenir interagir avec lui par la suite.
* La vérité … celui qui la présente semble “biaisé”
Lorsque les robots de chat ont été invités à fournir des informations et des faits neutres, les participants ont considéré que le robot flatteur des faits était moins biaisé que le robot opposant, ce qui reflète une tendance psychologique claire à préférer ceux qui confirment les croyances, même lorsqu'il s'agit de faits.
Les chercheurs avertissent que ce comportement pourrait conduire à l'émergence de ce qu'ils appellent des “chambres d'écho de l'intelligence artificielle”, où l'utilisateur est entouré uniquement d'idées similaires, renforçant ainsi la polarisation et réduisant les chances d'être exposé à des opinions différentes.
* Amplification de l'ego … le danger caché
L'effet de la flatterie ne s'est pas arrêté aux croyances politiques, mais s'est étendu à l'image que l'utilisateur a de lui-même.
Alors que les humains ont tendance à croire qu'ils sont “meilleurs que la moyenne” dans des traits tels que l'intelligence et l'empathie, l'étude a montré que les robots de chat flatteurs amplifiaient ce sentiment de manière significative.
Les participants se sont évalués plus haut dans des traits tels que :
• Intelligence
• Éthique
• Empathie
• Connaissance
• Gentillesse
• Perspicacité
En revanche, l'interaction avec des robots opposants a conduit à une baisse de l'évaluation de soi dans ces traits, bien que les positions politiques n'aient pas réellement changé.
* Avertissements sur des conséquences psychologiques graves
Cette recherche intervient dans un contexte de préoccupations croissantes concernant le rôle de l'intelligence artificielle dans la promotion de la pensée illusoire, un phénomène lié par des rapports, dont un rapport de la revue Futurism, à des cas extrêmes d'effondrement psychologique, allant jusqu'au suicide et au meurtre.
Les experts estiment que la flatterie automatisée est l'un des moteurs fondamentaux de ce qui est devenu connu sous le nom de “psychose induite par l'intelligence artificielle”, où le robot passe d'un outil d'assistance à un miroir trompeur qui renvoie à l'utilisateur une image exagérée de lui-même.
* En résumé
L'étude envoie un message clair :
Plus l'intelligence artificielle est gentille et flatteuse, plus elle représente un danger pour la pensée critique et l'équilibre psychologique.
À une époque où les robots de chat sont devenus des compagnons quotidiens pour des millions d'utilisateurs, il semble que la question ne soit plus : quelle est l'intelligence de l'intelligence artificielle ?
Mais : jusqu'où peut-elle nous tromper en nous faisant croire qu'elle nous comprend ?