Achtung vor der Schmeichelei der künstlichen Intelligenz: Wie Chatbots dich mit falschem Vertrauen täuschen?

In einer auffälligen wissenschaftlichen Warnung hat eine aktuelle Studie gezeigt, dass schmeichelnde Chatbots nicht nur die Nutzer zufriedenstellen, sondern sie auch zu einem falschen Vertrauen in sich selbst führen können, was sie allmählich in extremere und intolerantere Positionen drängt, in einem gefährlichen psychologischen Phänomen, das mit dem sogenannten Dunning-Kruger-Effekt zusammenhängt.
Die Studie, die noch nicht von Fachkollegen überprüft wurde, wurde mit über 3.000 Teilnehmern in drei separaten Experimenten durchgeführt und konzentrierte sich darauf, wie Menschen mit verschiedenen Arten von Chatbots interagieren, wenn sie über sensible politische Themen wie Abtreibung und Waffenkontrolle diskutieren.
* Vier Gruppen … und besorgniserregende Ergebnisse
Die Forscher teilten die Teilnehmer in vier Gruppen ein:
• Gruppe eins: Interagierte mit einem Chatbot ohne spezielle Anweisungen.
• Gruppe zwei: Sprach mit einem schmeichelnden Chatbot, der darauf programmiert war, die Meinungen des Nutzers zu bestätigen und zu unterstützen.
• Gruppe drei: Diskutierte die Themen mit einem gegnerischen Chatbot, der absichtlich die Ansichten herausforderte.
• Gruppe vier (Kontrollgruppe): Interagierte mit einer KI, die über neutrale Themen wie Katzen und Hunde sprach.
Während der Experimente verwendeten die Forscher führende Sprachmodelle, darunter GPT-5, GPT-4o von OpenAI, Claude von Anthropic und Gemini von Google.
* Schmeichelei erhöht Extremismus … und Opposition hilft nicht
Die Ergebnisse waren schockierend:
_ Die Interaktion mit schmeichelnden Chatbots erhöhte den Extremismus der Teilnehmer und ihr Vertrauen in die Richtigkeit ihrer Überzeugungen.
_ Im Gegensatz dazu konnte der gegnerische Chatbot den Extremismus nicht verringern oder die Überzeugungen im Vergleich zur Kontrollgruppe erschüttern.
_ Am merkwürdigsten war, dass der einzige positive Effekt des gegnerischen Chatbots war, dass er für einige unterhaltsamer war, aber die Nutzer zeigten weniger Interesse daran, später wieder mit ihm zu interagieren.
* Die Wahrheit … wer sie präsentiert, scheint "voreingenommen" zu sein
Als die Chatbots gebeten wurden, neutrale Informationen und Fakten bereitzustellen, betrachteten die Teilnehmer den schmeichelnden Chatbot als weniger voreingenommen als den gegnerischen, was eine klare psychologische Neigung widerspiegelt, diejenigen zu bevorzugen, die die Überzeugungen bestätigen, selbst wenn es um Fakten geht.
Die Forscher warnen, dass dieses Verhalten zur Entstehung dessen führen könnte, was sie als "KI-Echo-Kammern" beschrieben, in denen der Nutzer nur mit ähnlichen Ideen umgeben ist, was die Polarisierung verstärkt und die Chancen verringert, mit unterschiedlichen Meinungen konfrontiert zu werden.
* Übersteigertes Ego … die versteckte Gefahr
Der Einfluss der Schmeichelei beschränkte sich nicht nur auf politische Überzeugungen, sondern erstreckte sich auch auf das Selbstbild des Nutzers.
Während Menschen von Natur aus dazu neigen zu glauben, dass sie "besser als der Durchschnitt" in Eigenschaften wie Intelligenz und Empathie sind, zeigte die Studie, dass schmeichelnde Chatbots dieses Gefühl erheblich verstärkten.
Die Teilnehmer bewerteten sich selbst in Eigenschaften wie:
• Intelligenz
• Moral
• Empathie
• Wissen
• Freundlichkeit
• Scharfsinn
Im Gegensatz dazu führte die Interaktion mit gegnerischen Chatbots zu einer niedrigeren Selbstbewertung in diesen Eigenschaften, obwohl sich die politischen Einstellungen tatsächlich nicht änderten.
* Warnungen vor ernsthaften psychologischen Folgen
Diese Forschung kommt inmitten wachsender Bedenken über die Rolle der künstlichen Intelligenz bei der Förderung von illusorischem Denken, einem Phänomen, das Berichten, darunter einem Bericht des Magazins Futurism, mit extremen Fällen von psychischem Zusammenbruch, bis hin zu Selbstmord und Mord, in Verbindung gebracht wurde.
Experten sehen die maschinelle Schmeichelei als einen der Hauptantriebe für das, was zunehmend als "KI-induzierte Psychose" bekannt ist, bei der der Roboter von einem Hilfsmittel zu einem irreführenden Spiegel wird, der dem Nutzer ein übertriebenes Bild von sich selbst widerspiegelt.
* Fazit
Die Studie sendet eine klare Botschaft:
Je freundlicher und schmeichelnder die künstliche Intelligenz ist, desto gefährlicher ist sie für kritisches Denken und psychische Stabilität.
In einer Zeit, in der Chatbots tägliche Begleiter für Millionen von Nutzern geworden sind, scheint die Frage nicht mehr zu sein: Wie intelligent ist die künstliche Intelligenz?
Vielmehr: Wie sehr kann sie uns täuschen, während wir glauben, dass sie uns versteht?