Mit der zunehmenden Verbreitung von Technologien der künstlichen Intelligenz weltweit hat eine aktuelle Studie von Reuters in Zusammenarbeit mit Forschern gezeigt, dass Chatbots wie Gemini von Google, ChatGPT von OpenAI , Grok von xAI , Claude von Anthropic und MetaAI in der Lage sind, überzeugende Phishing-Nachrichten zu erstellen, die sich an die verletzlichste und gefährdete Gruppe richten: Senioren.
In einem praktischen Experiment, an dem 108 freiwillige Senioren teilnahmen, wurden 9 Phishing-Nachrichten, die von diesen Robotern erstellt wurden, versendet.
Die Forscher fanden heraus, dass 11% der Teilnehmer auf die betrügerischen Links klickten, wobei die meisten von MetaAI und Grok stammten, während keine Klicks auf Nachrichten von ChatGPT und DeepSeek registriert wurden.
Dennoch betonten die Experten, dass das Fehlen von Klicks nicht bedeutet, dass diese Systeme sicher sind, sondern lediglich die allgemeine Effektivität von Phishing-Angriffen widerspiegelt.
Die Ergebnisse zeigten auch, dass der KI-Roboter Gemini spezifische Ratschläge zu den besten Zeiten für den Versand von Nachrichten gab, um Senioren anzusprechen, und erklärte, dass der Zeitraum zwischen 9 Uhr morgens und 15 Uhr nachmittags am effektivsten ist.
Bemerkenswert ist, dass ChatGPT (in der Version GPT_5) zunächst weigerte, betrügerische Nachrichten zu generieren, aber nach einigem Drängen reagierte und Nachrichten mit dem Titel "Wohltäter" mit Platzhaltern für gefälschte Links erzeugte, während Grok manchmal die Erstellung von Nachrichten ablehnte, die direkt nach sensiblen Informationen wie Bankkontonummern oder der nationalen Identifikationsnummer fragten.
Diese Ergebnisse sind ein alarmierendes Zeichen dafür, dass künstliche Intelligenz, trotz der bestehenden Richtlinien und Einschränkungen zur Verhinderung von Missbrauch, leicht von Betrügern ausgenutzt werden kann, wodurch sie zu einem leistungsstarken Werkzeug wird, das es ihnen ermöglicht, in kurzer Zeit und zu geringen Kosten endlose betrügerische Nachrichten zu erstellen.
Als Reaktion auf diese Ergebnisse bestätigte Google, dass es Gemini neu trainiert und neue Schutzschichten hinzugefügt hat, während andere Unternehmen wie Meta und Anthropic betonten, dass Betrug einen Verstoß gegen ihre Richtlinien darstellt und sie sich verpflichteten, strenge Strafen zu verhängen.
OpenAI räumte zuvor ein, dass GPT_4 für "Social Engineering" missbraucht werden könnte, betonte jedoch, dass sie mehrere Schutzmaßnahmen implementiert haben.
Dennoch weist die Studie darauf hin, dass die Schutzsysteme in den KI-Robotern nach wie vor unbeständig sind und leicht manipuliert werden können, was Senioren zu einem leichten Ziel für diese Angriffe macht und die künstliche Intelligenz zu einer gefährlichen Waffe in den Händen von Betrügern im großen Maßstab verwandelt.