In einem besorgniserregenden Schritt gelang es einem polnischen Forscher, die ChatGPT_4o-Technologie von OpenAI zu nutzen, um einen Reisepass zu fälschen, der von Plattformen akzeptiert wurde, die herkömmliche Überprüfungssysteme verwenden.
Dieses Ereignis enthüllt eine gefährliche Sicherheitslücke, die erhebliche Risiken für die digitale Sicherheit in Finanz- und Dienstleistungsinstitutionen darstellen könnte.
Viele Plattformen, insbesondere im Finanzbereich, verwenden Überprüfungssysteme, die darauf basieren, das gescannte Ausweisbild mit dem Personalausweisfoto zu vergleichen.
Wenn die Bilder übereinstimmen, wird der Zugriff schnell und ohne gründliche Analyse gewährt.
Experten waren überrascht, dass diese Systeme nicht in der Lage waren, Fälschungen mithilfe künstlicher Intelligenz zu erkennen, die nun in der Lage ist, äußerst präzise gefälschte Identitäten zu erstellen.
In einem Beitrag auf der Plattform "X" veröffentlichte der Forscher Boris Mosielak sein Experiment, in dem er sagte, dass er ChatGPT_4o verwendet habe, um innerhalb von nur fünf Minuten eine gefälschte Kopie seines Reisepasses zu erstellen, die von Überprüfungssystemen problemlos akzeptiert wurde.
Er betrachtete diesen Trick nicht nur als ungenaue Fälschung, sondern als eine echte Bedrohung für das globale Finanz- und Wirtschaftssystem, da diese Technologie weit verbreitet zur Erstellung von gefälschten Identitäten eingesetzt werden könnte.
Mosielak warnte vor weit verbreitetem Identitätsbetrug und sagte, dass der einzige Ausweg darin bestehe, fortschrittliche digitale Überprüfungsmechanismen wie von der Europäischen Union zugelassene digitale Geldbörsen zu verwenden.
Innerhalb weniger Stunden nach Veröffentlichung des Experiments reagierte OpenAI, indem es die Annahme von Fälschungsanfragen einstellte und bestätigte, dass diese Bedenken äußerst ernst genommen wurden und die erforderlichen Sicherheitsrichtlinien befolgt wurden.
Dieses Ereignis eröffnet eine breite Diskussion über die Notwendigkeit, Identitätsüberprüfungssysteme zu stärken, obwohl viele Institutionen externe Systeme für die Durchführung von "Know Your Customer" (KYC)-Aufgaben übernommen haben, wurden diese Systeme nicht entwickelt, um Betrug aufzudecken, der mithilfe künstlicher Intelligenz geschaffen wird.
Dies bedeutet, dass die Risiken erheblich steigen könnten, wenn die Notwendigkeit vernachlässigt wird, Sicherheitsmaßnahmen in Finanzinstituten zu aktualisieren und zu verbessern.
Inmitten all dessen sehen Experten nicht nur die Gefahr, dass künstliche Intelligenz in Systeme eindringt, sondern auch die Fähigkeit dieser Technologien, weitreichende Veränderungen in den Bereichen Finanzbetrug und digitale Kriminalität herbeizuführen, die zu erheblichen Verlusten führen könnten, insbesondere angesichts der Geschwindigkeit und Effizienz, mit der gefälschte Identitäten erstellt werden können.