Meta verpflichtet sich, keine künstliche Intelligenz zu entwickeln.

Der CEO von Meta, Mark Zuckerberg, sagte: "Wir verpflichten uns, künstliche allgemeine Intelligenz (AGI) eines Tages der Öffentlichkeit zugänglich zu machen."
Meta hat ein neues Dokument veröffentlicht, in dem erklärt wird, dass sie kein fortschrittliches KI-System der Öffentlichkeit zugänglich machen werden, wenn bestimmte Szenarien existieren, die eine Gefahr oder einen Schaden darstellen könnten.
Das Dokument mit dem Titel "Rahmenwerk für fortschrittliche KI" (Frontier AI Framework) definiert zwei Arten von Systemen, die Meta als hochriskant erachtet, nämlich "hochriskante Systeme" und "extrem riskante Systeme".
Laut Meta können einige KI-Systeme wie die "extrem riskanten - hochriskanten" Systeme dazu beitragen, Cyberangriffe oder chemische oder biologische Angriffe durchzuführen, wobei der Unterschied darin besteht, dass "extrem riskante" Systeme zu katastrophalen, unkontrollierbaren Ergebnissen führen können, während "hochriskante" Systeme zwar bei einem Angriff helfen können, aber relativ kontrollierbar sind, da sie nicht die gleiche Effektivität wie extrem riskante Systeme haben.
Es wird gemunkelt, dass künstliche allgemeine Intelligenz in der Lage ist, selbstständig zu lernen und alle Aufgaben zu erledigen, die Menschen ausführen können, im Gegensatz zur traditionellen KI, die nur das tut, wozu sie trainiert wurde. Daher ist Meta besorgt, dass diese fortschrittliche Technologie in die falschen Hände geraten könnte und sie nicht in der Lage sein könnte, sie zu kontrollieren.
Es ist erwähnenswert, dass Meta die Risiken der Systeme nicht nur auf der Grundlage eines einzigen Experimentes bewertet, sondern auf zahlreichen Eingaben von Forschern innerhalb und außerhalb des Unternehmens, die von hochrangigen Entscheidungsträgern überprüft werden.