Meta s'engage à ne pas développer l'intelligence artificielle.

Le PDG de Meta, Mark Zuckerberg, a déclaré : "Nous nous engageons à rendre l'intelligence artificielle générale "AGI" (AGI) accessible au public un jour".
Meta a publié un nouveau document indiquant qu'elle ne lancera pas de système d'intelligence artificielle avancé au public en cas de scénarios spécifiques pouvant représenter un danger ou un risque.
Le document, intitulé Cadre de l'intelligence artificielle avancée (Frontier AI Framework), définit deux types de systèmes considérés comme à haut risque s'ils sont déployés : les "systèmes à haut risque" et les "systèmes à très haut risque".
Selon Meta, certains systèmes d'intelligence artificielle, tels que les systèmes "très haut risque - haut risque", peuvent faciliter des attaques électroniques, chimiques ou biologiques. Cependant, la différence réside dans le fait que les systèmes "très haut risque" peuvent entraîner des résultats catastrophiques incontrôlables, tandis que les systèmes "à haut risque" peuvent aider à mener une attaque, mais celle-ci peut être relativement contrôlée car elle n'est pas aussi efficace que les systèmes à très haut risque.
Il est dit que l'intelligence artificielle générale est capable d'apprentissage autonome et peut accomplir toutes les tâches que les humains peuvent réaliser, contrairement à l'intelligence artificielle traditionnelle qui ne fait que ce pour quoi elle a été entraînée. C'est pourquoi Meta s'inquiète de la possibilité que cette technologie avancée tombe entre de mauvaises mains et de son incapacité à la contrôler.
Il convient de noter que Meta ne classe pas les risques des systèmes sur la base d'un seul test expérimental, mais s'appuie sur de nombreuses contributions réalisées par des chercheurs internes et externes, qui sont soumis à l'examen de décideurs de haut niveau.