Meta se compromete a no desarrollar inteligencia artificial.

El CEO de Meta, Mark Zuckerberg, dijo: "Nos comprometemos a hacer que la inteligencia artificial general (AGI) esté disponible para el público en algún momento".
Meta emitió un nuevo documento en el que afirmaba que no lanzaría un sistema de inteligencia artificial avanzada públicamente si existieran escenarios específicos que representaran un riesgo o daño.
El documento se titulaba Marco de Inteligencia Artificial Avanzada (Frontier AI Framework), donde Meta identificó dos tipos de sistemas considerados de alto riesgo al ser lanzados, "Sistemas de Alto Riesgo" y "Sistemas de Muy Alto Riesgo".
Según Meta, algunos sistemas de inteligencia artificial, como los de "Muy Alto Riesgo - Alto Riesgo", pueden ser utilizados para llevar a cabo ataques electrónicos, químicos o biológicos. La diferencia radica en que los sistemas de "Muy Alto Riesgo" podrían resultar en consecuencias catastróficas incontrolables, mientras que los de "Alto Riesgo" podrían llevar a cabo un ataque, pero ser relativamente controlables debido a su menor efectividad en comparación con los de Muy Alto Riesgo.
Se rumorea que la inteligencia artificial general es capaz de aprender por sí misma y realizar todas las tareas que los humanos pueden hacer, a diferencia de la inteligencia artificial tradicional que solo realiza lo que se le ha enseñado. Por esta razón, Meta está preocupada por el potencial riesgo de que esta tecnología avanzada caiga en manos equivocadas y no pueda ser controlada.
Cabe destacar que Meta no clasifica los riesgos de los sistemas basándose en una sola prueba experimental, sino que se basa en múltiples aportes realizados por investigadores internos y externos a la empresa, que son revisados por altos ejecutivos de toma de decisiones.