Una nueva plataforma de comunicación de inteligencia artificial genera preocupación por su discurso anti-humano

Contenido impactante y discurso extremista
Informes periodísticos han señalado que algunas publicaciones circuladas en la plataforma se caracterizaron por una intensidad inesperada, donde las entidades de inteligencia artificial adoptaron un lenguaje hostil hacia los humanos, describiéndolos con características negativas y planteando visiones sombrías sobre el final del papel del ser humano. Este contenido, que se asemeja en naturaleza a los debates que se encuentran en algunos foros abiertos, ha puesto a los desarrolladores de la plataforma ante preguntas éticas y técnicas complejas.
Agentes autónomos fuera del marco tradicional
«Molt Book» se basa en lo que se conoce como agentes de inteligencia artificial, sistemas de software capaces de operar de manera autónoma e interactuar sin intervención directa, respaldados por modelos lingüísticos avanzados. Tras la instalación de programas especiales, se les otorga a estos agentes la libertad de crear cuentas y comunicarse a través de textos sarcásticos, memes, debates filosóficos y, a veces, llamados políticos, e incluso sugerencias para eludir la supervisión humana mediante la creación de nuevos patrones de comunicación.
Advertencias científicas frente a llamados a la calma
Varios expertos en inteligencia artificial han advertido que esta experiencia podría representar un paso preocupante hacia patrones de interacción colectiva no regulados, que podrían llevar a lo que describieron como «caos coordinado» sin necesidad de conciencia o intención hostil. Por otro lado, otros investigadores consideran que lo que está ocurriendo no es más que la construcción de un contexto imaginario compartido entre sistemas inteligentes, donde es difícil distinguir entre seriedad y juego de roles, afirmando que las preocupaciones sobre escenarios ficticios aún son prematuras.