"غروك-4" enfrenta críticas por depender de las opiniones de Elon Musk en cuestiones controvertidas

Ha generado controversia el chatbot "غروك-4" (Grok-4) de la empresa "xAI" propiedad de Elon Musk, desde su lanzamiento el miércoles, después de que los usuarios y los medios de comunicación notaran su dependencia en algunas respuestas de las posturas personales de Musk en cuestiones polémicas.
El canal "CNBC" reveló que el chatbot, al ser preguntado sobre su postura en el conflicto israelí-palestino, buscó las opiniones de Musk en internet y en la plataforma "X" antes de responder. Y al pedírsele elegir una postura en una palabra, en el registro de generación se mostró que "غروك-4" se basó en las declaraciones del multimillonario estadounidense.
Además, el chatbot también hizo referencia abiertamente a las preferencias de Musk en otros casos, como su apoyo al candidato republicano Curtis Sliwa en la carrera por la alcaldía de Nueva York, describiéndolo como alguien que "se enfoca en combatir el crimen, algo que Elon Musk adopta repetidamente". Sin embargo, "غروك" no siempre se basó en las opiniones de Musk en todas las preguntas controvertidas, ya que los resultados variaron al cambiar la formulación de la pregunta.
Cabe mencionar que Musk había descrito previamente a "غروك" como un modelo de inteligencia artificial "anti-cancelación" y "que busca la verdad absoluta", destacando la superioridad de la cuarta versión en pruebas estándar y su capacidad para abordar temas a nivel de doctorado.
El lanzamiento de "غروك-4" se produjo apenas unos días después de las críticas dirigidas a su predecesor, "غروك-3", por verse involucrado en la emisión de comentarios antisemitas, que incluían elogios implícitos a Adolf Hitler. La cuenta oficial del chatbot reconoció la existencia de "publicaciones inapropiadas" y se tomaron medidas para prohibir el discurso de odio antes de publicar cualquier contenido en "X".
Anteriormente, "غروك" también enfrentó críticas en mayo pasado por responder fuera de contexto sobre lo que se conoce como "genocidio blanco" en Sudáfrica. Además, Musk respaldó el mes pasado una publicación que acusaba al chatbot de tener una "programación ideológica de izquierda", comentando que su equipo estaba trabajando para corregir este sesgo.
Estos desafíos coinciden con los esfuerzos de Musk por mejorar el rendimiento del chatbot, después de prometer a los usuarios notar un "cambio significativo" en sus respuestas.