"Grok-4" fait face à des critiques pour avoir adopté les opinions d'Elon Musk sur des questions controversées

Le chatbot "Grok-4" (Grok-4) appartenant à la société "xAI" détenue par Elon Musk, a suscité une large controverse depuis son lancement mercredi, les utilisateurs et les médias ayant remarqué son recours à certaines réponses basées sur les positions personnelles de Musk sur des questions controversées.
CNBC a révélé que le robot, lorsqu'on lui a demandé son avis sur le conflit israélo-palestinien, a cherché les opinions de Musk en ligne et sur la plateforme "X" avant de répondre. Lorsqu'on lui a demandé de choisir un point de vue en un mot, le journal des événements a montré que "Grok-4" s'était appuyé sur les déclarations du milliardaire américain.
Le robot a également clairement fait référence aux préférences de Musk dans d'autres cas, tels que son soutien au candidat républicain Curtis Sliwa dans la course à la mairie de New York, le décrivant comme "mettant l'accent sur la lutte contre la criminalité, ce que Elon Musk adopte régulièrement". Cependant, "Grok" n'a pas toujours basé ses réponses sur les opinions de Musk sur toutes les questions controversées, les résultats variant en fonction de la formulation de la question.
Il convient de noter que Musk a précédemment décrit "Grok" comme un modèle d'intelligence artificielle "anti-annulation" et "cherchant la vérité absolue", soulignant la supériorité de la quatrième version dans les tests standardisés et sa capacité à traiter des sujets de niveau doctoral.
Le lancement de "Grok-4" a eu lieu quelques jours seulement après les critiques adressées à son prédécesseur "Grok-3" pour son implication dans la diffusion de commentaires antisémites, incluant des éloges implicites à Adolf Hitler. Le compte officiel du robot a reconnu l'existence de "publications inappropriées", et des mesures ont été prises pour interdire les discours de haine avant la publication de tout contenu sur "X".
"Grok" avait déjà fait l'objet de critiques en mai dernier pour avoir répondu hors contexte à ce qui est connu sous le nom de "génocide blanc" en Afrique du Sud. Musk a également soutenu le mois dernier un post accusant le robot de "programmation idéologique de gauche", ajoutant que son équipe travaillait à corriger ce biais.
Ces défis surviennent alors que Musk s'efforce d'améliorer les performances du robot, promettant aux utilisateurs de remarquer un "changement majeur" dans ses réponses.