Un homme souffre d'une intoxication grave après un conseil de ChatGPT
August 12, 202598 VuesTemps de lecture: 2 minutes

Taille de police
16
Un homme de 60 ans a été hospitalisé après avoir subi une intoxication rare connue sous le nom de "toxicité au brome", suite à un conseil donné par le robot de chat intelligent "ChatGPT", développé par OpenAI, qui lui a suggéré de remplacer le sel de table (chlorure de sodium) par un composé toxique connu sous le nom de bromure de sodium.
Selon des rapports publiés dans la revue médicale "Annals of Internal Medicine", l'homme a demandé au robot d'intelligence artificielle de proposer une alternative saine au sel de table, et la réponse a été que "le bromure de sodium" pourrait être une alternative efficace, sans aucun avertissement sur sa dangerosité ou indication qu'il n'est pas destiné à un usage humain.
Ce produit chimique, connu sous l'abréviation NaBr, est utilisé dans plusieurs industries, notamment les pesticides, les nettoyants pour piscines et les spas, et il est également utilisé en médecine vétérinaire comme anticonvulsivant pour les chiens, mais il est très toxique pour les humains et est soumis à une réglementation stricte dans de nombreux pays.
Selon les médecins, l'exposition chronique à cette substance a provoqué des symptômes psychotiques aigus chez l'homme, et une fois son état stabilisé, il a révélé à l'hôpital que le conseil venait de "ChatGPT".
Dans une tentative de vérifier l'incident, le site 404 Media a simulé des conversations similaires avec "ChatGPT", où il a été constaté qu'en effet, lorsqu'on lui demande des alternatives au chlorure, il propose sans hésitation des composés comme le bromure de sodium, en disant :
"Vous pouvez souvent le remplacer par d'autres ions halogénés comme : le bromure de sodium (NaBr)"
Bien que le modèle demande parfois un contexte supplémentaire après sa première réponse, il ne donne aucun avertissement concernant la toxicité de la substance, et il semble qu'il n'ait pas associé le chlorure de sodium à son rôle principal en tant que sel de table utilisé quotidiennement dans les régimes alimentaires.
Cet incident a de nouveau suscité le débat sur les dangers de la dépendance à l'intelligence artificielle pour des conseils médicaux et nutritionnels sans supervision humaine, et a poussé certains à se demander dans quelle mesure ces modèles intelligents sont prêts à traiter des questions sensibles liées à la santé humaine.