Hombre sufre intoxicación grave tras consejo de ChatGPT
August 12, 202573 VistasTiempo de lectura: 2 minutos

Tamaño de fuente
16
Un hombre de 60 años fue ingresado en el hospital después de sufrir una rara intoxicación conocida como "intoxicación por bromo", tras seguir un consejo dado por el robot de chat inteligente "ChatGPT", de OpenAI, que le sugirió reemplazar la sal de mesa (cloruro de sodio) por un compuesto tóxico conocido como bromuro de sodio.
Según informes publicados en la revista médica "Annals of Internal Medicine", el hombre pidió al robot de inteligencia artificial que le sugiriera una alternativa saludable a la sal de mesa, y la respuesta fue que "el bromuro de sodio" podría ser una alternativa efectiva, sin ninguna advertencia sobre su peligrosidad o señalización de que no está destinado para uso humano.
Este compuesto químico, conocido como NaBr, se utiliza en varias industrias, siendo las más destacadas los pesticidas, limpiadores de piscinas y jacuzzis, además de ser utilizado en medicina veterinaria como un antiespasmódico para perros, pero es extremadamente tóxico para los humanos y está sujeto a estrictas regulaciones en muchos países.
Según los médicos, la exposición crónica a la sustancia causó síntomas psicóticos agudos en el hombre, y al estabilizarse su condición, reveló al hospital que el consejo provenía de "ChatGPT".
En un intento de verificar el incidente, el sitio 404 Media realizó simulaciones de conversaciones similares con "ChatGPT", donde se demostró que, efectivamente, al preguntarle sobre alternativas al cloruro, sugiere sin dudar compuestos como el bromuro de sodio, diciendo:
"A menudo puedes reemplazarlo con otros haluros como: bromuro de sodio (NaBr)"
A pesar de que el modelo a veces pide contexto adicional después de su primera respuesta, no emite ninguna advertencia sobre la toxicidad de la sustancia, y parece no haber relacionado el cloruro de sodio con su función básica como sal de mesa utilizada diariamente en las dietas.
Este incidente ha reavivado el debate sobre los riesgos de depender de la inteligencia artificial para consejos médicos y nutricionales sin supervisión humana, y ha llevado a algunos a cuestionar la preparación de estos modelos inteligentes para manejar consultas sensibles relacionadas con la salud humana.