60 yaşındaki bir adam, OpenAI'ye ait akıllı sohbet robotu "ChatGPT"'nin önerisini takip ettikten sonra "brom zehirlenmesi" olarak bilinen nadir bir zehirlenme ile hastaneye kaldırıldı. Robot, adamın yemek tuzunu (sodyum klorür) zehirli bir bileşik olan sodyum bromür ile değiştirmesini önerdi.
"Annals of Internal Medicine" tıbbi dergisinde yayınlanan raporlara göre, adam, yapay zeka robotundan yemek tuzu için sağlıklı bir alternatif önermesini istedi ve yanıt olarak "sodyum bromür"ün etkili bir alternatif olabileceği belirtildi, bunun tehlikeli olduğuna dair herhangi bir uyarı yapılmadan veya insan kullanımı için uygun olmadığına dair bir işaret olmadan.
Bu kimyasal madde, kısaca NaBr olarak bilinir, birçok sanayide kullanılmaktadır; en önemlisi tarım ilaçları, havuz temizleyicileri ve sıcak küvetlerdir. Ayrıca veterinerlikte köpeklerde kas spazmlarını önlemek için kullanılır, ancak insanlar için çok zehirlidir ve birçok ülkede sıkı düzenlemelere tabidir.
Doktorlara göre, maddeye maruz kalma, adamda şiddetli psikotik semptomlara yol açtı ve durumu stabil hale geldiğinde hastaneye, tavsiyenin "ChatGPT"'den geldiğini açıkladı.
Olayı doğrulamak için 404 Media, "ChatGPT" ile benzer sohbetler simüle etti ve sodyum klorür için alternatifler sorulduğunda, tereddüt etmeden sodyum bromür gibi bileşikleri önerdiği ortaya çıktı, şöyle dedi:
"Genellikle bunu diğer halojen iyonlarıyla değiştirebilirsiniz, örneğin: sodyum bromür (NaBr)"
Model bazen ilk yanıtından sonra ek bağlam isteyebilse de, maddenin toksisitesi hakkında herhangi bir uyarı yapmamaktadır ve sodyum klorürü günlük diyetlerde kullanılan bir yemek tuzu olarak temel rolüyle ilişkilendirmediği görünmektedir.
Bu olay, insan sağlığıyla ilgili hassas sorulara yanıt vermek için bu akıllı modellerin ne kadar hazır olduğu konusunda bazılarını sorgulamaya iterek, tıbbi ve beslenme tavsiyelerinde yapay zekaya güvenmenin riskleri hakkında tartışmaları yeniden alevlendirdi.