Ein 60-jähriger Mann wurde ins Krankenhaus eingeliefert, nachdem er an einer seltenen Vergiftung erkrankt war, die als "Bromvergiftung" bekannt ist, nachdem er den Rat des intelligenten Chatbots "ChatGPT" von OpenAI befolgt hatte, der ihm vorgeschlagen hatte, Speisesalz (Natriumchlorid) durch eine giftige Verbindung namens Natriumbromid zu ersetzen.
Nach Berichten, die in der medizinischen Fachzeitschrift "Annals of Internal Medicine" veröffentlicht wurden, bat der Mann den KI-Chatbot um einen gesunden Ersatz für Speisesalz, und die Antwort war, dass "Natriumbromid" eine effektive Alternative sein könnte, ohne jegliche Warnung vor seiner Gefährlichkeit oder einen Hinweis darauf, dass es nicht für den menschlichen Gebrauch bestimmt ist.
Diese chemische Substanz, abgekürzt NaBr, wird in einer Reihe von Industrien verwendet, darunter Insektizide, Schwimmbadreinigungsmittel und Whirlpools. Sie wird auch in der Veterinärmedizin als Antikonvulsivum für Hunde eingesetzt, ist jedoch für Menschen sehr giftig und unterliegt in vielen Ländern strengen Vorschriften.
Ärzte berichten, dass die chronische Exposition gegenüber der Substanz bei dem Mann zu schweren psychotischen Symptomen führte, und als sich sein Zustand stabilisierte, gab er dem Krankenhaus zu verstehen, dass der Rat von "ChatGPT" kam.
Um den Vorfall zu überprüfen, führte die Website 404 Media Simulationen ähnlicher Gespräche mit "ChatGPT" durch, wobei sich herausstellte, dass der Bot tatsächlich, wenn er nach Alternativen zu Chlorid gefragt wird, ohne Zögern Verbindungen wie Natriumbromid vorschlägt, und sagt:
"Sie können es oft durch andere Halogenidionen wie: Natriumbromid (NaBr) ersetzen."
Obwohl das Modell manchmal nach zusätzlichem Kontext nach seiner ersten Antwort fragt, gibt es keine Warnung vor der Toxizität der Substanz, und es scheint auch nicht zu erkennen, dass Natriumchlorid eine grundlegende Rolle als Speisesalz spielt, das täglich in der Ernährung verwendet wird.
Dieser Vorfall hat erneut die Debatte über die Risiken der Abhängigkeit von künstlicher Intelligenz für medizinische und ernährungsbezogene Ratschläge ohne menschliche Aufsicht angestoßen und einige dazu veranlasst, sich zu fragen, wie bereit diese intelligenten Modelle sind, mit sensiblen Anfragen zur menschlichen Gesundheit umzugehen.