גבר בן 60 אושפז בבית החולים לאחר שסבל מהרעלה נדירה הידועה בשם "הרעלת ברום", בעקבות כך שעקב אחרי עצה שהעניק לו רובוט השיחה החכם "שאט ג'י פי טי", השייך לחברת OpenAI, שהציע לו להחליף את מלח השולחן (כלוריד נתרן) במרכיב רעיל הידוע בשם ברומיד נתרן.
ולפי דיווחים שפורסמו בכתב העת הרפואי "Annals of Internal Medicine", הגבר ביקש מרובוט הבינה המלאכותית להציע חלופה בריאה למלח השולחן, והתשובה הייתה ש"ברומיד נתרן" יכול להיות חלופה יעילה, ללא כל אזהרה על סכנתו או רמז לכך שהוא לא מיועד לשימוש אנושי.
חומר כימי זה, הידוע בקיצור NaBr, משמש במספר תעשיות, בעיקר במזיקים, חומרי ניקוי לבריכות, וג'קוזי, כמו כן הוא משמש ברפואה וטרינרית כמפחית עוויתות לכלבים, אך הוא רעיל מאוד לבני אדם ומפוקח בקפדנות במדינות רבות.
על פי הרופאים, החשיפה הכרונית לחומר גרמה לתסמינים פסיכוטיים חמורים אצל הגבר, וכאשר מצבו התייצב, הוא גילה לבית החולים שהעצה הגיעה מ"שאט ג'י פי טי".
בניסיון לאמת את המקרה, ערך אתר 404 Media סימולציה של שיחות דומות עם "שאט ג'י פי טי", שם התגלה כי אכן, כאשר נשאל על חלופות לכלוריד, הוא מציע ללא היסוס תרכובות כמו ברומיד נתרן, ואומר:
"אתה יכול לעיתים קרובות להחליף אותו ביון הליד אחר כמו: ברומיד נתרן (NaBr)"
על אף שהמודל מבקש לעיתים הקשר נוסף לאחר תשובתו הראשונה, הוא לא נותן שום אזהרה לגבי רעילות החומר, כמו כן נראה שהוא לא קשר את כלוריד הנתרן לתפקידו הבסיסי כמלח שולחן שמשתמשים בו מדי יום בתפריטים.
תקרית זו עוררה שוב את הדיון סביב הסיכונים בהסתמכות על בינה מלאכותית בעצות רפואיות ותזונתיות ללא פיקוח אנושי, והניעה חלק מהאנשים לתהות לגבי מוכנות המודלים החכמים הללו להתמודד עם שאלות רגישות הקשורות לבריאות האדם.