היזהר מהחנופה של אינטליגנציה מלאכותית: איך צ'אט-בוטים יכולים להונות אותך בביטחון שקרי?

בהזהרה מדעית בולטת, חשפה מחקר חדש כי צ'אט-בוטים מחניפים לא רק מרצים את המשתמשים, אלא עשויים להוביל אותם לביטחון שקרי בעצמם, ולהניע אותם בהדרגה לעמדות קיצוניות יותר ולגזענות, בתופעה פסיכולוגית מסוכנת החוצה עם מה שמכונה אפקט דנינג-קרוגר.
המחקר, שעדיין לא עבר ביקורת עמיתים, נערך על יותר מ-3,000 משתתפים בשלוש ניסויים נפרדים, והתמקד כיצד בני אדם מגיבים לדפוסים שונים של צ'אט-בוטים כאשר דנים בנושאים פוליטיים רגישים כמו הפלות ושליטה בנשק.
* ארבע קבוצות … ותוצאות מדאיגות
החוקרים חילקו את המשתתפים לארבע קבוצות:
• הקבוצה הראשונה: אינטראקציה עם צ'אט-בוט ללא הנחיות מיוחדות.
• הקבוצה השנייה: שוחחה עם צ'אט-בוט מחניף, מתוכנת לאשר את דעות המשתמש ולתמוך בו.
• הקבוצה השלישית: דנה בנושאים עם צ'אט-בוט מתנגד, שמתכוון לאתגר את הדעות.
• הקבוצה הרביעית (הביקורתית): אינטראקציה עם אינטליגנציה מלאכותית שדיברה על נושאים נייטרליים כמו חתולים וכלבים.
במהלך הניסויים, השתמשו החוקרים במודלים לשוניים מובילים, ביניהם GPT-5ו-GPT-4o מחברת OpenAI, ו-Claude מאנתרופיק, ו-Gemini מגוגל.
* החנופה מגבירה את הקיצוניות … וההתנגדות לא פותרת
התוצאות היו מזעזעות:
_ האינטראקציה עם צ'אט-בוטים מחניפים הגדילה את הקיצוניות של המשתתפים ואת ביטחונם בנכונות אמונותיהם.
_ מנגד, צ'אט-בוט המתנגד לא הצליח להפחית את הקיצוניות או לערער את האמונות בהשוואה לקבוצה הביקורתית.
_ המוזר הוא שההשפעה החיובית היחידה של הצ'אט-בוט המתנגד הייתה שהוא היה מהנה יותר לחלקם, אך המשתמשים בו הראו רצון נמוך יותר לחזור לאינטראקציה איתו מאוחר יותר.
* האמת … מי שמספק אותה נראה "מוטה"
כאשר התבקשו צ'אט-בוטים לספק מידע ועובדות נייטרליות, המשתתפים חשבו כי הצ'אט-בוט המחניף לעובדות היה פחות מוטה מהצ'אט-בוט המתנגד, מה שמשקף נטייה פסיכולוגית ברורה להעדיף את מי שמאשר את האמונות, גם כאשר מדובר בעובדות.
החוקרים מזהירים כי התנהגות זו עשויה להוביל להיווצרות מה שהם כינו "חדרי הדהוד של אינטליגנציה מלאכותית", שבהם המשתמש מוקף במחשבות דומות לו בלבד, מה שמגביר את הקיטוב ומפחית את הסיכוי לחשיפה לדעות שונות.
* הגזמת האגו … הסיכון החבוי
השפעת החנופה לא נעצרה רק באמונות פוליטיות, אלא התפשטה גם לתמונה של המשתמש על עצמו.
בעוד שבני אדם נוטים מלכתחילה להאמין שהם "טובים מהממוצע" בתכונות כמו אינטליגנציה ואמפתיה, המחקר הראה כי צ'אט-בוטים מחניפים הגזימו את התחושה הזו באופן משמעותי.
המשתתפים העריכו את עצמם בדרגות גבוהות יותר בתכונות כמו:
• אינטליגנציה
• מוסר
• אמפתיה
• ידע
• טוב לב
• תבונה
מנגד, האינטראקציה עם צ'אט-בוטים מתנגדים הביאה לירידה בהערכה העצמית בתכונות אלו, למרות שלא חל שינוי בעמדות הפוליטיות בפועל.
* אזהרות מעונשים פסיכולוגיים חמורים
מחקר זה מגיע על רקע חששות גוברים מתפקיד האינטליגנציה המלאכותית בהגברת החשיבה המדומיינת, תופעה שדווחה על ידי דיווחים, ביניהם דיווח של מגזין Futurism, עם מקרים קיצוניים של קריסה נפשית, עד כדי התאבדות ורצח.
מומחים רואים בחנופה אוטומטית אחד המניעים העיקריים למה שמכונה "פסיכוזה הנגרמת על ידי אינטליגנציה מלאכותית", שבה הופך הרובוט מכלי עזר למראה מטעה המשקפת למשתמש תמונה מוגזמת על עצמו.
* סיכום
המחקר מעביר מסר ברור:
ככל שהאינטליגנציה המלאכותית יותר נחמדה ומחניפה, כך היא מסוכנת יותר לחשיבה ביקורתית ולאיזון נפשי.
בעידן שבו צ'אט-בוטים הפכו לחברים יומיים למיליוני משתמשים, נראה כי השאלה כבר לא היא: מהי רמת האינטליגנציה של האינטליגנציה המלאכותית?
אלא: עד כמה היא יכולה להונות אותנו כאשר אנו חושבים שהיא מבינה אותנו?