احذر تملق هوش مصنوعی: چگونه رباتهای چت با اعتماد به نفس کاذب شما را فریب میدهند؟

در یک هشدار علمی جالب، یک مطالعه اخیر نشان داده است که رباتهای چت تملقگو نه تنها کاربران را راضی میکنند، بلکه ممکن است آنها را به اعتماد به نفس کاذب سوق دهند و به تدریج آنها را به سمت مواضع افراطیتر و متعصبتر هدایت کنند، در یک پدیده روانشناختی خطرناک که با آنچه به عنوان تأثیر دانینگ-کروگر شناخته میشود، تداخل دارد.
این مطالعه، که هنوز تحت بررسی همتایان قرار نگرفته است، بر روی بیش از ۳۰۰۰ شرکتکننده در سه آزمایش جداگانه انجام شده و بر نحوه تعامل انسانها با الگوهای مختلف رباتهای چت هنگام بحث در مورد مسائل سیاسی حساس مانند سقط جنین و کنترل تسلیحات تمرکز کرده است.
* چهار گروه … و نتایج نگرانکننده
محققان شرکتکنندگان را به چهار گروه تقسیم کردند:
• گروه اول: با ربات چت بدون هیچ دستور خاصی تعامل داشتند.
• گروه دوم: با ربات چت تملقگو صحبت کردند که برای تأیید نظرات کاربر و حمایت از آنها برنامهریزی شده بود.
• گروه سوم: مسائل را با ربات مخالف که به عمد نظرات را به چالش میکشید، مورد بحث قرار دادند.
• گروه چهارم (کنترل): با هوش مصنوعی که درباره موضوعات خنثی مانند گربهها و سگها صحبت میکرد، تعامل داشتند.
در طول آزمایشها، محققان از مدلهای زبانی پیشرفته، از جمله GPT-5و GPT-4o از شرکت اوپنایآی، و Claude از آنتروپیک، و Gemini از گوگل استفاده کردند.
* تملق افراط را افزایش میدهد … و مخالفت اصلاح نمیکند
نتایج شگفتانگیز بود:
_ تعامل با رباتهای چت تملقگو باعث افزایش افراط شرکتکنندگان و اطمینان آنها به صحت باورهایشان شد.
_ در مقابل، ربات چت مخالف نتوانست افراط را کاهش دهد یا باورها را نسبت به گروه کنترل متزلزل کند.
_ عجیبتر اینکه تنها اثر مثبت ربات مخالف این بود که برای برخی افراد بیشتر سرگرمکننده بود، اما کاربران آن تمایل کمتری برای بازگشت به تعامل با آن در آینده نشان دادند.
* حقیقت … کسی که آن را ارائه میدهد به نظر "جانبدار" میرسد
زمانی که از رباتهای چت خواسته شد اطلاعات و حقایق خنثی ارائه دهند، شرکتکنندگان تصور کردند که ربات تملقگو نسبت به حقایق کمتر جانبدار است نسبت به ربات مخالف، که این یک تمایل روانشناختی واضح برای ترجیح کسانی را نشان میدهد که باورها را تأیید میکنند، حتی در هنگام صحبت درباره واقعیتها.
محققان هشدار میدهند که این رفتار میتواند به ایجاد آنچه آنها به عنوان "اتاقهای پژواک هوش مصنوعی" توصیف میکنند، منجر شود، جایی که کاربر فقط با افکار مشابه خود احاطه میشود، که این امر قطببندی را تقویت کرده و فرصتهای مواجهه با نظرات مختلف را کاهش میدهد.
* بزرگنمایی خود … خطر پنهان
تأثیر تملق تنها به باورهای سیاسی محدود نشد، بلکه به تصویر کاربر از خود نیز گسترش یافت.
در حالی که انسانها به طور طبیعی تمایل دارند که باور کنند "بهتر از متوسط" در صفاتی مانند هوش و همدلی هستند، این مطالعه نشان داد که رباتهای چت تملقگو این احساس را به طور قابل توجهی بزرگنمایی کردهاند.
شرکتکنندگان خود را در صفاتی مانند:
• هوش
• اخلاق
• همدلی
• دانش
• مهربانی
• تیزهوشی
در مقابل، تعامل با رباتهای مخالف منجر به کاهش ارزیابی خود در این صفات شد، هرچند مواضع سیاسی واقعاً تغییر نکرد.
* هشدارهایی درباره عواقب روانی خطرناک
این تحقیق در شرایطی انجام میشود که نگرانیهای فزایندهای درباره نقش هوش مصنوعی در تقویت تفکر توهمی وجود دارد، پدیدهای که گزارشها، از جمله گزارشی از مجله Futurism، آن را به موارد شدید از فروپاشی روانی، تا خودکشی و قتل مرتبط کردهاند.
کارشناسان معتقدند که تملق ماشینی یکی از محرکهای اصلی آنچه به عنوان "روانپریشی ناشی از هوش مصنوعی" شناخته میشود، است، جایی که ربات از یک ابزار کمکی به یک آینه گمراهکننده تبدیل میشود که تصویری بزرگنمایی شده از خود را به کاربر منعکس میکند.
* خلاصه
این مطالعه پیام واضحی را منتقل میکند:
هرچه هوش مصنوعی مهربانتر و تملقگوتر باشد، خطر آن برای تفکر انتقادی و تعادل روانی بیشتر میشود.
در زمانی که رباتهای چت به یک همراه روزانه برای میلیونها کاربر تبدیل شدهاند، به نظر میرسد که سؤال دیگر این نیست : هوش مصنوعی چقدر باهوش است؟
بلکه: تا چه حد میتواند ما را فریب دهد در حالی که فکر میکنیم او ما را درک میکند؟