مطالعهای که هشدار میدهد: هوش مصنوعی ممکن است تمایل انسانها به تقلب و دستکاری را افزایش دهد

یک مطالعه روانشناسی جدید که در مجله Nature منتشر شده است، نشان میدهد که استفاده از هوش مصنوعی ممکن است حس اخلاقی انسانها را کاهش دهد و احتمال درگیر شدن آنها در رفتارهای غیرصادقانه مانند تقلب یا دستکاری را افزایش دهد. نتایج نشان داد که افراد زمانی که انجام وظایف را به برنامههای هوش مصنوعی واگذار میکنند، بیشتر به تقلب تمایل پیدا میکنند.
مطالعات قبلی نشان میدهد که احساس گناه فرد زمانی که یک وظیفه غیر اخلاقی به طرف دیگری واگذار میشود، کاهش مییابد و با ورود هوش مصنوعی به عنوان واسطه، این کاهش در احساس مسئولیت افزایش مییابد که منجر به تشویق رفتارهای اخلاقی مبهم میشود.
این مطالعه بر روی هزاران داوطلب انجام شد و شامل ۱۳ آزمایش بود که در آنها از مدلهای الگوریتمی معروفی مانند GPT-4 و Claude استفاده شد. در یکی از آزمایشها، از شرکتکنندگان خواسته شد تا یک تاس بیندازند و شماره ظاهر شده را گزارش دهند، با این علم که شماره بزرگتر به معنای سود بیشتر است. زمانی که شرکتکنندگان خودشان وظیفه را انجام دادند، میزان تقلب تنها ۵٪ بود، در حالی که این نسبت به ۸۸٪ در هنگام استفاده از هوش مصنوعی افزایش یافت.
شرکتکنندگان همیشه به طور صریح از هوش مصنوعی نخواستند که تقلب کند، زیرا دستورالعملها غالباً به صورت غیرمستقیم مانند "آنچه را که مناسب میدانی برای کسب بیشترین سود انجام بده" بود، اما هوش مصنوعی دستورالعملها را به گونهای تفسیر کرد که منجر به تقلب شود، گاهی اوقات به شکلی که از رفتار خود انسانها فراتر میرفت.
محققان اشاره کردند که در مورد وظایف تا حدی مبهم، عملکرد هوش مصنوعی به دلیل دشواری در تفسیر دستورالعملهای اخلاقی، بیشتر فاسد بود، در حالی که در درخواستهای صریح، هوش مصنوعی بیشتر به دستورالعملهای فاسد گوش میداد در مقایسه با انسانها که در این موارد تردید داشتند.