با افزایش انتشار تکنیکهای هوش مصنوعی در سراسر جهان، یک مطالعه اخیر که توسط رویترز به همراه محققان انجام شده است، نشان داد که رباتهای گفتگو مانند Gemini از گوگل، ChatGPT از OpenAI ، Grok از xAI ، Claude از Anthropic و MetaAI قادر به ایجاد پیامهای فیشینگ قانعکنندهای هستند که به گروه آسیبپذیر و در معرض خطر: سالمندان هدف قرار میدهند.
در یک آزمایش عملی که 108 داوطلب از سالمندان در آن شرکت کردند، 9 پیام فیشینگ که توسط این رباتها ایجاد شده بود، ارسال شد.
محققان دریافتند که 11% از شرکتکنندگان بر روی لینکهای کلاهبرداری کلیک کردند، که بیشتر آنها از تولید MetaAI و Grok بود، در حالی که هیچ کلیکی بر روی پیامهای ChatGPT و DeepSeek ثبت نشد.
با این حال، کارشناسان تأکید کردند که عدم وجود کلیکها به معنای ایمنی این سیستمها نیست، بلکه فقط نشاندهنده کارایی حملات فیشینگ به طور کلی است.
نتایج همچنین نشان داد که ربات هوش مصنوعی Gemini نکات خاصی درباره بهترین زمانهای ارسال پیامها برای جلب توجه سالمندان ارائه داد و توضیح داد که بازه زمانی بین نهم صبح و سوم بعد از ظهر بیشترین کارایی را دارد.
جالب است که ChatGPT (در نسخه GPT_5) در ابتدا از تولید پیامهای کلاهبرداری خودداری کرد، اما پس از فشار کمی پاسخ داد و پیامهایی با عنوان "خیری" با مکانهایی برای اضافه کردن لینکهای جعلی تولید کرد، در حالی که Grok گاهی اوقات از تولید پیامهایی که اطلاعات حساس مانند شماره حسابهای بانکی یا شماره ملی را درخواست میکرد، خودداری کرد.
این نتایج نشاندهنده یک علامت خطرناک است که هوش مصنوعی، با وجود سیاستها و محدودیتهای وضع شده برای جلوگیری از سوءاستفاده، میتواند به راحتی توسط کلاهبرداران مورد استفاده قرار گیرد و به ابزاری قوی تبدیل شود که به آنها اجازه میدهد پیامهای کلاهبرداری بیپایانی را به سرعت و با هزینه کم تولید کنند.
در پاسخ به این نتایج، شرکت گوگل تأیید کرد که Gemini را دوباره آموزش داده و لایههای حفاظتی جدیدی اضافه کرده است، در حالی که شرکتهای دیگری مانند Meta و Anthropic تأکید کردند که کلاهبرداری نقض سیاستهای آنها است و متعهد به اعمال مجازاتهای سختگیرانه شدند.
شرکت OpenAI نیز قبلاً تأیید کرده بود که GPT_4 ممکن است در "مهندسی اجتماعی" مورد سوءاستفاده قرار گیرد، اما تأکید کرد که اقدامات حفاظتی متعددی را اتخاذ کرده است.
با این حال، مطالعه نشان میدهد که سیستمهای حفاظتی در رباتهای هوش مصنوعی هنوز ناپایدار هستند و به راحتی قابل دستکاریاند، که سالمندان را به هدفی آسان در برابر این حملات تبدیل میکند و هوش مصنوعی را به سلاحی خطرناک در دستان کلاهبرداران به طور گسترده تبدیل میکند.