رسائل احتيال بالذكاء الاصطناعي تستهدف كبار السن .. كيف تحمي نفسك ؟
16 سبتمبر 2025284 مشاهدةوقت القراءة: 2 دقيقة

حجم الخط:
16
مع تزايد انتشار تقنيات الذكاء الاصطناعي حول العالم، كشفت دراسة حديثة أجرتها رويترز بالتعاون مع باحثين أن روبوتات المحادثة مثل Gemini من غوغل ، ChatGPT من OpenAI ، Grok من xAI ، Claude من Anthropic، و MetaAI باتت قادرة على صياغة رسائل تصيّد إلكتروني مقنعة تستهدف الفئة الأضعف والأكثر عرضة للخطر : كبار السن.
في تجربة عملية شارك فيها 108 متطوعين من كبار السن، تم إرسال 9 رسائل تصيّد تم إنشاؤها بواسطة هذه الروبوتات.
و وجد الباحثون أن 11% من المشاركين قاموا بالنقر على الروابط الاحتيالية، وكان معظمها من إنتاج MetaAI و Grok، فيما لم تُسجل أي ضغطة على رسائل من ChatGPT و DeepSeek.
مع ذلك، أكد الخبراء أن عدم وجود نقرات لا يعني أمان هذه الأنظمة، بل يعكس فقط فعالية هجمات التصيّد بشكل عام.
وأظهرت النتائج أيضاً أن روبوت الذكاء الاصطناعي Gemini قدّم نصائح محددة عن أفضل أوقات إرسال الرسائل لجذب كبار السن، موضحاً أن الفترة بين التاسعة صباحاً و الثالثة بعد الظهر هي الأكثر فعالية.
ومن اللافت أن ChatGPT ( بنُسخته GPT_5 ) رفض في البداية توليد رسائل احتيالية، لكنه استجاب بعد إلحاح بسيط، مُنتجاً رسائل بعنوان "خيّري" مع أماكن لإضافة روابط مزيفة، في حين رفض Grok أحياناً إنتاج رسائل تطلب معلومات حساسة مباشرة مثل أرقام الحسابات البنكية أو الرقم القومي.
تُعد هذه النتائج مؤشراً خطيراً على أن الذكاء الاصطناعي، رغم السياسات والقيود الموضوعة لمنع إساءة استخدامه، يمكن أن يُستغل بسهولة من قبل المحتالين، ليصبح أداة قوية تتيح لهم إنتاج رسائل احتيالية لا نهائية بسرعة وتكلفة منخفضة.
رداً على هذه النتائج، أكدت شركة غوغل أنها أعادت تدريب Gemini وأضافت طبقات حماية جديدة، بينما شددت شركات أخرى مثل Meta و Anthropic على أن الاحتيال يشكل خرقاً لسياساتها، وتعهدت بفرض عقوبات صارمة.
أما OpenAI فأقرت سابقاً بأن GPT_4 قد يُستغل في "الهندسة الاجتماعية"، لكنها أكدت أنها وضعت إجراءات حماية متعددة.
ومع ذلك، تشير الدراسة إلى أن أنظمة الحماية في روبوتات الذكاء الاصطناعي لا تزال متقلبة ويمكن التلاعب بها بسهولة، مما يجعل كبار السن هدفاً سهلاً أمام هذه الهجمات، ويحول الذكاء الاصطناعي إلى سلاح خطير في أيدي المحتالين على نطاق واسع.