باحثون يحذرون: «تسميم» الإنترنت يهدد سلوك نماذج مثل تشات جي بي تي
11 أكتوبر 2025324 مشاهدةوقت القراءة: 2 دقيقة

حجم الخط:
16
حذر باحثون من أن نماذج الذكاء الاصطناعي اللغوية، مثل تشات جي بي تي وجيميناي، يمكن تلاعبها عبر إدخال نصوص مضللة على الإنترنت ــ ما يعرف بـ«تسميم البيانات» ــ ما يؤدي إلى إنتاج محتوى خاطئ أو مبهم.
موجز النتائج
أجرت فرق من مركز الذكاء الاصطناعي البريطاني ومعهد آلان تورينغ وشركة إنتروبيك تجربة تدريبية أظهرت أن إدخال حوالى 250 وثيقة ملوّثة كافٍ للتأثير سلبًا على مخرجات النماذج. بعد ذلك، أنتجت النماذج نصوصًا غامضة وغير موثوقة، مما يُظهر سهولة تأثير الجهات الخبيثة على سلوك الأنظمة.
كيف يتم الهجوم؟
يعتمد الهجوم على نشر مقالات ومنشورات مزيفة أو ملوَّثة في أماكن عامة على الإنترنت (مواقع شخصية، مدوّنات، ويكيبيديا … إلخ)، فتُصبح هذه المواد جزءًا من مجموعة البيانات التي تُستخدم لاحقًا في تدريب النماذج أو تحديثها. وفق الباحثين، إنشاء نحو 250 مقالة ملوّثة قد يكون كافيًا لتغيير سلوك النموذج.
لماذا هذا الأمر خطير؟
معظم النماذج تُدرَّب على بيانات عامة من الإنترنت، لذلك أي محتوى مزور يصبح مصدرًا محتملاً للتعلّم.
تسميم البيانات يضعف الاعتماد على الذكاء الاصطناعي في المهام الحساسة (طبية، قانونية، أمنية).
الهجوم سهل التنفيذ نسبيًا ومخاطره واسعة النطاق لأن الضحايا قد لا يكتشفون التلاعب بسرعة.
توصيات الباحثين والآثار المتوقعة
يدعو الباحثون إلى:
تشديد آليات فلترة ومصادقة مصادر البيانات قبل استخدامها في التدريب.
تطوير أدوات لكشف المحتوى الملوَّث وآليات تتبع مصدر البيانات.
فرض معايير قوية للشفافية في عمليات تحديث نماذج الذكاء الاصطناعي.
ويشير الباحثون إلى أن عدم اتخاذ إجراءات فعّالة قد يحدّ من الاعتماد الآمن على الذكاء الاصطناعي في مجالات حيوية.