رغم التقدم الكبير الذي حققته أنظمة الذكاء الاصطناعي في العديد من المجالات مثل الهندسة والطب والفضاء، إلا أن دراسة جديدة أظهرت أن هذه الأنظمة لا تزال متأخرة عن البشر في فهم الإشارات الاجتماعية.
وفقًا للدراسة التي أجراها فريق بحثي من جامعة جون هوبكنز، فإن أنظمة الذكاء الاصطناعي لا تستطيع فهم "ما بين السطور" في التفاعلات الاجتماعية بين البشر، وهو ما يمكن أن يؤثر بشكل كبير في صناعات مثل السيارات ذاتية القيادة والروبوتات.
في هذه الدراسة، طُلب من مجموعات من المتطوعين مشاهدة مقاطع فيديو لا تزيد مدتها عن ثلاث ثوانٍ، تتضمن تفاعلات اجتماعية بين الأشخاص.
بينما تمكن المتطوعون من تفسير التفاعلات وفهم مغزاها بسهولة، فشلت أنظمة الذكاء الاصطناعي في فهم هذه الإشارات الاجتماعية كما فعل البشر.
وقد تم تحليل المقاطع بواسطة أكثر من 350 نظامًا ذكاءً اصطناعيًا متخصصًا في مجالات تحليل اللغة والفيديو والصور، إلا أن النتائج أظهرت تفاوتًا كبيرًا في دقة التفسير بين الإنسان والآلات.
النتائج كشفت عن فشل الذكاء الاصطناعي في التوصل إلى إجماع موحد حول تفسير الإشارات الاجتماعية الموجودة في مقاطع الفيديو، في حين كان البشر يتوصلون إلى إجابات متشابهة بناءً على فهمهم الطبيعي للتفاعلات الاجتماعية.
الباحثة ليلى إيزيك، أستاذة العلوم المعرفية في جامعة جون هوبكنز، أشارت إلى أن هذه الدراسة تسلط الضوء على سبب إخفاق الذكاء الاصطناعي في أداء بعض المهام التي يتقنها البشر بسهولة، وخصوصًا تلك التي تتطلب فهمًا عميقًا للمشاعر والتفاعلات غير المعلنة بين الناس.
هذا الفهم المحدود لأنظمة الذكاء الاصطناعي قد يشكل تحديات في المستقبل، خاصة في المجالات التي تتطلب تفاعلات معقدة بين الإنسان والآلة.
يعتقد الباحثون أن دمج العلوم المعرفية والذكاء الاصطناعي يمكن أن يكون حلًا لتجاوز هذه العقبة، مما يساعد على تطوير أنظمة أكثر قدرة على فهم الإشارات الاجتماعية في البيئات التفاعلية.