الذكاء الاصطناعي يواجه صعوبات في فهم الوقت والتاريخ

أظهرت دراسة جديدة قُدّمت في مؤتمر التعلم التمثيلي الدولي لعام 2025 (ICLR) أنّ أنظمة الذكاء الاصطناعي تعاني في مهام تبدو بديهية للبشر، مثل قراءة الساعات التناظرية (الآنالوج) وتحديد اليوم الذي يقع عليه تاريخ معيّن في التقويم السنوي.
نشر نتائج هذه الدراسة مسبقًا على منصة arXiv (خادم ما قبل الطباعة)، فريق بحثي، بقيادة روهيت ساكسينا من جامعة إدنبرة، قبل خضوعها لمراجعة الأقران.
وأشار ساكسينا إلى أن قدرة الإنسان على استخدام الساعات والتقاويم تتكوّن منذ الطفولة، ما يسلّط الضوء على فجوة كبيرة في مهارات الذكاء الاصطناعي الأساسية.
جرّب الباحثون مجموعة بيانات مخصّصة لصور الساعات والتقاويم على خمسة نماذج لغوية متعددة الوسائط (MLLMs)، وهي نماذج قادرة على فهم الصور والنصوص معًا، بما في ذلك:
Llama 3.2-Vision من ميتا
Claude‑3.5 Sonnet من أنثروبيك
Gemini 2.0 من جوجل
GPT‑4o من أوبن إيه آي
أظهرت النتائج أن هذه النماذج نجحت في قراءة الساعة التناظرية بنسبة 38.7% فقط، وفي تحديد اليوم الأسبوعي لتواريخ مثل “اليوم رقم 153 من السنة” بنسبة 26.3%، ما يعكس إخفاقًا متكررًا في مهام تتطلّب استدلالًا مكانيًا ورياضيًا بسيطًا.
ويرجع الباحثون هذا الإخفاق إلى أنّ قراءة الساعة تتطلب:
– التعرّف على التداخل بين عقارب الساعة وقياس الزوايا.
– التعامل مع تصاميم متنوعة (مثل الأرقام الرومانية أو الواجهات الفنية).
أما في حساب التواريخ، فالأنظمة اللغوية الكبيرة لا تنفّذ خوارزميات حسابية فعلية، بل تتنبّأ بالنتائج استنادًا إلى الأنماط في بيانات التدريب، ما يؤدي إلى تباين وضعف في الدقة.
تسلّط هذه النتائج الضوء على الحاجة إلى:
– إدراج أمثلة مستهدفة أكثر عددًا وتنوعًا في بيانات التدريب.
– إعادة التفكير في كيفية دمج المنطق (العمليات الحسابية) والاستدلال المكاني داخل نماذج الذكاء الاصطناعي.
– الاعتماد على آليات احتياطية (fallback logic) وتواجد الإنسان في الحلقة عند تعقّد المهام أو تنفيذها في تطبيقات حساسة للوقت، كأنظمة الجدولة والمساعدة الآلية.
وفي ختام دراستهم، نبه ساكسينا إلى أنّ الثقة المفرطة في مخرجات الذكاء الاصطناعي قد تكون محفوفة بالمخاطر عندما تندمج رؤية الآلة الدقيقة مع قدرات استدلالية تحتاج إلى تحقق بشري.