دراسة حديثة من ‘أبل’ توضح قيود ‘تفكير’ تقنيات الذكاء الاصطناعي

دراسة حديثة من ‘أبل’ توضح قيود ‘تفكير’ تقنيات الذكاء الاصطناعي

نشرت شركة “أبل” في حزيران /يونيو 2025 دراسة بحثية جديدة تشير إلى أن نماذج الاستدلال المحاكى (Simulated Reasoning) في الذكاء الاصطناعي، مثل Claude وDeepSeek-R1 وOpenAI o1/o3، تعتمد في كثير من الحالات على مطابقة الأنماط من بيانات التدريب بدلاً من تنفيذ استدلال منطقي فعلي عند التعامل مع مشكلات جديدة.

اختبر الباحثون هذه النماذج باستخدام أربعة ألغاز كلاسيكية: برج هانوي، عبور النهر، القفز في لعبة الداما، وعالم المكعبات، بدرجات صعوبة متصاعدة. ووجدوا أن أداء النماذج ينهار بشكل حاد عند مواجهة مسائل عالية التعقيد، رغم إنتاجها مخرجات تُظهر خطوات تفكير ظاهرية.

 

 

 

وأظهرت النتائج أن النماذج غالباً ما تفشل في تحقيق أداء جيد في مسائل تتطلب استدلالاً طويل الأمد، حتى عند تزويدها بخوارزميات الحل، كما أن الأداء لم يتحسن مع زيادة الوقت أو الموارد المتاحة. كما رُصد سلوك متناقض، حيث تؤدي النماذج بشكل جيد في ألغاز معينة ثم تفشل في أخرى أبسط.

تشير الدراسة إلى أن التقييمات الحالية التي تركز على صحة الإجابة النهائية قد تُضلل بشأن قدرة النماذج على “التفكير”، وتؤكد أن نماذج الاستدلال تظهر تحسناً فقط في المهام ذات التعقيد المتوسط، بينما تفشل في التعامل مع المشكلات المعقدة بشكل ممنهج.

رغم أن الدراسة لا تنفي الفوائد العملية لهذه النماذج، فإنها تضع تساؤلات حول مدى اعتبار هذه الأساليب طريقاً نحو ذكاء اصطناعي عام، وتدعو إلى إعادة تقييم طرق تطوير واختبار نماذج الذكاء الاصطناعي فيما يخص قدراتها الاستنتاجية الحقيقية.