نموذج “ديب سيك” المطور: أداء متفوق ورفع مستوى المراقبة

أطلقت شركة “ديب سيك DeepSeek” الصينية نموذجها المحسّن “R1-0528″، الذي أظهر أداءً متقدمًا في اختبارات البرمجة والرياضيات والمعرفة العامة، واقترب في نتائجه من نموذج “o3” المتقدم من OpenAI. ومع ذلك، أظهرت اختبارات مستقلة أن هذا النموذج الجديد يُعد الأكثر رقابة بين إصدارات DeepSeek، خصوصًا فيما يتعلق بالأسئلة الحساسة المرتبطة بالسياسات الداخلية الصينية.
بحسب منصة “SpeechMap” التي يقودها المطور المستعار “xlr8harder”، فإن R1-0528 يمتنع بشكل كبير عن الإجابة على أسئلة تتعلق بمواضيع تصنّفها الحكومة الصينية على أنها حساسة، مثل السياسات في إقليم شينجيانغ، حيث تُتهم بكين باحتجاز أكثر من مليون من مسلمي الإيغور في معسكرات اعتقال. ورغم أن النموذج أشار أحيانًا إلى تلك المعسكرات كأمثلة على انتهاكات حقوق الإنسان، إلا أنه غالبًا ما يتبنى الرواية الرسمية للحكومة عند سؤاله بشكل مباشر.
ويعود ذلك جزئيًا إلى القوانين الصينية التي دخلت حيز التنفيذ عام 2023، والتي تحظر على النماذج الذكية توليد محتوى يُنظر إليه على أنه يهدد “وحدة البلاد أو الانسجام الاجتماعي”. هذا يدفع الشركات الصينية إلى اعتماد آليات رقابية تشمل التصفية المسبقة للأسئلة أو تدريب النماذج على تجنب الإجابة على تلك المواضيع.
وفي تجربة موازية، لاحظت منصة TechCrunch أن نموذج R1-0528 يرفض بشكل متكرر التعامل مع مواضيع مثل أحداث ميدان تيانانمن أو التعليق المباشر على سياسات الحزب الشيوعي. يُذكر أن نماذج أخرى من الصين مثل “Magi-1″ و”Kling” قد وُجهت إليها انتقادات مماثلة بسبب الرقابة، رغم تفوقها التقني في بعض الجوانب مثل توليد الفيديوهات.
كما أبدى خبراء في مجال الذكاء الاصطناعي، من بينهم المدير التنفيذي لمنصة Hugging Face، كليمان دولانغ، مخاوف من أن الشركات الغربية قد تعتمد على نماذج صينية مفتوحة الأداء دون الانتباه إلى القيود الأيديولوجية المضمّنة داخلها، مما قد يؤدي إلى نقل ممارسات الرقابة إلى منصات غير صينية دون قصد.