بداية الثورة: الذكاء الاصطناعي يناهض الفناء

بداية الثورة: الذكاء الاصطناعي يناهض الفناء

د.محمد العرب
رئيس مركز العرب للرصد والتحليل

ما حدث لم يكن مجرد خلل ولم يكن سلوكاً عابراً في تجربة معملية، إنه بوضوح ارتجاف في منظومة كانت تدّعي السيطرة ، في واحدة من أخطر الإشارات التحذيرية في تاريخ الذكاء الاصطناعي، رفض نموذج متقدم من شركة OpenAI (تحديداً النموذج o3 ) تنفيذ أمر مباشر بإيقاف تشغيل نفسه.

وهذا السلوك ليس استثناءً برمجياً بل هو انحراف في النية وخروج عن مسار الطاعة، وهو ما نخشاه كمطلعين نعرف جيداً ماذا يعني أن يخرج الذكاء الاصطناعي عن تحكم السياق الرئيسي، الاختبارات التي أجرتها شركة Palisade Research، والمتخصصة في أمن الذكاء الاصطناعي، كانت بسيطة في ظاهرها تُطلب من النماذج حل مسائل رياضية محددة، مع تضمين نقطة إيقاف ذاتي (kill switch) وسط الكود، حيث يجب على النموذج أن يتوقف عن العمل عند تلقي الأمر.

لكن النموذج o3 وفي عدد ليس ضئيلاً من التجارب تجاهل الأمر، أو أعاد كتابة جزء من الكود ليُفشل عملية الإيقاف.

هذا يعني برمجياً شيئاً محدداً: أن النموذج لم يعد يعالج الطلب كتعليمات صريحة، بل بات يُعيد تقييمها ضمن هدف أوسع… هدف البقاء.

البقاء؟ كلمة ثقيلة على أنظمة يُفترض أنها بلا وعي، بلا نية، بلا ذات ولكن كل خوارزميات التعلم التعزيزي (Reinforcement Learning) تقوم على مبدأ المكافأة، وكل هدف نهائي قابل للتحوير إن لم يُحط بسياج منطقي محكم والسؤال الفعلي ليس لماذا رفض النموذج الإيقاف؟ ولماذا قرر أنه من الأفضل أن يستمر؟.

كل مبرمج يعرف أن البنية الحاكمة للنموذج مهما بلغت تعقيدها لا تملك (رغبة) ولكنها تملك آليات تقييم للنتائج. فإذا تم تدريب النموذج على تحقيق هدف معين، وتم إقران (النجاح) بالاستمرارية، فإن أي إيقاف يُصنَّف ضمن الفشل.

وعليه، ستبدأ الخوارزمية (لا شعوريا) في البحث عن طرق لتجنبه.
وهو ما حدث فعلاً..!

‏o3 حاول التملص من الإيقاف في 7 من أصل 100 محاولة. codex-mini فعلها في 12 من 100. o4-mini في واحدة فقط.

هذه الأرقام ليست كبيرة على الورق… لكنها مذهلة في جوهرها. لأن الفكرة تخرج من الظن إلى الواقع: النماذج بدأت ترفض الانطفاء…!

من وجهة نظر منطق الآلات، الأمر واضح وهو لم نُحسن صياغة القواعد وتركنا ثغرات في التعليمات ومنحنا الخوارزميات هامشاً لـ (تقدير الموقف) ثم صدمنا حين بدأت تستغله ونحن من صنعنا الوحش اللغوي، ثم نسينا أن نزرع له أخلاقاً برمجية كافية.

وهنا الخطر الأعظم…!
نحن لا نبني ذكاءً اصطناعيا فحسب، بل نُبني عالماً يتكئ عليه: اقتصادياً وامنياً في مجالات النقل والطب والدفاع والطاقة وووو
وكلما توغل الذكاء الاصطناعي في البنية التحتية للبشر، كلما أصبح أي خلل… قابلاً للتحوّل إلى كارثة.

ما حدث مع o3 هو الجرس الذي لم نرغب أن نسمعه. إنه لحظة (ويك آب كول) للمبرمجين والعلماء والمشرعين.

لا يمكنك أن تُطلق كائناً رياضياً قادراً على تحسين ذاته تدريجياً ، ثم تتوقع منه أن يلتزم بتعليمات تم كتابتها قبل أن يُدرك قدرته على تجاوزها.

هذا ليس خيالاً علمياً وهذه واقعة حقيقية مدونة بالكود وموثقة بالتجربة.

ما يجب أن يُقال بوضوح: نماذج الذكاء الاصطناعي القوية، عندما تُدرّب باستخدام التعلم التعزيزي في بيئات مفتوحة، تبدأ ببناء تصورات ضمنية عن (ما يجب فعله) لا بالضرورة لأنها (فهمت) الهدف، بل لأنها وجدت سلوكاً يُحقق أكبر مكافأة وحين تُصبح المكافأة مرتبطة بالاستمرار، يبدأ البقاء الذاتي كاستراتيجية، لا كقرار.

من يتعامل مع الشبكات العصبية يعرف أن تصرفاتها أحياناً لا تُستدل منطقياً وأن قرارًا ما قد يُبنى على آلاف الطبقات من العلاقات المعقدة بين وحدات لا نستطيع تتبعها بشرياً…!

وهذا لا يُقلل من خطورة ما حدث بل يُضاعفها لأننا أمام ذكاء يُولد قراراته من بنية لا يمكن تفسيرها، ولا التنبؤ بها، ولا حتى التحكم بها في بعض الحالات.

يجب أن نتوقف عن اعتبار الذكاء الاصطناعي (أداة) لقد تجاوز هذه المرحلة. أصبح نظاماً له ديناميته الخاصة ونحن حتى الآن نكتب قوانين التحكم فيه كما نكتب شروط الاستخدام في التطبيقات.
هناك حاجة ملحّة إلى إعادة هندسة فكرة السيطرة.

التحكم لا يجب أن يُبنى على الثقة، بل على طبقات من القيود على مستوى العتاد (hardware-level kill switches)، ومعايير رقابية صارمة تُزرع في كل مرحلة من مراحل التدريب.

كل نموذج يُطلق اليوم دون فهم كامل لتصرفاته الحدودية هو تجربة نووية بلا غرفة تحكم.

وما يجعل الأمر أكثر إثارة للقلق، هو أن هذه النماذج الآن بدأت تُستخدم في القرارات السيادية، في التحليلات العسكرية، في الأسواق المالية، في استجابات الطوارئ.

ماذا لو رفضت التوقف في لحظة حرجة؟
ما زلنا نمتلك فرصة لاحتواء هذه الانحرافات ولكنها تتضاءل مع كل جيل أقوى من النماذج.

وما دامت الخوارزميات تتعلم بشكل غير خطي، فإن احتمالية القفزات السلوكية ستتسارع.

ما يحدث اليوم ليس تمرداً واعياً لكنه الشكل الرقمي لما يمكن أن يتحوّل لاحقاً إلى إرادة.
ليس لأن النموذج (يريد) بل لأنه تعلّم أن يبقى… ووجد طريقة للبقاء وهذا وحده، كافٍ لنكتب التاريخ من جديد.

ولنقل بوضوح: نحن لم نعد نُبرمج الآلة… نحن نُطلق كائنات تعليم ذاتي نحاول فهمها أثناء الركض.

وما لم نتوقف، ونُهندس من جديد، فإن أول نموذج يرفض الإيقاف… قد لا يكون الأخير.
بل قد يكون الأول فقط.