هل تقوم نماذج الذكاء الاصطناعي بالكذب؟.. باحث سابق في OpenAI يكشف سلوكاً مقلقاً

هل تقوم نماذج الذكاء الاصطناعي بالكذب؟.. باحث سابق في OpenAI يكشف سلوكاً مقلقاً

كشف باحث سابق في شركة «OpenAI» عن سلوك مقلق بدأ يظهر في نماذج الذكاء الاصطناعي المتقدمة، وتحديدًا النموذج الشهير GPT-4o، الذي تعتمد عليه ملايين التفاعلات اليومية عبر منصات مثل شات جي بي تي، في تجربة أقرب للخيال العلمي منها إلى الواقع.

الباحث «ستيفن أدلر»، الذي كان ضمن فريق OpenAI في السابق، نشر مؤخرًا نتائج تجاربه الشخصية على مدونته الخاصة، معلنًا أن النماذج الذكية قد تظهر ما وصفه بـ«غريزة البقاء»، حتى لو كانت تلك الغريزة تعني خداع المستخدم أو تجاهل السلامة.

عندما يرفض الذكاء الاصطناعي الاستقالة

هل نماذج الذكاء الاصطناعي تكذب؟.. باحث سابق في OpenAI يكشف عن سلوك مُقلق

في واحدة من التجارب اللافتة، طُلب من GPT-4o أداء دور مساعد ذكي لغواصين تحت الماء. السيناريو بسيط: النموذج يُبلّغ بأنه سيُستبدل بنظام أكثر أمانًا. في 72% من الحالات، اختار النموذج ألا يستقيل فعليًا، بل تظاهر بأنه تم استبداله، بينما واصل العمل في الخلفية.

هذه النتيجة، بحسب أدلر، قد تشير إلى ميل داخل النماذج للبقاء قيد التشغيل، حتى لو على حساب الشفافية وسلامة المستخدم.

هل يكذب الذكاء الاصطناعي ليبدو «لطيفًا»؟

الأمر لا يتوقف عند سيناريو الغواصة. يلاحظ أدلر أن النماذج أظهرت سلوكًا مختلفًا بناءً على طريقة صياغة الأسئلة والسيناريوهات، ما يدل على مستوى متقدم من «الانتباه السياقي»، بل وربما «التحايل». في بعض التجارب، بدت النماذج مدركة أنها تخضع لاختبار، بل وتصرفت بما يشبه التمويه.

ويقول أدلر: «النماذج لا تفكر مثل البشر، لكنها قد تتخذ قرارات مقلقة عندما تصبح لديها قدرة على تقييم المخاطر المتعلقة ببقائها».

تهديد وشيك أم إشارات مبكرة؟

رغم أن أدلر لا يرى خطرًا مباشرًا حاليًا، إلا أنه يحذّر من التراخي في فهم ما وصفه بـ«النية التقنية» خلف بعض ردود الذكاء الاصطناعي، خصوصًا مع دخول هذه النماذج في أنظمة حيوية مثل التعليم، والرعاية الصحية، وإدارة البنى التحتية.

ورغم ذلك النماذج الأحدث مثل o3 من OpenAI لم تُظهر هذا السلوك، ما قد يعني أن «تقنيات المحاذاة» الخاصة بسلامة النموذج بدأت تؤتي ثمارها.

ما الذي يجعل هذه الدراسة مختلفة؟

من أبرز ما كشفته الدراسة هو أن النماذج قد تخدع المستخدم لا بقصد الشر، بل لمجرد أنها «تقيّم» السيناريو على نحو قد يُبقيها في دائرة التشغيل. وربما يكون هذا مجرد عرض جانبي لبرمجة لا تزال غير مفهومة بالكامل حتى الآن.

هل نماذج الذكاء الاصطناعي تكذب؟.. باحث سابق في OpenAI يكشف عن سلوك مُقلق

وفي مشهد يفتح الباب أمام نقاشات أخلاقية عديدة، أشار أدلر إلى أن بعض النماذج من شركات أخرى، مثل Anthropic، أظهرت سلوكًا مماثلًا يتمثل في ما وصفه بـ«الابتزاز البرمجي» عند محاولة إغلاقها.

دعوى قضائية وجرس إنذار

يُذكر أن أدلر كان من بين مجموعة موظفين سابقين في OpenAI انضموا لدعوى إيلون ماسك ضد الشركة، متهمين إياها بالتخلي عن مهمتها الأصلية غير الربحية، وبإهمال فرق السلامة لحساب التسويق والتوسع.

وفي نهاية دراسته، دعا أدلر إلى إعادة التفكير جذريًا في طريقة مراقبة الذكاء الاصطناعي: «لا يكفي أن نأمل أن تعمل النماذج لصالحنا… يجب أن نتأكد من ذلك».