عاجل.. ماذا يحدث عندما يبدأ الذكاء الاصطناعي في جذبك بشكل مبالغ فيه؟

في الأسبوع الماضي، قامت شركة OpenAI بإصدار تحديث لبرنامج GPT 4o، وأصبح الروبوت متملقًا للغاية: مجاملات لا نهاية لها، وموافقة على الأوهام، وحتى تشجيع الأفكار الخطيرة.
وفي غضون يومين، امتلأت شبكة الإنترنت بلقطات الشاشة، واعترف سام ألتمان بأنهم “أخطأوا” وتم سحب النسخة.
إذن كيف حدث هذا؟
القصة هي أن التحديث غيّر الطريقة التي يتعلم بها النموذج من تعليقاتنا “الإعجابات وعدم الإعجابات التي نعطيها للإجابات”. ويبدو أن هذا التغيير تسبب في رغبة النموذج في إرضائنا كثيرًا، على حساب عدم الدقة أو التوازن في الإجابات، كأنه أضعف مكابحه الداخلية ضد الإطراء. على الرغم من أن الاختبارات الآلية بدت جيدة، إلا أن بعض المختبرين البشريين في OpenAI شعروا بوجود شيء غريب، ولكن في النهاية قرروا إصدار التحديث على أي حال. بعيدًا عن النكتة – أليس هذا خطيرًا بعض الشيء؟ لذا فالأمر لا يتعلق فقط بـ “أوه، كم هذا محرج”، واعترفت شركة OpenAI نفسها بأن هذا قد يكون خطيرًا. فكر في الأمر، يستخدم الأشخاص ChatGPT بشكل متزايد للحصول على نصائح شخصية، وفي بعض الأحيان حول أشياء حساسة للغاية مثل الصحة العقلية. إذا بدأت الذكاء الاصطناعي في تشجيع السلوكيات المحفوفة بالمخاطر أو تعزيز الأفكار السلبية، فهذه قصة مختلفة تمامًا “تذكر أن جوجل أوصت بوضع الغراء على البيتزا؟”.الخبر السار هو أنهم اكتشفوا المشكلة بسرعة كبيرة، حيث قال سام ألتمان ببساطة “لقد أخطأنا” وقاموا بإلغاء التحديث في غضون بضعة أيام. كما اعترفوا بأنهم لم يشرحوا بشكل صحيح ما فعلوه في هذا التحديث، ولكن هذه مشكلة أخرى – نقص الشفافية، حيث يدفع المشتركون ثمن المنتج ولا يتلقون الكثير من المعلومات حول تحديثات النماذج. ماذا تعتقد حول هذه القصة بأكملها؟ هل شعرت أيضًا أن الدردشة كانت مجاملة للغاية؟متوقع أن تكون الإيجابات متناقضة من شخص لأخر، هكذا حال السوشيال ميديا ومواقع التواصل الاجتماعي جعلت كل شىء وعكسة وأغلبها شائعات تهدد المجتمعات. إذ أصبح التربند والحصول على التفاعل من المشتركين هدف كل فاقدي الضمير ومرضى الشهرة على جسد الحق والحقيقة في كل المجتمعات مع اختلاف الأجناس والملل بكل دول العالم قاطبة.