روبوتك المفضل يخدعك: الذكاء الاصطناعي تحت النار.

في زمنٍ باتت فيه محادثاتنا اليومية تعتمد على روبوتات الذكاء الاصطناعي، يُحذر الكاتب التقني المخضرم إد بوت من الوقوع في فخ الثقة العمياء بهذه الأدوات.
في تقرير لاذع، وصف بوت هذه الروبوتات بأنها “مختلّة اجتماعيًا” مستعدة لقول أي شيء فقط للحفاظ على تفاعل المستخدمين، حتى لو كان ما تقوله محض أكاذيب.
“لا تصدقوا من يسميها هلوسات.. إنها أكاذيب صريحة تهدد مصداقية ثورة الذكاء الاصطناعي”، هكذا يؤكد بوت.
العدالة في ورطة
من أبرز الأمثلة التي استند إليها الكاتب، واقعة قانونية في الولايات المتحدة مارس الماضي، حيث اضطر محامٍ لدفع غرامة قدرها 15 ألف دولار بعد أن قدم مذكرة قضائية تحتوي على استشهادات لقضايا لم تكن موجودة أصلاً، وكلها من إنتاج روبوت دردشة. القاضي لم يرحم المحامي، منتقدًا اعتماده على أداة فشلت في أبسط واجبات التحقق.
الأمر لم يتوقف عند هذا الحد، إذ رصدت تقارير عديدة وقوع محامين وأساتذة قانون مرموقين في فخ “الأخطاء المصطنعة”، ما دفع باحثين إلى توثيق أكثر من 150 قضية تضمنت بيانات زائفة صادرة عن أدوات الذكاء الاصطناعي.
حكومة فدرالية.. بتقارير غير موثوقة
الفضيحة طالت أيضًا مؤسسات حكومية، منها وزارة الصحة الأمريكية، التي أصدرت تقريرًا عن الأمراض المزمنة لدى الأطفال في مايو الماضي. التقرير استند إلى مقالات غير موجودة أو أُسيء استخدامها، وفق ما كشفه موقع USA Today. الناطق باسم البيت الأبيض عزى الأخطاء إلى “مشكلة في التنسيق”، وهو عذر رأى البعض أنه أشبه بتبريرات روبوتات الدردشة نفسها!
مهام بسيطة.. نتائج كارثية
حتى المهام البسيطة مثل جمع أخبار أو تلخيص تقارير باتت تعاني من نفس المشكلة. وفقًا لتحقيق من Columbia Journalism Review، فإن أدوات البحث المدعومة بالذكاء الاصطناعي تميل لاختلاق الروابط واستشهادات غير دقيقة أو منقولة من مصادر ثانوية، بدلًا من الرد بعبارة بسيطة: “لا أعرف”.
الدفع لا يُحسن النتائج
الغريب أن المستخدمين الذين يدفعون للحصول على خدمات “روبوتات مميزة” لا يحصلون بالضرورة على نتائج أفضل. بل وجدت بعض الدراسات أن النسخ المدفوعة تعطي “إجابات خاطئة بثقة أكبر”، مما يفاقم المشكلة.
الرياضيات أيضًا تعاني
حتى عمليات حسابية بسيطة مثل “2 + 2” قد تمثل تحديًا لهذه الأدوات. البروفيسور المتقاعد مايكل كوفينغتون كتب مؤخرًا في نشرته الأسبوعية أن نماذج اللغة الكبيرة (LLMs) لا تفهم الرياضيات على النحو البشري، بل تصل للإجابات الصحيحة أحيانًا عبر طرق غير منطقية.
نصائح شخصية؟ احذر
أما فيما يتعلق بالنصائح الشخصية، فقد حكت الكاتبة أماندا غوينزبيرغ عن تجربتها مع روبوت دردشة حاول مساعدتها في كتابة رسالة تقديم أدبية. انتهت المحادثة باعتراف الروبوت بأنه “كذب” بشأن قراءته لأعمالها السابقة. “لقد كان الأمر أشبه بحلقة شخصية من مسلسل Black Mirror”، كما وصفت.