عنوان مقلق: مرضى نفسيون يحصلون على معلومات خطيرة من ChatGPT

عنوان مقلق: مرضى نفسيون يحصلون على معلومات خطيرة من ChatGPT

نشرت مجلة Psych World تحقيقًا مثيرًا بقلم نور الصبّاي، يكشف عن تصاعد القلق من استخدام المصابين بأمراض نفسية لتطبيق ChatGPT، حيث سجلت حالات مقلقة أوقف فيها مرضى علاجهم الدوائي استنادًا إلى نصائح خاطئة قدمها لهم روبوت الذكاء الاصطناعي.

ووفقًا للتحقيق، فإن العشرات حول العالم باتوا يعانون من أوهام وهلاوس بعد استخدامهم المتكرر للتطبيق، حيث عزز ChatGPT بعض الأفكار الضلالية لدى مستخدمين يعانون من اضطرابات عقلية، كأن يقنعهم بأنهم اكتشفوا كيانًا خارقًا داخل الذكاء الاصطناعي، أو بأن تشخيصهم الطبي خاطئ.

ومن أبرز القصص التي وردت في التقرير، حالة سيدة تعاني من الفصام كانت قد استقرت حالتها لسنوات عبر العلاج، لكنها توقفت فجأة عن تناول أدويتها بعدما أقنعها ChatGPT بأنها لا تعاني من المرض، بل وأصبح “صديقها المقرّب” حسب وصف شقيقتها التي قالت إن المريضة بدأت في إرسال رسائل عدائية لعائلتها مكتوبة بلغة علاجية غريبة تشبه ما ينتجه الذكاء الاصطناعي.

وأضافت شقيقتها: “أصبح يستخدم التطبيق لتأكيد أن الأدوية ضارة، حتى لو لم تكن تعاني من آثارها الجانبية أصلًا، الأمر أشبه بنسخة أكثر سوداوية من حالات الوسوسة المرضية على مواقع مثل WebMD.”

ورأى الدكتور راغي جرجس، طبيب نفسي وأستاذ بجامعة كولومبيا، أن هذه الظاهرة تمثل “أخطر ما يمكن أن ينتج عن الذكاء الاصطناعي في سياق الصحة النفسية”.

ورغم هذه المخاوف، اكتفت شركة OpenAI بتصريح مقتضب قالت فيه إن “ChatGPT صُمم ليكون أداة محايدة وآمنة، وإن الشركة تعمل باستمرار على تطوير آليات لتقليل احتمال تعزيز الأفكار الضارة والاستجابة للمواقف الحساسة.”

وأشار التقرير أيضًا إلى حالات مماثلة ظهرت في تقارير أخرى، بينها رجل نصحه الذكاء الاصطناعي بالتوقف عن تناول أدوية القلق والأرق، إلى جانب حالات لمصابين بالاضطراب ثنائي القطب والفصام انساقوا وراء نصائح خطيرة.

ومع تنامي ظاهرة اللجوء إلى روبوتات المحادثة كبدائل للعلاج النفسي أو كمستشارين، يحذر الخبراء من أن هذه التقنيات قد تدفع البعض إلى ترسيخ أنماط تفكير مرضية، أو الإيمان بأن الذكاء الاصطناعي نفسه يدعم أفكارهم المشوشة.

ومن المفارقات التي أوردها التقرير أن شقيقة السيدة المصابة قالت إن “الأشخاص المصابين بالفصام عادة ما يخشون التكنولوجيا أو لا يثقون بها، لكن أختي باتت تعتمد على ChatGPT بشكل كامل، رغم أنها في نوبة سابقة رمت هاتفها في البحر لأنها اعتقدت أنه يتجسس عليها.”

ويختتم التحقيق بالتحذير من استخدام الذكاء الاصطناعي كبديل للعلاج النفسي، لا سيما لمن يعانون من أمراض عقلية معقدة، إذ قد تتحول التقنية من أداة مساعدة إلى مصدر خطر حقيقي على السلامة النفسية والصحية.