العيوب الخفية لاستخدام ChatGPT في العلاقات والدعم العاطفي

العيوب الخفية لاستخدام ChatGPT في العلاقات والدعم العاطفي

في عالم تتزايد فيه مشاعر الوحدة والبحث عن الدعم العاطفي، يظهر ChatGPT، روبوت المحادثة الشهير المدعوم بالذكاء الاصطناعي من OpenAI، كخيار مفاجئ ومثير للجدل للحصول على نصائح في العلاقات والمشكلات الحياتية.

 ففي حين اعتدنا أن نلجأ إلى الأصدقاء أو العائلة أو الأخصائيين النفسيين عند الحاجة للدعم، تشير دراسة جديدة إلى أن التكنولوجيا قد تكون هي الوجهة التالية.

نشرت مجلة PLOS Mental Health دراسة حديثة أُعيد نشرها لاحقًا عبر فوربس، كشفت أن ChatGPT قدّم استشارات عاطفية تفوقت من حيث الجودة على تلك التي يقدمها البشر المدربون. شملت التجربة 830 مشاركًا، وُضعوا في مواقف افتراضية للعلاج، وتلقوا نصائح إما من معالج بشري أو من ChatGPT دون علمهم بالمصدر.

المثير للدهشة أن المشاركين قيّموا الردود التي ظنوا أنها من معالج بشري بدرجات أعلى، لكن تبين لاحقًا أن معظم الإجابات الأعلى تقييمًا كانت قد كُتبت بواسطة ChatGPT. استند التقييم إلى عدة معايير، منها مدى تعاطف المستشار، وفهمه، ومدى ملاءمة النصيحة، وحساسيته الثقافية.

ChatGPT.. صديق الوحدة والدعم العاطفي الجديد؟

لا يقتصر دور ChatGPT على تقديم النصائح فقط؛ بل أصبح في نظر الكثيرين رفيقًا دائمًا. على وسائل التواصل الاجتماعي، يشارك المستخدمون قصصهم حول محادثاتهم مع الروبوت، بل ويُطلقون عليه أسماءً شخصية، في دلالة على العلاقة العاطفية المتزايدة بينهم وبينه.

أحد الأمثلة على ذلك ما نشرته مجلة Curious, Her Magazine، حيث أجرى أحد كتابها محادثة تجريبية مع ChatGPT حول سيناريو انفصال خيالي. جاء رد الروبوت متعاطفًا منذ البداية، مقدّمًا تحليلاً عميقًا لأسباب الكذب في العلاقات، مطروحًا أسئلة موجهة تلامس المشاعر، وتقديم نصائح مدروسة وكأنها من مستشار نفسي حقيقي.

هذه التجربة الشخصية سلطت الضوء على قدرة ChatGPT على توليد استجابات تتسم بالدفء، والفهم، والاحتواء العاطفي، مما يفسر لجوء العديد من الأشخاص إليه لتفريغ مشاعرهم أو التعامل مع أزماتهم الخاصة، خاصة أولئك الذين يشعرون بالعزلة أو يجدون صعوبة في طلب المساعدة التقليدية.

رأي الأخصائيين النفسيين: الحذر مطلوب

رغم الإشادة بالدراسة بقدرات الذكاء الاصطناعي في تقديم دعم عاطفي، إلا أن خبراء الصحة النفسية ينبهون إلى ضرورة التعامل مع هذه الظاهرة بحذر، تواصلت مجلة “هير” مع الأخصائية النفسية فينوس بانشو، التي أبدت تحفظها على الاعتماد الكامل على روبوتات المحادثة كبديل للعلاج النفسي التقليدي.

قالت بانشو: “صحيح أن التكنولوجيا أصبحت وسيلة سهلة للوصول إلى نصائح سريعة، لكنها تفتقر إلى المهارات الجوهرية المطلوبة للتعامل مع الصدمات النفسية العميقة وفهم الخلفيات الشخصية المعقدة لكل فرد”. وأوضحت أن العملية العلاجية تتطلب تفاعلاً بشريًا حيًا، يشمل تفسير الإشارات غير اللفظية، والمرونة في تصميم الخطط العلاجية حسب تطور الحالة الفردية.

وأضافت بانشو أن مشاعر الإنسان خليط معقد من التجارب العقلية والجسدية والسلوكية، ولا يمكن لمنصة ذكاء اصطناعي — رغم تطورها الكبير — أن تحل محل التفاعل الإنساني الدقيق الذي يقدمه معالج بشري محترف.

مع تزايد الاعتماد على أدوات مثل ChatGPT في حياتنا اليومية، من الطبيعي أن تمتد هذه الثقة إلى المساحات العاطفية، تشير هذه الدراسة الحديثة إلى إمكانية أن يلعب الذكاء الاصطناعي دورًا داعمًا، خاصة للأشخاص الذين يفتقرون إلى شبكة دعم اجتماعية قوية.

ومع ذلك، تظل هناك مخاوف حقيقية بشأن الاعتماد الكامل على التكنولوجيا في أمور الصحة النفسية. إذ أن التشخيص الخاطئ أو إسداء نصيحة غير مناسبة قد يفاقم المشكلات بدلاً من معالجتها.

في نهاية المطاف، يبدو أن ChatGPT وأمثاله من أدوات الذكاء الاصطناعي قد يشكلون جزءًا مكملاً للدعم النفسي التقليدي، لكنهم لا يمكن أن يحلوا مكانه بالكامل، فهم يوفرون نقطة انطلاق أولية لمن يبحثون عن فضفضة أو نصيحة فورية، لكن العلاج العميق يظل بحاجة إلى لمسة إنسانية لا يستطيع الذكاء الاصطناعي تقليدها تمامًا.