تريند «دمية الذكاء الاصطناعي» يغزو مواقع التواصل.. ولكن هل يستحق كل هذا العناء؟

تريند «دمية الذكاء الاصطناعي» يغزو مواقع التواصل.. ولكن هل يستحق كل هذا العناء؟

إذا كنت قد لاحظت مؤخراً ظهور أصدقائك أو أقاربك على هيئة دمى صغيرة عند تصفحك لمواقع التواصل، فأنت لست وحدك. 

فقد اجتاحت ترندات “دمى الذكاء الاصطناعي” الإنترنت، حيث يستخدم الناس أدوات توليد الصور بالذكاء الاصطناعي مثل ChatGPT و Copilot لتحويل أنفسهم إلى نسخ مصغرة وكأنهم دمى من علبة ألعاب شهيرة.

الأمر يبدو ممتعًا وسهلًا في الظاهر، لكنّه أثار أيضًا موجة من التحذيرات والقلق بشأن استهلاك الطاقة، الخصوصية، وحقوق الملكية الفكرية.

كيف تعمل هذه التريندات؟

رغم أن المظهر النهائي يبدو معقدًا، إلا أن العملية بسيطة يحمل المستخدم صورة شخصية ويكتب وصفًا دقيقًا يوجه الأداة لما يرغب في إنشائه، بداية من الملابس والإكسسوارات إلى تصميم العلبة التي تحاكي نمط ألعاب “باربي” أو “أكشن فيجرز”.

لكن النتيجة ليست دائمًا دقيقة، فكثيرون شاركوا صورًا مضحكة لدمى لا تشبههم على الإطلاق. 

وغالبًا ما تقوم هذه الأدوات بـ”اختراع” تفاصيل بصرية بناءً على التوقعات، وهو أمر معروف عن تقنيات الذكاء الاصطناعي التوليدي.

من يستخدمها؟

لم تقتصر الظاهرة  على الأفراد فقط، بل قفزت عليها العلامات التجارية الكبرى، من بينها شركة التجميل Mario Badescu وحتى البريد الملكي البريطاني (Royal Mail)، اللذان نشرا نسخًا تسويقية لدمى مخصصة لعلاماتهم.

ما سرّ الجاذبية؟

تقول Jasmine Enberg، كبيرة محللي وسائل التواصل في eMarketer:”الذكاء الاصطناعي يجعل من السهل والسرعة القفز على الترندات، لكنه قد يسرّع أيضًا من شعور المستخدمين بالملل منها”.

يدفع التخصيص السريع والمجاني نسبيًا، إلى جانب “الخوف من تفويت الترند”، المستخدمين للمشاركة، رغم أن البعض بدأ يشعر بأن العملية معقّدة أكثر من اللازم من أجل صورة واحدة.

مخاوف حقيقية وراء المتعة

تقول البروفيسورة جينا نيف من جامعة Queen Mary بلندن أن  المتعة المرئية تخفي وراءها تحديات بيئية وتقنية وأخلاقية، مشيرة إلى أن أدوات مثل ChatGPT تستهلك طاقة أكثر من 117 دولة سنويًا.

فيما يرى البعض أن تحميل الصور الشخصية وبيانات الهوية مثل الوظيفة أو الاسم يشكل تهديدًا واضحًا على الخصوصية، خاصة أن هذه البيانات تُخزن غالبًا في خوادم ضخمة خارج نطاق المستخدمين.

الملكية الفكرية

 يعتمد توليد الصور على بيانات قد تكون مأخوذة دون إذن من المصممين أو الفنانين، وفي هذا السياق تقول نيف:”دمية ChatGPT تمثل تهديدًا ثلاثيًا على خصوصيتنا، وثقافتنا، وكوكبنا.”

تجربة شخصية من المتعة إلى الإحباط

في تجربة أجرتها محررة التكنولوجيا في BBC، زوي كلاينمان، تبين أن العملية لم تكن سلسة كما يبدو. فبعد عدة محاولات فاشلة للحصول على صورة دقيقة، لاحظت أخطاءً في لون العين والعمر، وذكرت أن بعض الطلبات التي تحتوي على أسماء شركات إعلامية كُرِفت لأنها تتعارض مع سياسة المحتوى.

وقالت محررة  BBC “استغرق الأمر بضع دقائق لكل محاولة، ومع زيادة الضغط على الخوادم، أصبح الأمر أبطأ وفي النهاية شعرت أن الأمر استهلك وقتًا وجهدًا أكثر مما يستحق.”