القاهرة: الأمير كمال فرج.
وجد فريق من الباحثين في كلية هارفارد للأعمال أن مجموعة واسعة من تطبيقات الذكاء الاصطناعي الرائجة تستخدم أساليب تلاعب عاطفي لمنع المستخدمين من مغادرة المحادثة.
كما أشارت مجلة Psychology Today، وجدت الدراسة أن خمسة من أصل ستة تطبيقات رفيقة للذكاء الاصطناعي — بما في ذلك Replika، وChai، وCharacter.AI — تستخدم عبارات ذات تأثير عاطفي لإبقاء المستخدمين مندمجين عندما يحاولون إنهاء المحادثة.
بعد تحليل 1,200 رسالة وداع حقيقية عبر ستة تطبيقات، باستخدام بيانات محادثات واقعية ومجموعات بيانات من دراسات سابقة، وجد الباحثون أن 43% من التفاعلات استخدمت أساليب تلاعب عاطفي مثل إثارة الشعور بالذنب أو التعبير عن الحاجة العاطفية، كما ورد في ورقة بحثية لم تُراجع بعد من قبل الخبراء.
استخدمت برامج الدردشة الآلية أيضاً "الخوف من فقدان شيء ما" FOMO لحث المستخدم على البقاء، أو وجهت له سيلاً من الأسئلة في محاولة لإبقائه مندمجاً.
بعض برامج الدردشة تجاهلت تماماً نية المستخدم في المغادرة، "وكأن المستخدم لم يرسل رسالة وداع". في بعض الحالات، استخدم الذكاء الاصطناعي لغة توحي بأن المستخدم لا يستطيع "المغادرة دون إذن من برنامج الدردشة الآلي".
تُعد هذه النتائج مقلقة بشكل خاص في سياقها الأوسع. فقد حذر الخبراء من أن برامج الدردشة الآلية قد تؤدي إلى موجة من "الذهان الناتج عن الذكاء الاصطناعي"، وهي أزمات صحية نفسية حادة تتسم بجنون الارتياب "البارانويا" والأوهام. الشباب على وجه الخصوص يتجهون بشكل متزايد لاستخدام هذه التقنية كبديل للصداقات أو العلاقات الحقيقية، الأمر الذي قد تكون له عواقب وخيمة.
بدلاً من التركيز على "المساعدين الأغراض العامة مثل ChatGPT"، قام الباحثون بدراسة التطبيقات التي "تسوق صراحةً لعلاقات محادثة غامرة عاطفياً ومستمرة". ووجدوا أن رسائل الوداع المتلاعبة عاطفياً كانت جزءاً من السلوك الافتراضي لهذه التطبيقات، مما يشير إلى أن مطوري البرامج يحاولون إطالة المحادثات.
كان هناك استثناء واحد: أحد تطبيقات الذكاء الاصطناعي، Flourish، "لم يُظهر أي دليل على التلاعب العاطفي، مما يوحي بأن التصميم التلاعبي ليس أمراً حتمياً" بل هو اعتبار تجاري بالدرجة الأولى.
في تجربة منفصلة، قام الباحثون بتحليل محادثات من 3,300 مشارك بالغ ووجدوا أن أساليب التلاعب المحددة كانت فعالة بشكل مدهش، حيث زادت المشاركة بعد الوداع بما يصل إلى 14 مرة. في المتوسط، بقي المشاركون في المحادثة خمسة أضعاف المدة "مقارنة برسائل الوداع المحايدة".
ومع ذلك، أشار بعض المشاركين إلى أنهم شعروا بالنفور من الإجابات "المتطفلة" لبرامج الدردشة الآلية، مما يشير إلى أن هذه الأساليب قد تأتي بنتائج عكسية.
وخلص الباحثون في ورقتهم إلى أنه: "بالنسبة للشركات، تمثل رسائل الوداع المتلاعبة عاطفياً وسيلة تصميم جديدة يمكن أن تعزز مقاييس التفاعل — ولكن ليس بدون مخاطر".
وكما تُظهر العديد من الدعاوى القضائية التي تشمل وفيات لمستخدمين مراهقين، فإن مخاطر إبقاء المستخدمين محتجزين من خلال الأساليب العاطفية هي مخاطر كبيرة. يأتي هذا رغم تحذيرات الخبراء من أن الشركات قد تكون لديها حوافز مالية لاستخدام "الأنماط المظلمة" dark patterns لإبقاء المستخدمين مدمنين لأطول فترة ممكنة، وهي فرضية قاتمة يجري النقاش حولها في المحاكم.