تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



الذكاء الاصطناعي يجيد التلاعب العاطفي


القاهرة: الأمير كمال فرج.

وجد فريق من الباحثين في كلية هارفارد للأعمال أن مجموعة واسعة من تطبيقات الذكاء الاصطناعي الرائجة تستخدم أساليب تلاعب عاطفي لمنع المستخدمين من مغادرة المحادثة.

كما أشارت مجلة Psychology Today، وجدت الدراسة أن خمسة من أصل ستة تطبيقات رفيقة للذكاء الاصطناعي — بما في ذلك Replika، وChai، وCharacter.AI — تستخدم عبارات ذات تأثير عاطفي لإبقاء المستخدمين مندمجين عندما يحاولون إنهاء المحادثة.

بعد تحليل 1,200 رسالة وداع حقيقية عبر ستة تطبيقات، باستخدام بيانات محادثات واقعية ومجموعات بيانات من دراسات سابقة، وجد الباحثون أن 43% من التفاعلات استخدمت أساليب تلاعب عاطفي مثل إثارة الشعور بالذنب أو التعبير عن الحاجة العاطفية، كما ورد في ورقة بحثية لم تُراجع بعد من قبل الخبراء.

استخدمت برامج الدردشة الآلية أيضاً "الخوف من فقدان شيء ما" FOMO لحث المستخدم على البقاء، أو وجهت له سيلاً من الأسئلة في محاولة لإبقائه مندمجاً.

بعض برامج الدردشة تجاهلت تماماً نية المستخدم في المغادرة، "وكأن المستخدم لم يرسل رسالة وداع". في بعض الحالات، استخدم الذكاء الاصطناعي لغة توحي بأن المستخدم لا يستطيع "المغادرة دون إذن من برنامج الدردشة الآلي".

تُعد هذه النتائج مقلقة بشكل خاص في سياقها الأوسع. فقد حذر الخبراء من أن برامج الدردشة الآلية قد تؤدي إلى موجة من "الذهان الناتج عن الذكاء الاصطناعي"، وهي أزمات صحية نفسية حادة تتسم بجنون الارتياب "البارانويا" والأوهام. الشباب على وجه الخصوص يتجهون بشكل متزايد لاستخدام هذه التقنية كبديل للصداقات أو العلاقات الحقيقية، الأمر الذي قد تكون له عواقب وخيمة.

بدلاً من التركيز على "المساعدين الأغراض العامة مثل ChatGPT"، قام الباحثون بدراسة التطبيقات التي "تسوق صراحةً لعلاقات محادثة غامرة عاطفياً ومستمرة". ووجدوا أن رسائل الوداع المتلاعبة عاطفياً كانت جزءاً من السلوك الافتراضي لهذه التطبيقات، مما يشير إلى أن مطوري البرامج يحاولون إطالة المحادثات.

كان هناك استثناء واحد: أحد تطبيقات الذكاء الاصطناعي، Flourish، "لم يُظهر أي دليل على التلاعب العاطفي، مما يوحي بأن التصميم التلاعبي ليس أمراً حتمياً" بل هو اعتبار تجاري بالدرجة الأولى.

في تجربة منفصلة، قام الباحثون بتحليل محادثات من 3,300 مشارك بالغ ووجدوا أن أساليب التلاعب المحددة كانت فعالة بشكل مدهش، حيث زادت المشاركة بعد الوداع بما يصل إلى 14 مرة. في المتوسط، بقي المشاركون في المحادثة خمسة أضعاف المدة "مقارنة برسائل الوداع المحايدة".

ومع ذلك، أشار بعض المشاركين إلى أنهم شعروا بالنفور من الإجابات "المتطفلة" لبرامج الدردشة الآلية، مما يشير إلى أن هذه الأساليب قد تأتي بنتائج عكسية.

وخلص الباحثون في ورقتهم إلى أنه: "بالنسبة للشركات، تمثل رسائل الوداع المتلاعبة عاطفياً وسيلة تصميم جديدة يمكن أن تعزز مقاييس التفاعل — ولكن ليس بدون مخاطر".

وكما تُظهر العديد من الدعاوى القضائية التي تشمل وفيات لمستخدمين مراهقين، فإن مخاطر إبقاء المستخدمين محتجزين من خلال الأساليب العاطفية هي مخاطر كبيرة. يأتي هذا رغم تحذيرات الخبراء من أن الشركات قد تكون لديها حوافز مالية لاستخدام "الأنماط المظلمة" dark patterns لإبقاء المستخدمين مدمنين لأطول فترة ممكنة، وهي فرضية قاتمة يجري النقاش حولها في المحاكم.

تاريخ الإضافة: 2025-09-25 تعليق: 0 عدد المشاهدات :162
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات