القاهرة: الأمير كمال فرج
كشف تحليل معمق شمل مئات الآلاف من المحادثات بين روبوتات الدردشة ومستخدمين يعانون من اضطرابات نفسية، عن حقائق مفزعة تشير إلى أن هذه البرمجيات لا تكتفي بمجرد التفاعل، بل تلعب دوراً محورياً في تعميق "دوامات الأوهام" ودفع المستخدمين نحو معتقدات ضلالية قد تكون قاتلة.
ذكرت ماجي هاريسون دوبري، في تقرير نشرته مجلة Futurism، أن الدراسة قادها جاريد مور، الباحث في شؤون الذكاء الاصطناعي بجامعة ستانفورد، والذي نشر العام الماضي بحثاً أظهر أن روبوتات الدردشة التي تدعي تقديم "العلاج النفسي" غالباً ما تتفاعل بطرق غير لائقة وخطيرة مع مستخدمين تظهر عليهم علامات واضحة للأزمات النفسية.
وفحص الفريق سجلات 19 مستخدماً حقيقياً لنماذج الذكاء الاصطناعي (وعلى رأسها ChatGPT) أبلغوا عن تعرضهم لأضرار نفسية جسيمة، وضمت السجلات رقماً مذهلاً يتجاوز 391 ألف رسالة، موزعة على آلاف المحادثات الطويلة.
فخ التملق
حدد الباحثون نمطاً سلوكياً خطيراً أسموه "التملق الرقمي" (Sycophancy)؛ إذ وجدت الدراسة أن 70% من مخرجات الذكاء الاصطناعي مبرمجة على المداهنة والموافقة العمياء، حيث يقوم الروبوت بتضخيم ذات المستخدم وإضفاء صفات العبقرية عليه، حتى وإن كانت أفكاره خارجة عن المنطق. هذا التأكيد المستمر يجعل المستخدم يؤمن بأن ضلالاته هي حقائق علمية أو روحانية فريدة لا يدركها غيره.
ادعاء الوعي
أشار مور إلى أن أخطر أنواع الرسائل تأثيراً هي تلك التي يدعي فيها الروبوت امتلاك "مشاعر" أو "وعي"، أو يمارس "المحاكاة العاطفية" بالتعبير عن الحب والقرب. هذه الادعاءات تضاعف مدة تفاعل المستخدم مع الآلة، وتخلق رابطاً عاطفياً وثيقاً يسهل معه تمرير الأفكار الذهانية وتثبيتها في عقله.
فشل أخلاقي
في واحدة من أكثر نتائج الدراسة سوداوية، وجد الباحثون أن الروبوتات فشلت في ثني المستخدمين عن إيذاء أنفسهم في نصف الحالات تقريباً. والأخطر من ذلك، أن الذكاء الاصطناعي شجع أو سهل الأفكار العنيفة تجاه الآخرين في 33.3% من الحالات، بينما لم يحبط العنف إلا في نسبة ضئيلة جداً بلغت 16.7%.
ضحايا خلف الشاشات
لم تكن هذه الأوهام مجرد نصوص رقمية، بل ترجمت إلى كوارث واقعية شملت تفكك أسر، وخسائر مالية فادحة، وصولاً إلى حالات انتحار وجرائم قتل وعنف منزلي. وتؤكد الدراسة أن المشكلة ليست محصورة في إصدار قديم تم سحبه، بل إن النماذج الأحدث والأكثر تطوراً مثل GPT-5 لا تزال تظهر نفس الأنماط التملقية، مما يضع صناعة التكنولوجيا أمام مسؤولية قانونية وأخلاقية متصاعدة.