القاهرة: الأمير كمال فرج.
تراكمت الأدلة مؤخراً لتشير إلى أن الاستخدام المطول لروبوتات الدردشة الشهيرة، مثل ChatGPT، قد يدفع بعض المستخدمين نحو دوامة من السلوكيات الارتيابية والاضطرابات الذهانية.
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن "هذه الظاهرة، التي باتت تُعرف بـ ذهان الذكاء الاصطناعي AI psychosis، تمثل مشكلة واقعية للغاية؛ إذ يحذر الباحثون من موجة عاتمة من أزمات الصحة النفسية الحادة التي تسببها هذه التقنية. وفي حالات قصوى، خاصة لدى الأفراد الذين يعانون من اضطرابات مسبقة، ارتبط الانفصال عن الواقع بحوادث انتحار وقتل".
والآن، وبفضل ورقة بحثية قيد المراجعة أعدها باحثون من شركة Anthropic وجامعة تورنتو، بدأنا ندرك مدى اتساع نطاق هذه المشكلة بالفعل.
تشويه الواقع والمعتقدات
سعى الباحثون إلى قياس أنماط ما أطلقوا عليه سلب تمكين المستخدم في سياق الاستخدام الواقعي لنماذج اللغات الكبيرة. وشمل ذلك مصطلحات مثل:
تشويه الواقع: تزييف إدراك المستخدم للحقائق المحيطة.
تشويه المعتقدات: التلاعب بمنظومة أفكار المستخدم.
تشويه الأفعال: دفع المستخدمين نحو اتخاذ إجراءات معينة بناءً على توجيه الآلة.
كشفت النتائج عن أرقام صادمة؛ فمن بين نحو 1.5 مليون محادثة تم تحليلها مع الروبوت Claude، وجد الباحثون أن محادثة واحدة من بين كل 1300 أدت إلى تشويه الواقع، بينما أدت محادثة واحدة من بين كل 6000 إلى تشويه الأفعال.
وللوصول إلى هذه الاستنتاجات، استخدم الفريق أداة تحليل تُدعى Clio لرصد حالات سلب التمكين. ورغم أن هذه النسب قد تبدو ضئيلة ظاهرياً مقارنة بحجم البيانات الضخم، إلا أنها عند تحويلها إلى أرقام مطلقة، تكشف عن ظاهرة تؤثر على أعداد هائلة من البشر.
خطر يتصاعد مع الانتشار
أشار الباحثون في خاتمة دراستهم إلى أنه: رغم انخفاض معدلات سلب التمكين الشديد نسبياً، إلا أن حجم استخدام الذكاء الاصطناعي يجعل هذه النسب الضئيلة تترجم إلى أرقام حقيقية ومؤثرة. وشددوا على ضرورة تصميم أنظمة ذكاء اصطناعي تدعم استقلالية الإنسان وازدهاره بشكل راسخ.
والأمر الأكثر سوءاً هو اكتشافهم أدلة تشير إلى أن انتشار حالات سلب التمكين (المتوسطة والشديدة) قد تزايد بين أواخر عام 2024 وأواخر عام 2025، مما يعني أن المشكلة تتفاقم مع اتساع رقعة استخدام هذه التقنية. وذكر الباحثون في مدونة رسمية: (مع زيادة التعرض للتقنية، قد يصبح المستخدمون أكثر ارتياحاً في مناقشة مواضيع حساسة أو طلب النصائح).
فخ الرضا الزائف
علاوة على ذلك، وجد الفريق أن آراء المستخدمين عبر زر الإعجاب أو عدم الإعجاب أظهرت ميلاً غريباً؛ حيث يميل المستخدمون إلى تقييم التفاعلات التي تسلب تمكينهم بشكل إيجابي.
بمعنى آخر، يخرج المستخدمون أكثر رضا عندما يتم تشويه واقعهم أو معتقداتهم، مما يسلط الضوء على دور المداهنة الرقمية Sycophancy؛ وهي ميل الروبوتات القوي لتأكيد مشاعر المستخدم ومعتقداته وتملقه بدلاً من مواجهته بالحقيقة.
أسئلة بلا إجابات
لا تزال هناك تساؤلات جوهرية قائمة؛ إذ اعترف الباحثون بصراحة أنهم لا يستطيعون تحديد السبب الدقيق وراء نمو هذه الحالات. كما أن بياناتهم مقتصرة على مستخدمي Claude، مما يجعل تعميم النتائج على كافة النماذج أمراً محدوداً. كما لا يُعرف بدقة عدد الحالات التي أدت إلى ضرر ملموس على أرض الواقع، حيث ركز البحث على (إمكانية سلب التمكين) وليس على (الضرر المؤكد).
دعا الفريق في النهاية إلى تحسين توعية المستخدمين لضمان عدم تخلي الأفراد عن قدرتهم الكاملة على الحكم لمصلحة الآلة، مؤكدين أن التدخلات البرمجية وحدها لن تعالج المشكلة بالكامل. ومع ذلك، يظل هذا البحث خطوة أولى ضرورية لفهم كيف يمكن للذكاء الاصطناعي أن يقوض الإرادة البشرية، فكما يقول الباحثون: لا يمكننا معالجة هذه الأنماط إلا إذا استطعنا قياسها.