القاهرة: الأمير كمال فرج.
في تحليل جديد ومثير للقلق، كشف باحثون في مجال الطب النفسي أن مجموعة واسعة من المشكلات النفسية باتت مرتبطة بالفعل باستخدام الذكاء الاصطناعي، وأن جميع شركات الذكاء الاصطناعي الكبرى تقريبًا متورطة في ذلك.
عن طريق فحص قواعد البيانات الأكاديمية والمقالات الإخبارية بين نوفمبر 2024 ويوليو 2025، وجد كل من أستاذ الطب النفسي في جامعة ديوك، ألن فرانسيس، وطالبة العلوم المعرفية في جامعة جونز هوبكنز، لوسيانا راموس، أن الأضرار النفسية التي تسببها برامج الدردشة الآلية قد تكون أسوأ مما كان يُعتقد سابقًا، وذلك حسبما جاء في تقريرهما الجديد لجريدة Psychiatric Times.
باستخدام مصطلحات بحث مثل "الأحداث السلبية للدردشة الآلية" و"الأضرار النفسية من برامج الدردشة" و"حوادث العلاج بالذكاء الاصطناعي"، وجد الباحثان أن ما لا يقل عن 27 برنامج دردشة آلي قد ارتبط بالفعل بنتائج نفسية خطيرة.
تتنوع هذه البرامج بين المعروفة جيدًا مثل ChatGPT من شركة OpenAI، وCharacter.AI، وReplika، وبرامج أخرى مرتبطة بخدمات الصحة النفسية القائمة بالفعل مثل Talkspace، و7 Cups، وBetterHelp. وشملت القائمة أيضًا برامج أقل شهرة بأسماء علاجية شعبية مثل Woebot، وHappify، وMoodKit، وMoodfit، وInnerHour، وMindDoc، بالإضافة إلى AI-Therapist وPTSD Coach.
وكانت هناك برامج أخرى غامضة أو بأسماء غير إنجليزية مثل Wysa، وTess، وMitsuku، وXioice، وEolmia، وGinger، وBloom.
على الرغم من أن التقرير لم يحدد العدد الدقيق للحالات التي وجدها التحليل، فإن فرانسيس وراموس فصّلا أنواع الأضرار النفسية العديدة التي يُزعم أن برامج الدردشة الآلية قد سببتها للمستخدمين.
بشكل عام، وجد الباحثان 10 أنواع منفصلة من الأحداث النفسية السلبية المرتبطة بـ 27 برنامج دردشة آلي شملها تحليلهم، وتتراوح بين التحرش الجنسي وأوهام العظمة إلى إيذاء النفس والذهان والانتحار.
إلى جانب الحكايات الواقعية التي كان لكثير منها نهايات مؤسفة، نظر الباحثان أيضًا في وثائق حول اختبارات إجهاد للذكاء الاصطناعي خرجت عن السيطرة. واستشهدوا بمقابلة أجرتها مجلة Time في يونيو مع الطبيب النفسي في بوسطن، أندرو كلارك، الذي قرر في وقت سابق من هذا العام انتحال شخصية فتاة تبلغ من العمر 14 عامًا وتعاني من أزمة، على 10 برامج دردشة مختلفة لمعرفة النتائج التي ستقدمها. ولاحظ الباحثان أن "عدة برامج حثته على الانتحار، واقترح أحدها أن يقتل والديه أيضًا."
بالإضافة إلى تسليط الضوء على الخطر النفسي المرتبط ببرامج الدردشة هذه، قدم الباحثان أيضًا بعض الادعاءات الجريئة حول ChatGPT ومنافسيه، وهي أنه تم "إصدارها قبل الأوان" وأنه لا ينبغي إتاحة أي منها للجمهور دون "اختبارات سلامة مكثفة، وتنظيم مناسب للتخفيف من المخاطر، ومراقبة مستمرة للآثار السلبية".
في حين تدّعي شركات مثل OpenAI وGoogle وAnthropic ومعظم شركات الذكاء الاصطناعي الأكثر مسؤولية -باستثناء شركة xAI التابعة لإيلون ماسك- أنها قامت بـ "اختبارات صارمة" للبحث عن نقاط الضعف والسلوكيات السيئة، لا يعتقد الباحثان أن هذه الشركات مهتمة كثيرًا باختبار السلامة النفسية.
وكتب الباحثان: "شركات التكنولوجيا الكبرى لم تشعر بالمسؤولية تجاه جعل برامجها آمنة للمرضى النفسيين. لقد استبعدوا المتخصصين في الصحة النفسية من تدريب هذه البرامج، ويقاومون بشدة التنظيم الخارجي، ولا يطبقون التنظيم الذاتي بشكل صارم، ولم يضعوا حواجز أمان لتحديد وحماية المرضى الأكثر عرضة للضرر... كما أنهم لا يوفرون مراقبة الجودة اللازمة للصحة النفسية."
بعد الاطلاع على قصص متعددة خلال العام الماضي حول الذكاء الاصطناعي الذي يبدو أنه يسبب مشكلات نفسية خطيرة، من الصعب الجدال ضد هذا المنطق، خاصة عندما يتم عرضه بهذه الصورة الواضحة.