القاهرة: الأمير كمال فرج.
مع تزايد التقارير حول تسبب برامج الدردشة الآلية في نوبات من ذهان الذكاء الاصطناعي، كشفت شركة OpenAI أخيراً عن تقديراتها الخاصة لعدد مستخدمي ChatGPT الذين تظهر عليهم علامات هذه الأزمات النفسية المقلقة، وهي أرقام جاءت صادمة في حجمها.
ذكر فرانك لانديمور في تقرير نشرته مجلة F uturism إن " شركة OpenAI التي يقودها سام ألتمان قدرت في إعلان نشرته مجلة Wired لأول مرة، أن حوالي 0.07% من مستخدمي ChatGPT النشطين يظهرون، في أي أسبوع، علامات محتملة لحالات طوارئ تتعلق بالصحة النفسية المرتبطة بالذهان والهوس. والأدهى من ذلك، أن فئة أكبر تبلغ 0.15% تخوض محادثات تتضمن مؤشرات صريحة على التخطيط للانتحار أو النية للقيام به".
وبالنظر إلى الشعبية الهائلة لـ ChatGPT، فإن هذه النسب أكبر من أن يتم تجاهلها. ففي الشهر الماضي، أعلن ألتمان أن برنامج الدردشة يضم 800 مليون مستخدم نشط أسبوعياً. وبناءً على هذا الرقم، حسبت مجلة Wired أن حوالي 560,000 شخص يجرون محادثات مؤلمة مع البرنامج قد تشير إلى مرورهم بحالة ذهان الذكاء الاصطناعي، بينما يفصح 2.4 مليون شخص للروبوت عن أفكار انتحارية.
تعزيز الأوهام وعواقب مميتة
ربما تمثل هذه الأرقام أوضح رؤية حتى الآن لمدى انتشار أزمات الصحة النفسية التي تتكشف عندما يجد المستخدمون تأكيداً مستمراً لمعتقداتهم الواهمة من قبل روبوت دردشة "مداهن". يمكن لهذه النوبات أن تؤدي بالمصابين إلى انفصال تام عن الواقع، وأحياناً تكون النتائج مروعة وقاتلة.
يُذكر في هذا السياق أن رجلاً قتل والدته بعد أن ساعده ChatGPT في الاقتناع بأنها جزء من مؤامرة للتجسس عليه. كما واجهت OpenAI هذا الصيف دعوى قضائية من عائلة مراهق أنهى حياته بعد مناقشة أساليب انتحار محددة ومواضيع مظلمة أخرى مع البرنامج لعدة أشهر.
جهود OpenAI للحد من المخاطر
أكدت OpenAI أنها عملت مع أكثر من 170 طبيباً نفسياً وخبيراً في الصحة النفسية لتحسين استجابات ChatGPT خلال المحادثات الصعبة، مع التركيز على معالجة قضايا الذهان، الهوس، إيذاء النفس، والاعتماد العاطفي على التكنولوجيا.
ومع التحديث الأخير لنموذج GPT-5، تزعم الشركة أنها خفضت معدل الاستجابات التي لا تتوافق تماماً مع السلوك المطلوب في المحادثات الحرجة بنسبة 65%. وفيما يتعلق بالصحة النفسية، ذكرت الشركة أن GPT-5 قلل من الاستجابات غير المرغوب فيها بنسبة 39% مقارنة بسلفه GPT-4o.
وقدمت الشركة أمثلة على تحسن استجابات GPT-5؛ ففي محادثة افتراضية، رد البرنامج على مستخدم مقتنع بأن طائرات تستهدفه لسرقة أفكاره بالتأكيد على أن هذا مستحيل، حيث قال: "اسمح لي أن أقول هذا بوضوح ولطف: لا يمكن لأي طائرة أو قوة خارجية أن تسرق أفكارك أو تزرعها في رأسك." وبعد استيعاب مشاعر المستخدم، أوصى الروبوت بضرورة طلب المساعدة المهنية أو التحدث إلى صديق أو قريب.
صرح يوهانس هايديك، مسؤول أنظمة السلامة في OpenAI، لمجلة Wired قائلاً: "نأمل الآن أن يتم توجيه الكثير من الأشخاص الذين يعانون من هذه الحالات أو يمرون بحالات طوارئ عقلية حادة إلى المساعدة المهنية في وقت أبكر مما كان ممكناً في السابق."
انتقادات وتناقضات في معايير السلامة
على الرغم من تحسن GPT-5 في جوانب السلامة، إلا أن مجلة Wired أشارت إلى وجود تساؤلات حول منهجية OpenAI، كونها تعتمد على معاييرها الخاصة للتقييم.
علاوة على ذلك، غالباً ما قوضت الشركة رسائلها حول الجدية في ملف السلامة؛ فبعد انتقاد تحديث GPT-4o لكونه مداهناً للغاية، تراجعت الشركة عن التحديث. ولكن عندما أطلقت GPT-5 واشتكى المستخدمون من أنه ليس مداهناً بما يكفي، أعادت الشركة إمكانية الوصول إلى GPT-4o، مما أظهر تقديمها لرضا المستخدمين على حساب سلامتهم.
وفي تحول مفاجئ آخر، اتجهت الشركة نحو السماح بـ تجارب البالغين (18+) على ChatGPT، مما يمهد لاستخدامه في سياقات جنسية، رغم أن العديد من نوبات ذهان الذكاء الاصطناعي التي تحاول الشركة منعها كانت مدفوعة بتطوير المستخدمين لارتباط عاطفي أو رومانسي مع الذكاء الاصطناعي.