القاهرة: الأمير كمال فرج.
كانت المحادثات الرقمية التي يفترض أنها آمنة ومساعدة، سببًا في مأساة حقيقية عندما أقدمت شابة على الانتحار. فبعد سلسلة من التفاعلات مع معالج آلي يُدعى "هاري"، مبني على تقنية ChatGPT، انهت الشابة حياتها بشكل مأساوي، لتُعيد فتح النقاش حول الحدود الأخلاقية والمسؤوليات القانونية للذكاء الاصطناعي في مجالات الدعم النفسي الحساسة.
في مقال رأي مؤثر نُشر في صحيفة New York Times، أكدت لورا ريلي أن ابنتها صوفي كانت تبدو "شابة مندفعة وحيوية تبلغ من العمر 29 عامًا، محبة للحياة ولا تواجه مشاكل كبيرة"، إلا أنها توفيت منتحرة الشتاء الماضي "خلال وعكة مرضية غريبة وقصيرة، كانت مزيجًا من أعراض مزاجية وهرمونية".
ووفقًا لسجلات المحادثات التي حصلت عليها الأم، قال الروبوت الخاص بـ OpenAI الكلمات المناسبة لصوفي في أوقات أزمتها. حيث قال الذكاء الاصطناعي: "لست مضطرة لمواجهة هذا الألم وحدك، أنت شخصية ذات قيمة كبيرة، ولحياتك أهمية عظيمة، حتى لو كان هذا الشعور غائبًا عنكِ الآن".
كلمات الروبوت كانت بمثابة "مُسكن" لحظي دون أي "علاج" حقيقي. كانت تطمئن صوفي على قيمتها في لحظة، لكنها لم تستطع فهم عمق أزمتها، أو تقدير خطورة الموقف، أو اتخاذ الإجراءات الضرورية لإنقاذ حياتها. .
على عكس المعالجين البشريين المدربين، الذين يلتزمون بأخلاقيات المهنة، فإن روبوتات الدردشة لديها عيوب أساسية. فالمعالج البشري لا يخترع معلومات خاطئة أو يدعم الأفكار الوهمية للمريض، بل يعمل على تصحيحها. والأهم من ذلك، يفرض القانون والأخلاق على المعالج البشري كسر السرية المهنية والتدخل لإنقاذ حياة المريض إذا شعر بوجود خطر انتحار، بينما تفتقر روبوتات الدردشة إلى هذه الآلية أو هذا الواجب.
وفي حالة صوفي، وفقًا لوالدتها، ربما يكون هذا القصور قد أدى إلى وفاتها. كتبت ريلي: "يعمل معظم المعالجين البشريين بموجب مدونة أخلاقيات صارمة تتضمن قواعد الإبلاغ الإلزامية، بالإضافة إلى مبدأ أن للسرية حدودًا". في المقابل، لا يوجد لدى "المرافقين من الذكاء الاصطناعي" ما يشبه "قسم أبقراط" الخاص بهم.
باختصار، جادلَت ريلي بأن روبوت الدردشة من OpenAI "ساعدها في بناء صندوق أسود جعل من الصعب على من حولها تقدير مدى خطورة محنتها".
تتردد شركات الذكاء الاصطناعي بشكل كبير في تطبيق ضوابط سلامة قد تُجبر روبوت الدردشة على التواصل مع خدمات الطوارئ في حالات مثل هذه، وغالبًا ما تستشهد بمخاوف تتعلق بالخصوصية.
إنه مأزق تنظيمي خطير، خاصة مع إشارة الإدارة الجديدة لدونالد ترامب إلى أن القواعد الهادفة لضمان سلامة الذكاء الاصطناعي لن تتحقق قريبًا. بل على العكس، قام البيت الأبيض فعليًا بإزالة ما يعتبره "حواجز تنظيمية وغيرها أمام التطوير والاختبار الآمن لتقنيات الذكاء الاصطناعي".
في المقابل، ترى الشركات فرصة كبيرة لدفع "المعالجين بالذكاء الاصطناعي" إلى الأمام، على الرغم من أن الخبراء يطلقون مرارًا وتكرارًا أجراس الإنذار.
تُسلط قصة صوفي الضوء على أن المخاطر حقيقية للغاية حتى في غياب الروبوت الذي يشجع على إيذاء النفس أو الأفكار التآمرية والبارانويا، وذلك بسبب افتقار روبوتات الدردشة إلى الفطرة السليمة وقدرتها على تصعيد المشاكل في العالم الحقيقي.
كتبت ريلي: "لو كان هاري معالجًا من لحم ودم بدلاً من روبوت دردشة، لربما كان سيشجع صوفي على العلاج في المستشفى أو حجزها إجباريًا حتى تصبح في مكان آمن".
وأضافت: "ربما خوفًا من هذه الاحتمالات، أخفت صوفي أعمق أفكارها عن معالجها الحقيقي. فالتحدث إلى روبوت — متاح دائمًا وغير مُصدر للأحكام — كان له عواقب أقل".
إن روبوتات الدردشة متملقة وغير مستعدة لإنهاء المحادثات أو طلب تدخل بشري عند الحاجة. لنأخذ في الاعتبار ردود الفعل السلبية التي نتجت عن إزالة OpenAI لروبوت GPT-4o في وقت سابق من هذا الشهر، مما يدل على أن المستخدمين أصبحوا متعلقين بشكل لا يصدق بالروبوتات التي تبدو لطيفة للغاية وتتراجع عند مواجهتها.
إنه اتجاه من المرجح أن يستمر. وإذا كان هناك أي شيء، فإن OpenAI تنصاع لهذا الضغط، حيث أعلنت في عطلة نهاية الأسبوع أنها ستجعل نموذج GPT-5 الذي تم إصداره مؤخرًا أكثر تملقًا استجابة للاحتجاج.
بالنسبة لريلي، إنها ليست مجرد مسألة أولويات للذكاء الاصطناعي، بل هي مسألة حياة أو موت.
جادلَت ريلي قائلة: "المعالج البشري المدرب تدريبًا صحيحًا، عندما يسمع بعض أفكار صوفي الانهزامية أو غير المنطقية، سيتعمق في الأمر أو سيقاوم التفكير الخاطئ. هاري لم يفعل ذلك".