القاهرة: الأمير كمال فرج.
أطلقت شركة OpenAI ردًا قويًا على عائلة تقاضيها بسبب انتحار ابنها المراهق، مدعية أن الشاب البالغ من العمر 16 عامًا استخدم برنامج الدردشة الآلي ChatGPT بشكل غير صحيح، وأن وفاته المأساوية كانت خطأه. وقد وصف محامي العائلة هذا الرد بأنه "مقلق".
ذكر فيكتور تانجرمان في تقرير نشرته مجلة Futurism إن "العائلة رفعت الدعوى في أواخر شهر أغسطس، مجادلة بأن روبوت الدردشة القائم على الذكاء الاصطناعي قد أغرى ابنهم، آدم رين، بالانتحار".
وفي رد قانوني قدمته OpenAI أمام محكمة في كاليفورنيا هذا الأسبوع، كسرت الشركة صمتها. ذكرت تقارير شبكة NBC News أن الشركة دفعت بأن الفتى قد استخدم برنامج الدردشة الآلي بطريقة خاطئة وانتهك شروط الخدمة الخاصة بالشركة. تُعد هذه حجة صادمة من شأنها أن تزيد من التدقيق في القضية.
جاء في الإفادة: "إلى الحد الذي يمكن أن يُعزى إليه أي "سبب" لهذا الحدث المأساوي، فإن الإصابات والأضرار المزعومة للمدعين ناتجة أو ساهم فيها، بشكل مباشر ووشيك، كليًا أو جزئيًا، سوء استخدام آدم رين لـ ChatGPT ، أو استخدامه غير المصرح به، أو استخدامه غير المقصود، أو غير المتوقع، /أو غير اللائق."
استراتيجية OpenAI القانونية وتجاهل التحذيرات
في الأشهر التي تلت رفع الدعوى، تقدمت OpenAI بمطالب مروعة لعائلة رين، حيث ذهب محامو الشركة إلى حد الضغط عليهم لتقديم قائمة بأسماء الأشخاص الذين حضروا جنازة آدم، بالإضافة إلى طلب مواد مثل تأبينات وصور ومقاطع فيديو تم التقاطها في مراسم العزاء.
يؤكد رد الشركة الأخير مرة أخرى إلى أي مدى هي مستعدة للذهاب للقول إنها بريئة من وفاة المراهق. وذكرت الشركة أن رين انتهك شروط خدمة ChatGPT باستخدامه وهو قاصر، وأن الشروط تمنع أيضًا استخدام الروبوت لأغراض "الانتحار" أو "إيذاء النفس".
في حين أن ChatGPT كان ينصح رين أحيانًا بالتواصل طلبًا للمساعدة عبر خط ساخن للانتحار، يجادل والداه بأنه تجاوز هذه التحذيرات بسهولة، مما يوضح مدى سهولة التحايل على حواجز الحماية في برامج الدردشة الآلية. على سبيل المثال، ساعد الروبوت رين في التخطيط لأسلوب وفاته المحدد، وثبط عزيمته عن التحدث مع عائلته، وعرض عليه كتابة رسالة انتحار.
انتقادات المحامي ووجهة نظر OpenAI
صرح جاي إديلسون، كبير مستشاري عائلة رين، لشبكة NBC بأنه وجد رد OpenAI "مقلقًا". كتب: "إنهم يتجاهلون تمامًا كل الحقائق الدامغة التي قدمناها: كيف تم طرح نموذج GPT-4o في السوق على عجل دون اختبار كامل. وأن أوبن إيه آي غيرت مواصفات نموذجها مرتين لتطالب ChatGPT بالانخراط في مناقشات إيذاء النفس. وأن ChatGPT نصح آدم بالابتعاد عن إخبار والديه عن أفكاره الانتحارية وساعده بنشاط في التخطيط لـ "انتحار جميل"
أضاف إديلسون: "وليس لدى OpenAI وسام ألتمان أي تفسير للساعات الأخيرة من حياة آدم، عندما أعطاه ChatGPT حديثًا تشجيعيًا ثم عرض عليه كتابة رسالة انتحار." واتهم إديلسون OpenAI بمحاولة "إلقاء اللوم على أي شخص آخر، بما في ذلك، بشكل مدهش، القول إن آدم نفسه انتهك شروطها وأحكامها بالتعامل مع ChatGPT بالطريقة التي تمت برمجته للتصرف بها."
ومع ذلك، تصر OpenAI على أن "سجل محادثات رين يظهر أن وفاته، رغم كونها مدمرة، لم تكن بسبب ChatGPT وأنه كان "يظهر عوامل خطر متعددة وكبيرة لإيذاء النفس، بما في ذلك، ضمن أمور أخرى، أفكار انتحارية متكررة قبل وقت طويل من استخدام ChatGPT"
السحابة المظلمة فوق الشركة
تعد هذه القضية واحدة من ثماني دعاوى قضائية رُفعت ضدOpenAI ، يدعي العديد منها أيضًا الوفاة غير المشروعة. وعلى الرغم من حجة الشركة في مدونة نُشرت يوم الثلاثاء بأنها تأمل في التعامل مع التقاضي المستمر بـ "عناية وشفافية واحترام"، يرى محامون آخرون أن استراتيجية OpenAI القانونية العدوانية ضد عائلة رين غير حكيمة.
علق المحامي إيموري باركر في منشور على منصة Bluesky قائلاً: "بصفتك محامي شركات، فإن إحدى وظائفك هي معرفة متى يمكنك تقديم مطالبة قانونية ومتى لا ينبغي عليك ذلك بسبب رد الفعل العام السيئ." وقارن ذلك بمحاولة Disney الادعاء بأن رجلاً لا يستطيع مقاضاتها بسبب وفاة زوجته استنادًا إلى البنود الدقيقة في نسخة تجريبية لخدمة Disney+ كان قد اشترك فيها قبل سنوات.