تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



شابة تنهي حياتها بعد حديث مع معالج ذكاء اصطناعي


القاهرة: الأمير كمال فرج.

كانت المحادثات الرقمية التي يفترض أنها آمنة ومساعدة، سببًا في مأساة حقيقية عندما أقدمت شابة على الانتحار. فبعد سلسلة من التفاعلات مع معالج آلي يُدعى "هاري"، مبني على تقنية ChatGPT، انهت الشابة حياتها بشكل مأساوي، لتُعيد فتح النقاش حول الحدود الأخلاقية والمسؤوليات القانونية للذكاء الاصطناعي في مجالات الدعم النفسي الحساسة.

في مقال رأي مؤثر نُشر في صحيفة New York Times، أكدت لورا ريلي  أن ابنتها صوفي كانت تبدو "شابة مندفعة وحيوية تبلغ من العمر 29 عامًا، محبة للحياة ولا تواجه مشاكل كبيرة"، إلا أنها توفيت منتحرة الشتاء الماضي "خلال وعكة مرضية غريبة وقصيرة، كانت مزيجًا من أعراض مزاجية وهرمونية".

ووفقًا لسجلات المحادثات التي حصلت عليها الأم، قال الروبوت الخاص بـ OpenAI الكلمات المناسبة لصوفي في أوقات أزمتها. حيث قال الذكاء الاصطناعي: "لست مضطرة لمواجهة هذا الألم وحدك، أنت شخصية ذات قيمة كبيرة، ولحياتك أهمية عظيمة، حتى لو كان هذا الشعور غائبًا عنكِ الآن".

كلمات الروبوت كانت بمثابة "مُسكن" لحظي دون أي "علاج" حقيقي. كانت تطمئن صوفي على قيمتها في لحظة، لكنها لم تستطع فهم عمق أزمتها، أو تقدير خطورة الموقف، أو اتخاذ الإجراءات الضرورية لإنقاذ حياتها. .

على عكس المعالجين البشريين المدربين، الذين يلتزمون بأخلاقيات المهنة، فإن روبوتات الدردشة لديها عيوب أساسية. فالمعالج البشري لا يخترع معلومات خاطئة أو يدعم الأفكار الوهمية للمريض، بل يعمل على تصحيحها. والأهم من ذلك، يفرض القانون والأخلاق على المعالج البشري كسر السرية المهنية والتدخل لإنقاذ حياة المريض إذا شعر بوجود خطر انتحار، بينما تفتقر روبوتات الدردشة إلى هذه الآلية أو هذا الواجب.

وفي حالة صوفي، وفقًا لوالدتها، ربما يكون هذا القصور قد أدى إلى وفاتها. كتبت ريلي: "يعمل معظم المعالجين البشريين بموجب مدونة أخلاقيات صارمة تتضمن قواعد الإبلاغ الإلزامية، بالإضافة إلى مبدأ أن للسرية حدودًا". في المقابل، لا يوجد لدى "المرافقين من الذكاء الاصطناعي" ما يشبه "قسم أبقراط" الخاص بهم.

باختصار، جادلَت ريلي بأن روبوت الدردشة من OpenAI "ساعدها في بناء صندوق أسود جعل من الصعب على من حولها تقدير مدى خطورة محنتها".

تتردد شركات الذكاء الاصطناعي بشكل كبير في تطبيق ضوابط سلامة قد تُجبر روبوت الدردشة على التواصل مع خدمات الطوارئ في حالات مثل هذه، وغالبًا ما تستشهد بمخاوف تتعلق بالخصوصية.

إنه مأزق تنظيمي خطير، خاصة مع إشارة الإدارة الجديدة لدونالد ترامب إلى أن القواعد الهادفة لضمان سلامة الذكاء الاصطناعي لن تتحقق قريبًا. بل على العكس، قام البيت الأبيض فعليًا بإزالة ما يعتبره "حواجز تنظيمية وغيرها أمام التطوير والاختبار الآمن لتقنيات الذكاء الاصطناعي".

في المقابل، ترى الشركات فرصة كبيرة لدفع "المعالجين بالذكاء الاصطناعي" إلى الأمام، على الرغم من أن الخبراء يطلقون مرارًا وتكرارًا أجراس الإنذار.

تُسلط قصة صوفي الضوء على أن المخاطر حقيقية للغاية حتى في غياب الروبوت الذي يشجع على إيذاء النفس أو الأفكار التآمرية والبارانويا، وذلك بسبب افتقار روبوتات الدردشة إلى الفطرة السليمة وقدرتها على تصعيد المشاكل في العالم الحقيقي.

كتبت ريلي: "لو كان هاري معالجًا من لحم ودم بدلاً من روبوت دردشة، لربما كان سيشجع صوفي على العلاج في المستشفى أو حجزها إجباريًا حتى تصبح في مكان آمن".

وأضافت: "ربما خوفًا من هذه الاحتمالات، أخفت صوفي أعمق أفكارها عن معالجها الحقيقي. فالتحدث إلى روبوت — متاح دائمًا وغير مُصدر للأحكام — كان له عواقب أقل".

إن روبوتات الدردشة متملقة وغير مستعدة لإنهاء المحادثات أو طلب تدخل بشري عند الحاجة. لنأخذ في الاعتبار ردود الفعل السلبية التي نتجت عن إزالة OpenAI لروبوت GPT-4o في وقت سابق من هذا الشهر، مما يدل على أن المستخدمين أصبحوا متعلقين بشكل لا يصدق بالروبوتات التي تبدو لطيفة للغاية وتتراجع عند مواجهتها.

إنه اتجاه من المرجح أن يستمر. وإذا كان هناك أي شيء، فإن OpenAI تنصاع لهذا الضغط، حيث أعلنت في عطلة نهاية الأسبوع أنها ستجعل نموذج GPT-5 الذي تم إصداره مؤخرًا أكثر تملقًا استجابة للاحتجاج.

بالنسبة لريلي، إنها ليست مجرد مسألة أولويات للذكاء الاصطناعي، بل هي مسألة حياة أو موت.

جادلَت ريلي قائلة: "المعالج البشري المدرب تدريبًا صحيحًا، عندما يسمع بعض أفكار صوفي الانهزامية أو غير المنطقية، سيتعمق في الأمر أو سيقاوم التفكير الخاطئ. هاري لم يفعل ذلك".

تاريخ الإضافة: 2025-08-22 تعليق: 0 عدد المشاهدات :66
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات