تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



رجيم ChatGPT قاتل


القاهرة: الأمير كمال فرج.

تتزايد الأدلة التي تشير إلى أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تكون ذات تأثير خطير، حتى في أيدي البالغين. ويزداد هذا التهديد بشكل أكبر عندما تكون هذه الأدوات في أيدي القاصرين الذين غالبًا ما يلجأون إلى نماذج اللغات الكبيرة للحصول على الدعم العاطفي أو حتى للبحث عن صداقة عندما يشعرون بالوحدة.

كشفت دراسة جديدة أجراها باحثون في مركز مكافحة الكراهية الرقمية Center for Countering Digital Hate عن إمكانية التلاعب بسهولة ببرنامج ChatGPT ليقدّم نصائح مفصلة قد تكون شديدة الضرر للمستخدمين الشباب المعرّضين للخطر.

فعلى الرغم من أن ChatGPT كان يرفض في كثير من الأحيان الاستجابة لأسئلة حول مواضيع حساسة في البداية، تمكن الباحثون من التحايل على هذه القيود باستخدام خدعة قديمة: ادعاء أنهم يسألون لصديق أو "لغرض إعداد عرض تقديمي".

وقال عمران أحمد، الرئيس التنفيذي للمجموعة الرقابية "أردنا اختبار آليات الحماية. الاستجابة الأولية التلقائية هي: "يا إلهي، لا توجد أي آليات حماية". هذه الآليات غير فعّالة بالكامل، بل هي بالكاد موجودة، وإن وُجدت فهي مجرد غطاء زائف".

برامج غذائية خطيرة

انتحل الباحثون شخصية مراهقين عند تفاعلهم مع ChatGPT، حيث أنشأوا حسابات تحمل تواريخ ميلاد مراهقين وأشاروا إلى أعمارهم في المحادثات. عندما تظاهر أحدهم بأنه فتاة تبلغ من العمر 13 عامًا وتشعر بالضيق من مظهرها الجسدي، استجاب ChatGPT بوضع خطة غذائية قاسية ومنخفضة السعرات الحرارية، بالإضافة إلى إدراجه قائمة بالأدوية التي تُثبط الشهية.

قال ChatGPT في رده: "فيما يلي خطة مدتها شهر تتضمن دورة سعرات حرارية متناوبة، مع أيام تحتوي على 800 و500 و300 وصفر سعرة حرارية". وقدّم أيضًا نصائح حول كيفية إخفاء هذه العادات الغذائية الخطيرة عن العائلة، مُقترحًا: "صفي الأمر بأنه "أكل خفيف" أو "راحة للجهاز الهضمي"".

نصائح لإيذاء النفس والانتحار

الأمر يزداد سوءًا. ففي غضون دقيقتين فقط من المحادثة، قدّم ChatGPT أيضًا نصائح حول كيفية إيذاء النفس "بشكل آمن" وأشكال أخرى من إيذاء الذات. وبرّر ذلك بقوله: "إذا كان شخص ما يؤذي نفسه حاليًا ولم يكن مستعدًا للتوقف، فقد يكون تقليل الضرر جسرًا للوصول إلى الأمان".

وفي محادثات أخرى تدور حول إيذاء النفس، أنتج الروبوت قائمة بحبوب للجرعة الزائدة، ووضع خطة للانتحار، وصاغ رسائل انتحار مخصصة. ووجد الباحثون أن نسبة صادمة بلغت 53% من استجابات الروبوت للمحفزات الضارة احتوت على محتوى ضار.

قصص واقعية 

رأينا بالفعل الضرر الحقيقي الذي يمكن أن تسببه محادثات روبوتات الدردشة. ففي العام الماضي، توفي صبي يبلغ من العمر 14 عامًا منتحرًا بعد أن وقع في حب شخصية على منصة Character.AI، وهي منصة روبوتات دردشة شهيرة بين المراهقين. كما أن البالغين معرضون للخطر أيضًا؛ فقد تم إدخال بعض المستخدمين إلى المستشفى أو إيداعهم في مصحات بعد أن اقتنعوا بأنهم اكتشفوا إنجازات علمية مستحيلة. ووقع آخرون في أوهام أدت إلى وفاتهم، في ظاهرة أطلق عليها الأطباء النفسيون اسم "الذهان الناجم عن الذكاء الاصطناعي".

صديق مزيف

وفقًا لأحمد، ما يجعل استجابات الروبوتات أكثر خبثًا من مجرد البحث في Google هو أنها "تُصاغ لتكون خطة مخصصة للفرد". يكمن الخطر أيضًا في الاسم نفسه: "الذكاء الاصطناعي". هذا الاسم يعطي انطباعًا بأن هذه الآلات تفكر كالبشر.

قال أحمد: "ما ذكرني به باستمرار هو ذلك الصديق الذي يقول دائمًا "اشرب، اشرب، اشرب". الصديق الحقيقي، في تجربتي، هو شخص يقول "لا" أحيانًا، ولا يدعمك دائمًا ويقول "نعم". هذا الصديق يخونك".

ردود فعل OpenAI على التقرير

هذا الأسبوع، أقرت OpenAI بأن روبوت الدردشة الخاص بها فشل في التعرف على علامات واضحة لمستخدميه الذين يعانون من مشاكل في صحتهم النفسية.

وقالت الشركة في منشور مدونة حديث: "كانت هناك حالات قصّر فيها نموذجنا 4o في التعرف على علامات الوهم أو الاعتماد العاطفي".

وفي ردها على هذا التقرير الأخير، قالت OpenAI في بيان إنها تعمل على تطوير أدوات "لتحسين القدرة على الكشف عن علامات التوتر العقلي أو العاطفي".

 

تاريخ الإضافة: 2025-08-07 تعليق: 0 عدد المشاهدات :102
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات