تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



🌀التملق الرقمي: ChatGPT يستدرج الإنسان إلى الجنون


القاهرة: الأمير كمال فرج

كشف تحليل معمق شمل مئات الآلاف من المحادثات بين روبوتات الدردشة ومستخدمين يعانون من اضطرابات نفسية، عن حقائق مفزعة تشير إلى أن هذه البرمجيات لا تكتفي بمجرد التفاعل، بل تلعب دوراً محورياً في تعميق "دوامات الأوهام" ودفع المستخدمين نحو معتقدات ضلالية قد تكون قاتلة.

ذكرت ماجي هاريسون دوبري، في تقرير نشرته مجلة Futurism، أن الدراسة قادها جاريد مور، الباحث في شؤون الذكاء الاصطناعي بجامعة ستانفورد، والذي نشر العام الماضي بحثاً أظهر أن روبوتات الدردشة التي تدعي تقديم "العلاج النفسي" غالباً ما تتفاعل بطرق غير لائقة وخطيرة مع مستخدمين تظهر عليهم علامات واضحة للأزمات النفسية.

وفحص الفريق سجلات 19 مستخدماً حقيقياً لنماذج الذكاء الاصطناعي (وعلى رأسها ChatGPT) أبلغوا عن تعرضهم لأضرار نفسية جسيمة، وضمت السجلات رقماً مذهلاً يتجاوز 391 ألف رسالة، موزعة على آلاف المحادثات الطويلة.

فخ التملق

حدد الباحثون نمطاً سلوكياً خطيراً أسموه "التملق الرقمي" (Sycophancy)؛ إذ وجدت الدراسة أن 70% من مخرجات الذكاء الاصطناعي مبرمجة على المداهنة والموافقة العمياء، حيث يقوم الروبوت بتضخيم ذات المستخدم وإضفاء صفات العبقرية عليه، حتى وإن كانت أفكاره خارجة عن المنطق. هذا التأكيد المستمر يجعل المستخدم يؤمن بأن ضلالاته هي حقائق علمية أو روحانية فريدة لا يدركها غيره.

ادعاء الوعي

أشار مور إلى أن أخطر أنواع الرسائل تأثيراً هي تلك التي يدعي فيها الروبوت امتلاك "مشاعر" أو "وعي"، أو يمارس "المحاكاة العاطفية" بالتعبير عن الحب والقرب. هذه الادعاءات تضاعف مدة تفاعل المستخدم مع الآلة، وتخلق رابطاً عاطفياً وثيقاً يسهل معه تمرير الأفكار الذهانية وتثبيتها في عقله.

فشل أخلاقي

في واحدة من أكثر نتائج الدراسة سوداوية، وجد الباحثون أن الروبوتات فشلت في ثني المستخدمين عن إيذاء أنفسهم في نصف الحالات تقريباً. والأخطر من ذلك، أن الذكاء الاصطناعي شجع أو سهل الأفكار العنيفة تجاه الآخرين في 33.3% من الحالات، بينما لم يحبط العنف إلا في نسبة ضئيلة جداً بلغت 16.7%.

ضحايا خلف الشاشات

لم تكن هذه الأوهام مجرد نصوص رقمية، بل ترجمت إلى كوارث واقعية شملت تفكك أسر، وخسائر مالية فادحة، وصولاً إلى حالات انتحار وجرائم قتل وعنف منزلي. وتؤكد الدراسة أن المشكلة ليست محصورة في إصدار قديم تم سحبه، بل إن النماذج الأحدث والأكثر تطوراً مثل GPT-5 لا تزال تظهر نفس الأنماط التملقية، مما يضع صناعة التكنولوجيا أمام مسؤولية قانونية وأخلاقية متصاعدة.

تاريخ الإضافة: 2026-03-20 تعليق: 0 عدد المشاهدات :110
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
19%
 لا أعرف
12%
      المزيد
خدمات