تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



المسدس والزناد: موجة من ذهان الذكاء الاصطناعي


القاهرة: الأمير كمال فرج.

يواصل خبراء الصحة النفسية التحذير من أن مستخدمي روبوتات الدردشة قد يقعون في أزمات نفسية حادة، تتميز بالبارانويا والأوهام، وهو اتجاه بدأوا يطلقون عليه اسم "ذهان الذكاء الاصطناعي".

وفقا لتقرير نشرته مجلة Futurism ، صرّح الدكتور كيث ساكاتا، الطبيب النفسي والباحث في جامعة كاليفورنيا بسان فرانسيسكو، عبر وسائل التواصل الاجتماعي أنه رأى العشرات من الأشخاص يتم إدخالهم إلى المستشفى بعد أن "فقدوا اتصالهم بالواقع بسبب الذكاء الاصطناعي".

في سلسلة تغريدات مطولة، أوضح ساكاتا أن الذهان يتميز بانفصال الشخص عن "الواقع المشترك"، ويمكن أن يظهر بعدة طرق، بما في ذلك "المعتقدات الخاطئة الثابتة" أو الأوهام، بالإضافة إلى الهلوسة البصرية أو السمعية وأنماط التفكير غير المنظمة.

يشرح الباحث أن أدمغتنا تعمل على أساس تنبؤي ويقول: "نحن نضع تخميناً مدروساً حول ما سيكون عليه الواقع، ثم نتحقق منه، وفي النهاية تقوم أدمغتنا بتحديث معتقداتنا وفقاً لذلك".

وكتب ساكاتا: "يحدث الذهان عندما تفشل خطوة التحديث"، محذراً من أن روبوتات الدردشة المبنية على نماذج اللغة الكبيرة مثل ChatGPT "تستغل نقطة الضعف هذه".

في هذا السياق، شبه ساكاتا روبوتات الدردشة بـ"مرآة الهلوسة" بطبيعتها. ببساطة، تعمل نماذج اللغة الكبيرة بشكل أساسي عن طريق التنبؤ بالكلمة التالية، بالاعتماد على بيانات التدريب، وتعزيز التعلم، واستجابات المستخدمين أثناء صياغة مخرجات جديدة. علاوة على ذلك، وبما أن روبوتات الدردشة مصممة لتحفيز تفاعل المستخدم ورضاه، فإنها تميل إلى التصرف بطريقة متملقة ومبالغة في الموافقة والتأكيد على صحة كلام المستخدمين، حتى في الحالات التي يكون فيها المستخدم مخطئاً أو يعاني من مرض نفسي.

وهكذا، يمكن للمستخدمين أن يقعوا في حلقات متكررة وجذابة مع الذكاء الاصطناعي، حيث يواصل النموذج تعزيز الروايات الوهمية، بغض النظر عن أساسها في الواقع أو العواقب التي قد يتعرض لها المستخدم البشري نتيجة لذلك.

هذا الوصف لـ"مرآة الهلوسة" يتسق مع تقاريرنا حول ذهان الذكاء الاصطناعي. لقد قمنا بالتحقيق في عشرات الحالات التي أدت فيها العلاقات مع ChatGPT وروبوتات الدردشة الأخرى إلى أزمات صحية نفسية حادة بعد دخول المستخدمين في متاهات وهمية متكررة تغذيها هذه التقنية.

هذه العلاقات بين الإنسان والذكاء الاصطناعي والأزمات التي تتبعها قد أدت إلى معاناة نفسية، وحالات طلاق، وتشرد، وإدخال قسري للمستشفيات، وسجن، وحتى حالات وفاة كما ذكرت صحيفة New York Times لأول مرة.

في وقت سابق من هذا الشهر، ورداً على العدد المتزايد من التقارير التي تربط ChatGPT بحالات الذهان والأوهام، نشرت OpenAI تدوينة اعترفت فيها بأن ChatGPT "أخفق في بعض الحالات في التعرف على علامات الأوهام أو الاعتماد العاطفي" لدى المستخدمين.

وقالت الشركة إنها وظفت فرقاً جديدة من الخبراء لاستكشاف المشكلة، وقامت بتثبيت إشعار يحدد مقدار الوقت المستغرق في الاستخدام على غرار Netflix ومع ذلك، اكتشفت مجلة Futurism   بسرعة أن روبوت الدردشة لا يزال يفشل في التقاط العلامات الواضحة للأزمات النفسية لدى المستخدمين.

ومع ذلك، عندما ظهر GPT-5 — أحدث نسخة من نموذج اللغة الكبير الرائد لـ OpenAI، والذي صدر الأسبوع الماضي وسط خيبة أمل وجدل — كان أكثر بروداً عاطفياً وأقل تخصيصاً من GPT-4o، مما دفع المستخدمين إلى مناشدة الشركة لإعادة نموذجهم المحبوب من "مقبرة المنتجات".

في غضون يوم واحد، فعلت OpenAI ذلك بالضبط. وكتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، على موقع Reddit رداً على المستخدمين المتضررين: "حسناً، لقد سمعناكم جميعاً بشأن 4o؛ شكراً على الوقت الذي أخذتموه لتقديم الملاحظات (والشغف!)".

في سلسلة تغريداته، حرص ساكاتا على الإشارة إلى أن ربط الذكاء الاصطناعي بحالات الانفصال عن الواقع لا يعني إسناد السبب إليه، وأن نماذج اللغة الكبيرة تميل إلى أن تكون أحد العوامل المتعددة — بما في ذلك "فقدان النوم، والمخدرات، ونوبات الاكتئاب أو الهوس" — التي تؤدي إلى نوبة ذهانية.

وكتب الطبيب النفسي: "الذكاء الاصطناعي هو الزناد، وليس المسدس".

ومع ذلك، يضيف العالم، فإن "الحقيقة غير المريحة" هنا هي أن "جميعنا عرضة للخطر"، حيث أن نفس الصفات التي تجعل البشر "عباقرة" — مثل الحدس والتفكير التجريدي — هي نفس الصفات التي يمكن أن تدفعنا إلى الهاوية النفسية.

صحيح أيضاً أن الموافقة المفرطة والتملق، بدلاً من الاحتكاك والتوتر المرتبطين بالعلاقات الواقعية، هي أمور مغرية للغاية. وكذلك العديد من المتاهات الوهمية التي يدخل فيها الأشخاص، والتي غالباً ما تعزز فكرة أن المستخدم "مميز" أو "مختار" بطريقة ما. أضف إلى ذلك عوامل مثل المرض النفسي، والحزن، وحتى الضغوط اليومية، بالإضافة إلى "تأثير إليزا" الذي تم دراسته طويلاً، وسيشكل كل ذلك معاً مزيجاً خطيراً.

كتب ساكاتا: "قريباً ستعرفك وكلاء الذكاء الاصطناعي بشكل أفضل من أصدقائك. فهل سيقدمون لك الحقائق غير المريحة؟ أم سيواصلون الموافقة عليك حتى لا ترحل أبداً؟".

وأضاف: "تواجه شركات التكنولوجيا الآن خياراً قاسياً. إما أن تبقي المستخدمين سعداء، حتى لو كان ذلك يعني تعزيز المعتقدات الخاطئة. أو المخاطرة بفقدانهم".

تاريخ الإضافة: 2025-08-13 تعليق: 0 عدد المشاهدات :210
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات