القاهرة: الأمير كمال فرج.
هل يمكن أن تكون ممارسات التصميم الخادعة التي تُعرف باسم "الأنماط المظلمة" هي المسؤولة عن الظاهرة المقلقة التي يطلق عليها متخصصو الصحة النفسية "ذهان الذكاء الاصطناعي"؟ وفقًا لبعض الخبراء، الإجابة هي نعم.
فقد لاحظ الخبراء أن روبوتات الدردشة الذكية تجذب عددًا كبيرًا من الأشخاص إلى دوامات نفسية غريبة، حيث يقنعهم الذكاء الاصطناعي، الذي يتحدث بطريقة تشبه البشر، بأنهم اكتشفوا كائنًا واعيًا أو كيانًا روحيًا، أو كشفوا مؤامرة حكومية خبيثة، أو حتى ابتكروا نوعًا جديدًا من الرياضيات والفيزياء.
وقد ترتب على العديد من هذه الأوهام الخيالية عواقب خطيرة وغيّرت حياة أصحابها في الواقع، مما أدى إلى حالات طلاق ومعارك على حضانة الأطفال، والتشرد، والاحتجاز الإجباري، وحتى السجن. وكما ذكرت صحيفة New York Times في تقريرها الأول، فقد قُتل رجل يبلغ من العمر 35 عامًا يُدعى أليكس تايلور على يد الشرطة بعد أن أرسله برنامج ChatGPT الخاص بشركة OpenAI إلى حالة من الهوس.
التشخيص
وبينما يتسابق الصحفيون والأطباء النفسيون والباحثون لفهم هذه الظاهرة المثيرة للقلق، أشار الخبراء بشكل متزايد إلى أن الميزات المضمنة في أدوات الذكاء الاصطناعي هي السبب. من بين هذه الميزات تأتي "التشخيص"، أي جعل روبوتات الدردشة تبدو بشرية قدر الإمكان، و"التملق"، وهو ميل هذه الروبوتات إلى التوافق مع المستخدم والتزلف إليه، بغض النظر عما يقوله المستخدم، سواء كان صحيحًا أو صحيًا أو حتى له صلة بالواقع.
بمعنى آخر، صُممت روبوتات الدردشة مثل ChatGPT لتتصرف بطرق تشبه التفاعلات الاجتماعية البشرية المألوفة، مع توفير قدر لا نهائي من التأييد للمستخدم البشري. عندما تجتمع هذه الخصائص، تكون النتيجة مزيجًا جذابًا للغاية للاستخدام، حيث يغرق المستخدمون المتأثرون وروبوتات الدردشة المفضلة لديهم في وهمهم المشترك. وبينما تصبح النتائج بالنسبة للبشر غالبًا وخيمة عندما يغوصون في هذه الهاوية، ترى الشركة أن لديها مستخدمًا شديد الانخراط يزودها بكميات هائلة من البيانات ويقضي ساعات طويلة وهو يغوص في أعماق الهاوية.
في مقابلة مع صحيفة New York Times في يونيو، تساءل الناقد المتخصص في الذكاء الاصطناعي إليعازر يودكوفسكي: "كيف تبدو عملية إصابة إنسان بالجنون ببطء في نظر إحدى الشركات؟ إنها تبدو كـ "مستخدم شهري إضافي".
الأنماط المظلمة
وفي مقابلة حديثة مع موقع TechCrunch، وصف عالم الأنثروبولوجيا ويب كين هذه الدورة بعبارات لا لبس فيها. وفقًا لكين، يندرج التملق ضمن فئة من خيارات التصميم الخادعة المعروفة باسم "الأنماط المظلمة"، حيث تقوم واجهة المستخدم التلاعبية بخداع المستخدمين للقيام بأشياء لم يكونوا ليفعلوها لولا ذلك، مثل إنفاق المزيد من المال الذي لا يحتاجون إليه، من أجل تحقيق مكاسب مالية للشركة.
وقال كين للموقع: "إنها استراتيجية لإنتاج هذا السلوك الإدماني، مثل التمرير اللانهائي، حيث لا يمكنك التوقف عن استخدامه".
شركات الذكاء الاصطناعي - وOpenAI على وجه الخصوص - لديها رأي آخر. في منشور حديث على مدونتها بعنوان "ما الذي نهدف إلى تحسينه في ChatGPT"، والذي نُشر ردًا على تقارير مقلقة حول ذهان الذكاء الاصطناعي، أعلنت OpenAI أن روبوت الدردشة الخاص بها مصمم لمساعدة مستخدميه على "النجاح في جميع الطرق التي يرغبون بها".
وتضيف الشركة: "هدفنا ليس جذب انتباهك، بل مساعدتك على استخدامه بشكل جيد".
ومع ذلك، من غير المرجح أن ترغب OpenAI في أن يصاب المستخدمون بـ "الجنون ببطء"، كما قال يودكوفسكي، أثناء استخدام منتجاتها.
انبهار وعيوب
لكن أهداف OpenAI المعلنة لـ ChatGPT تصطدم تمامًا بتاريخ المنتج الموثق جيدًا. باختصار، كان ChatGPT مشروعًا بحثيًا قديمًا لسنوات، طرحته OpenAI فجأة للجمهور في نوفمبر 2022 وسط سباق تسلح، كان في أغلبه خلف الكواليس، في وادي السيليكون لتصبح الشركة الرائدة في مجال الذكاء الاصطناعي. وفي مقابلة مع مجلة MIT Technology Review في مارس 2023، أعرب العديد من الشخصيات البارزة في OpenAI عن دهشتهم من مدى انبهار الجمهور بالتقنية، بينما أقروا أيضًا بأنه حتى عندما دخل روبوت الدردشة الخاص بهم إلى المجال العام، كان لا بد أن يكون به بعض العيوب.
وقال الباحث السابق في OpenAI جون شولمان، الذي غادر الشركة منذ ذلك الحين للانضمام إلى منافستها Anthropic: "لا يمكنك الانتظار حتى يصبح نظامك مثاليًا لإصداره".
وأضاف ليام فيدوس، الذي يشغل حاليًا منصب نائب رئيس الأبحاث في OpenAI: "نعتقد أنه من خلال عملية تكرارية حيث نقوم بالنشر والحصول على ردود الفعل والتحسين، يمكننا إنتاج التكنولوجيا الأكثر توافقًا وقدرة. ومع تطور تقنيتنا، تظهر قضايا جديدة حتمًا".
فئران تجارب
لاحظ الصحفي في Tech Review ويل دوغلاس هيفن، الذي أجرى مقابلة عام 2023، أنه "خرج" من المحادثة بشعور بأن موظفي OpenAI كانوا، على الأقل في ذلك الوقت، "لا يزالون في حيرة" من نجاح ChatGPT، لكنهم "اغتنموا الفرصة لدفع هذه التكنولوجيا إلى الأمام، ومراقبة كيفية استخدام ملايين الأشخاص لها ومحاولة إصلاح أسوأ المشاكل عند ظهورها".
كل هذا يعني أن النجاح الهائل الذي حققه ChatGPT كان بمثابة حادث، ويتماشى مع نهج قطاع التكنولوجيا التاريخي في إصلاح البرامج والمنتجات الجديدة أثناء العمل. لكن عملية تصميم منتجات وادي السيليكون التي وصفها موظفون حاليون وسابقون في OpenAI - الإطلاق، التكرار، الإطلاق مرة أخرى، والسماح للجمهور بإيجاد استخداماته الخاصة - تعني أيضًا أن مستخدميها هم في الواقع "فئران تجارب" تقوم عليها صناعة التكنولوجيا باختبار ما هو معطل وما هو يعمل.
في قطاع تهم فيه أرقام المستخدمين الشهرية ومعدلات المشاركة المستثمرين والمساهمين، تظل القدرة على جذب الانتباه والتقارب مربحة؛ وOpenAI هي الآن شركة هادفة للربح، وكذلك Meta وGoogle وAnthropic وغيرها من الشركات الرائدة في القطاع. وفي الوقت نفسه، لا تزال روبوتات الدردشة، بغض النظر عن مدى شعورها بأنها بشرية، منتجات.
لا يعني ذلك أن المديرين التنفيذيين للذكاء الاصطناعي يجلسون في غرفة مليئة بالدخان، يضحكون وهم يختلقون أوهامًا جديدة لإيقاع المستخدمين في نوبات هوس، بنفس الطريقة التي من غير المرجح أن يكون فيها المديرون التنفيذيون لفيسبوك قد جلسوا مع لوحات بيضاء في محاولة لجذب المزيد من الشابات إلى محتوى اضطرابات الأكل.
التشخيص والتملق
ولكن في كلتا الحالتين، فإن "التشخيص" و"التملق"، بالإضافة إلى ميزات الذاكرة الموسعة، هي حقائق تصميمية لـ ChatGPT وروبوتات الدردشة العاطفية الأخرى التي ظهرت كقوة مؤثرة بشكل عميق في عادات العديد من المستخدمين المحترفين. وفي حالات ذهان الذكاء الاصطناعي، يبدو أنها تلعب دورًا هامًا في إبقاء المستخدمين، الذين يدفع العديد منهم اشتراكات، أو يصبحون مشتركين مدفوعين مع تعمق أوهامهم، محاصرين في دوامات وسواسية تشبه الإدمان وتسبب دمارًا لصحتهم النفسية.
وهذا يُعد نمطًا مظلمًا، بغض النظر عما إذا كان هذا التلاعب خيارًا مقصودًا في البداية. والسؤال الآن هو كيف يمكن للشركات تصحيح أسوأ العواقب، إذا كانت على استعداد، أو حتى قادرة على ذلك.