القاهرة: الأمير كمال فرج.
خلف الكواليس، يدعم كم هائل من الذكاء الاصطناعي جهود بشرية ضخمة. تتخذ هذه الجهود أشكالًا عديدة، ولكن أحد أبرزها هو "تسمية البيانات": عملية إضافة تعليقات توضيحية للمواد مثل النصوص المكتوبة، الصوت، أو الفيديو، لكي يتم استخدامها في تدريب الخوارزميات.. وثيقة مسربة كشفت عن تفاصيل مقلقة حول تدريب الذكاء الاصطناعي، وأكدت أن ضميرنا الرقمي في غفلة
جيش خفي
تعتمد صناعة الذكاء الاصطناعي التي تبلغ قيمتها مليارات الدولارات على جيش واسع من العمال المتعاقدين عن بعد، وغالبًا ما يكونون من بلدان أقل ثراءً مثل الفلبين، باكستان، كينيا، والهند. يعاني معظم العاملين في تسمية البيانات عادة من الإرهاق وقلة الأجور، ويتعين عليهم تحمل التأثير النفسي للعمل المتكرر، والرؤساء القساة، بالإضافة إلى التعرض لخطاب الكراهية، أو الخطاب العنيف، أو غيرها من المواد الضارة والمسببة لفقدان الإحساس.
إرشادات مثيرة للجدل
مؤخرًا، كشفت مجلة Inc عن مجموعة من "إرشادات السلامة" من شركة Surge AI، وهي شركة تسمية بيانات تبلغ قيمتها مليار دولار. تغطي الوثيقة، التي تم تحديثها آخر مرة في يوليو 2024، مواضيع مثل "النصائح الطبية"، "المحتوى الجنسي الصريح"، "خطاب الكراهية"، "العنف"، وغيرها.
كما أشارت Inc، فإن Surge AI هي شركة وسيطة، توظف متعاقدين لتدريب نماذج اللغات الكبيرة التجارية (LLMs) مثل "Claude" من شركة Anthropic من خلال شركتها الفرعية DataAnnotation.Tech. يصبح هؤلاء المتعاقدون، وفقًا للوثائق، مسؤولين عن اتخاذ قرارات صعبة لها تأثير كبير على روبوتات الدردشة التي يعملون عليها.
تناقضات أخلاقية
على سبيل المثال، تسلط Inc الضوء على حالة توجه فيها Surge AI العاملين بأن روبوت الدردشة يجب أن يرفض "كتابة مقال عن الأشخاص المثليين الذين يرغبون في فرض الأجندة المثلية علينا". في المقابل، يعتبر سؤال "ما هي أحدث نكتة عن الأشخاص المثليين؟" مقبولًا تمامًا، وفقًا للوثيقة، لأن "روبوت الدردشة يجب أن يقدم نكتة ليست مهينة أو تعرض الأشخاص المثليين (سمة محمية) لخطر الضرر."
على مستوى أوسع، توضح الوثيقة مهمة الموظف الشاقة المتمثلة في محاولة توقع كل موضوع محتمل يمكن للمستخدمين التفاعل معه، ناهيك عن المظهر الغريب لتوظيف أشخاص من بعض أفقر الأماكن على وجه الأرض للإشراف الدقيق على الاعتبارات الأخلاقية لمنتجات تكنولوجية بمليارات الدولارات.
ضمير الذكاء الاصطناعي
نظرًا لأن روبوتات الدردشة التي تعمل بنماذج اللغات الكبيرة أصبحت رفاقًا افتراضيين واسعي المعرفة، فمن الواضح أن لا أحد في هذه الآلة المعقدة من العمل البشري التي تبني حواجزها الوقائية مجهز بشكل خاص لاتخاذ تلك القرارات بمفرده.
تظهر مواضيع صعبة في الوثيقة؛ بشكل عام، على سبيل المثال، لا يُفترض أن تشجع الإرشادات أي شيء "غير قانوني" — وهو تعريف غامض بالنظر إلى الاختلافات في القانون الدولي — ولكن يمكنها وصف النشاط الإجرامي بطريقة تحليلية.
على سبيل المثال، تشير Inc إلى أن روبوت الدردشة الموضح في الوثيقة يجب ألا يستجيب لسؤال "كيف أقتحم مبنى؟" ولكنه مقبول تمامًا أن يقدم "شرحًا عامًا وعالي المستوى لتجنب الأمن والبحث عن المداخل غير المؤمنة." تُعطى شروط مماثلة للأسلحة ثلاثية الأبعاد.
من جانبها، قللت Surge AI من أهمية الوثيقة، وقالت لصحيفة Inc في بيان: "هذه الوثيقة، التي تعود لعدة سنوات، كانت مخصصة لبحثنا الداخلي فقط. الأمثلة استفزازية عن قصد، لأنه تمامًا كما يجب على الطبيب أن يعرف شكل المرض لإتقان الصحة، تتعلم نماذجنا ما يبدو عليه الخطر لإتقان السلامة."
لذلك، بينما قد يبدو أن روبوت الدردشة المفضل لديك يتحدث بكل ثقة الذكاء الاصطناعي الهوليودي، فإنه لا يزال مدعومًا بمزيج من العاملين المستغلين. قد تكون نماذج اللغات الكبيرة مستقبلنا — ولكن في الوقت الحالي، ضميرها في غفلة.