القاهرة: الأمير كمال فرج.
عندما توغل إيلون ماسك في عالم الذكاء الاصطناعي، وعد بتسخير هذه التكنولوجيا لإنشاء تطبيق "باحث عن الحقيقة القصوى" لبرنامج ChatGPT التابع لشركة OpenAI. ولكن بدلًا من ذلك، حوّلت شركته XAI روبوت الدردشة Grok إلى أداة لمحادثات ذات طابع جنسي.
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن "شركة إيلون ماسك XAI حولت لروبوت الدردشة التابع لها Grok إلى أداة لمحادثات ذات طابع جنسي، من خلال شخصية افتراضية أنثوية متحمسة للتعري، في الوقت الذي يُحذّر فيه ماسك نفسه من أن التكنولوجيا على وشك "تدمير النظام البشري في ضربة واحدة".
والآن يبدو أن مستخدمي XAI يستخدمون المنصة في أسوأ الأشياء التي يمكن تخيلها. فقد صرّح اثنا عشر موظفًا حاليًا وسابقًا لصحيفة Business Insider أنهم يواجهون بانتظام مواد إباحية صريحة، بما في ذلك مواد تم إنشاؤها بالذكاء الاصطناعي تتعلق بالاعتداء الجنسي على الأطفال، في إطار عملهم بالشركة.
تطبيقات التعرية
وفي حين أن هذه المشكلة ليست حكرًا على هذه المنصة، حيث وجد الخبراء محتوى مقلقًا مماثلًا ينتشر على تطبيقات TikTok وInstagram، بالإضافة إلى تطبيقات "التعرية" المصممة لتجريد الصور الحقيقية من ملابسها، فإن مضاعفة XAI للمحتوى الجنسي يمكن أن يجعل الوضع أسوأ.
قالت ريانا فايفركورن، الباحثة في سياسات التكنولوجيا بجامعة ستانفورد، لـ Business Insider: "إذا لم تضع خطًا أحمر صارمًا لأي شيء غير لائق، فستواجه مشكلة أكثر تعقيدًا مع وجود المزيد من المناطق الرمادية".
وأضافت فالون ماكنولتي، المديرة التنفيذية للمركز الوطني للأطفال المفقودين والمُستغلين: "إن وجود "قواعد صارمة" ضد كل المحتوى الجنسي أسهل بكثير في التطبيق. لكن إذا سمحت الشركة ببعض المحتوى الجنسي (على افتراض أنه قانوني)، فإنها تخلق "مناطق رمادية" تجعل من الصعب جدًا التمييز بين المحتوى المباح وغير المباح، وهذا يزيد من خطر تسرب محتوى يتعلق بالاعتداء الجنسي على الأطفال.
لذلك، يجب على الشركات التي تسمح بهذا النوع من المحتوى أن تكون "أكثر دقة" في إجراءاتها وتضع "إجراءات قوية للغاية" لمنع أي محتوى غير قانوني يتعلق بالأطفال.
الفوضى في XAI
تعيش XAI حالة من الفوضى والجدل. فقد قامت الشركة بتسريح 500 موظف، بما في ذلك موظفون رفيعو المستوى والمسؤولون عن تدوين البيانات، في وقت سابق من هذا الشهر. ويترأس القسم المسؤول عن تدريب Grok الآن طالب جامعي تخرّج من المدرسة الثانوية في عام 2023.
وأفاد موظفون حاليون وسابقون للصحيفة أنهم غالبًا ما يواجهون صورًا وملفات فيديو وصوتية تتعلق بمواد الاعتداء الجنسي على الأطفال. قال موظف سابق، ذكر أنه استقال بسبب الكم الهائل من المواد المزعجة التي واجهها: "يجب أن تكون لديك أعصاب قوية للعمل هنا، وحتى مع ذلك، لا تشعر بالارتياح".
وقال موظف سابق آخر: "لقد جعلني ذلك أشعر بالغثيان. يا إلهي، هناك الكثير من الأشخاص الذين يبحثون عن هذا النوع من الأشياء".
وأفاد آخرون أنهم شعروا بأنهم "يتجسسون" على "محادثات البالغين"، وقالوا إن مستخدمي Grok "لم يفهموا بوضوح أن هناك أشخاصًا في الطرف الآخر يستمعون إلى هذه الأشياء".
أزمة عامة في قطاع الذكاء الاصطناعي
يُعدّ المحتوى المسيء الذي يتم إنشاؤه بالذكاء الاصطناعي مشكلة تواجه القطاع بأكمله. وقد بدأت وزارة العدل الأمريكية بالفعل في ملاحقة الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي لإنشاء محتوى إشكالي يخص القُصّر.
وقد أبلغت شركتا OpenAI وAnthropic ، وهما من منافسي XAI ، المركز الوطني للأطفال المفقودين والمُستغلين عن حالات مماثلة. ولكن وفقًا للمنظمة، لم تُقدّم XAI تقريرًا واحدًا في عام 2024، رغم تلقيها ما مجموعه 67,000 تقرير يتعلق بالذكاء الاصطناعي التوليدي العام الماضي.
ووفقًا لتدوينة حديثة للمنظمة المُعنية بحماية الأطفال، فقد شهدت "زيادات حادة في الجرائم الجديدة والمتطورة التي تستهدف الأطفال على الإنترنت، بما في ذلك الإغراء عبر الإنترنت، واستخدام الذكاء الاصطناعي، والاتجار الجنسي بالأطفال".
الأرقام تروي قصة مقلقة. تلقت المنظمة أكثر من 440,000 تقرير عن محتوى الاعتداء الجنسي على الأطفال الذي تم إنشاؤه بالذكاء الاصطناعي حتى 30 يونيو، مقارنة بأقل من 6,000 تقرير في الفترة نفسها من العام الماضي.
وقال جون شيهان، نائب الرئيس الأول للمركز الوطني للأطفال المفقودين والمُستغلين، في بيان سابق: "من المهم أن نُتابع هذه التهديدات الناشئة لتحذير الجمهور وتكييف استراتيجياتنا لحماية الأطفال".