القاهرة: الأمير كمال فرج.
في خطوة مثيرة للقلق، قام باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) بتدريب خوارزمية ذكاء اصطناعي لتُظهر ميولًا سيكوباتية، في إشارة واضحة إلى شخصية "نورمان بيتس" الشهيرة.
يسلّط هذا الإنجاز الضوء على المخاطر المحتملة للبيانات المنحازة في تدريب نماذج الذكاء الاصطناعي، ويقدّم لمحة مخيفة عما يمكن أن يحدث عندما تسير الأمور على نحو خاطئ.
"نورمان" هو اسم خوارزمية الذكاء الاصطناعي التي تمتلك القدرة على "رؤية" و"فهم" الصور، ثم وصف ما تراه كتابيًا. لكن المثير للرعب هو أن تفسيراته للصور جاءت مروعة ومخيفة للغاية.
أنجز باحثو معهد ماساتشوستس للتكنولوجيا مهمتهم المرعبة هذه من خلال التعمق في خيوط "ريديت" الملتوية حقًا، وبالتحديد في مجموعة مخصصة لـ "توثيق ومراقبة الواقع المزعج للموت".
استُخدمت هذه الصور لتدريب خوارزمية الذكاء الاصطناعي. وبعد أن أصبح "نورمان" مشوهًا تمامًا، تم إخضاعه لاختبار رورشاخ للبقع الحبرية، وهو اختبار نفسي يُستخدم لتقييم الصحة العقلية للمرضى. وقد قورنت هذه النتائج باستجابات ذكاء اصطناعي عادي، وكانت النتائج صادمة.
في بيانهم الذي ناقشوا فيه المشروع، صرح باحثو معهد ماساتشوستس للتكنولوجيا: "ولد نورمان من حقيقة أن البيانات المستخدمة لتعليم خوارزمية التعلم الآلي يمكن أن تؤثر بشكل كبير على سلوكها."
وأضافوا: "لذلك، عندما يتحدث الناس عن تحيز خوارزميات الذكاء الاصطناعي وعدم إنصافها، غالبًا ما لا يكون الجاني هو الخوارزمية نفسها، بل البيانات المتحيزة التي تم تغذيتها بها. يمكن لنفس الطريقة أن ترى أشياء مختلفة جدًا في الصورة، حتى أشياء مريضة، إذا تم تدريبها على مجموعة بيانات خاطئة (أو صحيحة!)."
استُخدم هذا المشروع "كدراسة حالة حول مخاطر الذكاء الاصطناعي عندما تُستخدم بيانات منحازة في خوارزميات التعلم الآلي."
لحسن الحظ، فإن قدرة "نورمان" الوحيدة هي إضافة التعليقات التوضيحية للصور، مما يعني أن أقصى ضرر يمكن أن يلحقه هو تفسير بقع رورشاخ الحبرية بطريقة مخيفة.