القاهرة: الأمير كمال فرج.
في مشهد مستلهم من قصص الكوابيس المستقبلية، لم يعد الحصول على وظيفة في عام 2026 يعتمد على مصافحة واثقة أو سيرة ذاتية مكتوبة بعناية، بل تحول الأمر إلى عملية تقنية جافة تشبه إلى حد مرعب إجراءات التقدم لطلب قرض بنكي. فبينما يطارد الباحثون عن عمل أحلامهم، تقف خوارزميات الذكاء الاصطناعي كحارس بوابة غامض، تحول خبرات البشر وسنوات كفاحهم إلى "درجات تقييم" سرية لا تختلف عن التقييمات الائتمانية للبنوك. هذا الواقع الديستوبي، الذي يجعل مصيرك المهني رهينة صندوق أسود لا تملك مفتاحه، هو المحرك الأساسي وراء واحدة من أهم المعارك القانونية التي يشهدها سوق العمل اليوم ضد شركات فحص السير الذاتية بالذكاء الاصطناعي.
ذكر جو ويلكينز في تقرير نشرته مجلة Futurism إن "عدد من الباحثين عن عمل يقاضون شركة تقنية بتهمة إخضاعهم لتقلبات خوارزمية غريبة كشرط للتقدم في سوق العمل".
بسبب عشرات أنظمة الذكاء الاصطناعي المتنافسة التي تزدحم بها بوابات التوظيف الإلكترونية، أصبح التقدم لوظيفة جديدة في عام 2026 يشبه طلب قرض بنكي أكثر من كونه سعياً وراء فرصة عمل.
هذا، على الأقل، ما يدعيه مجموعة من الباحثين عن عمل المحبطين في دعوى قضائية مرفوعة ضد شركة فحص وتدقيق بالذكاء الاصطناعي تُدعى Eightfold AI. ووفقاً لصحيفة New York Times، يزعم المدعون أن برمجيات فحص التوظيف التابعة للشركة يجب أن تخضع لقانون "تقارير الائتمان العادلة"، وهي اللوائح التي تحمي المعلومات التي تجمعها مكاتب الائتمان الاستهلاكي.
ويقول المدعون إن السبب يكمن في أعماق خوارزمية الشركة، التي تقوم بمسح منصة LinkedIn بنشاط لإنشاء قاعدة بيانات تضم مليون مسمى وظيفي، ومليون مهارة، وملفات تعريف لأكثر من مليار شخص يعملون في مختلف الوظائف والصناعات والمناطق الجغرافية. وتُستخدم هذه البيانات بدورها في المواد التسويقية لبيع خدمات الشركة للعملاء المحتملين.
الصندوق الأسود: معايير غامضة ونتائج مجهولة
باستخدام نموذج ذكاء اصطناعي مدرب على تلك البيانات، يوضح المدعون أن الشركة تمنح طلبات التوظيف درجات من 1 إلى 5، بناءً على المهارات والخبرة وأهداف مدير التوظيف. وباختصار، فإن حجتهم هي أن هذه العملية لا تختلف أبداً عن القواعد الغامضة المستخدمة لتحديد درجات الائتمان للمستهلكين.
ومع ذلك، في حالة Eightfold AI، لا يملك المتقدمون أي وسيلة لمعرفة درجاتهم النهائية، ناهيك عن الخطوات التي اتبعها النظام للوصول إليها. وهذا ما يخلق حالة "الصندوق الأسود"؛ وهي وضعية يرى فيها الأشخاص الخاضعون للقرار الخوارزمي النتيجة النهائية فقط، دون فهم العملية التي أدت إليها. وإذا بدأ الذكاء الاصطناعي في "الهلوسة" أو اختلاق معلومات من تلقاء نفسه — وهو أمر سيئ السمعة في نماذج الذكاء الاصطناعي — فلن يجد الباحث عن عمل أي وسيلة لاكتشاف ذلك.
الاحتفاظ بالبيانات
هناك أيضاً قضية الاحتفاظ بالبيانات؛ فمع غياب الشفافية، لا يمكن معرفة كمية البيانات التي تجمعها الشركة من السير الذاتية، أو ما تفعله شركة الذكاء الاصطناعي وعملاؤها بهذه البيانات.
صرحت إيرين كيستلر، إحدى المدعيات، لصحيفة New York Times قائلة: أعتقد أن من حقي معرفة ما يُجمع عني ويُشارك مع أصحاب العمل. إنهم لا يقدمون لي أي ملاحظات، لذا لا يمكنني معالجة المشكلات.
كيستلر، التي تمتلك عقوداً من الخبرة في علوم الكمبيوتر، ذكرت أنها تتبعت بدقة كل طلب توظيف أرسلته خلال العام الماضي. ومن بين آلاف الوظائف التي تقدمت إليها، انتقل 0.3% فقط من طلباتها إلى مرحلة المتابعة أو المقابلة.
سوق عمل "ديستوبي"
تؤكد هذه القضية على الحالة المزرية التي وصل إليها سوق العمل، والذي تحول إلى ما يشبه الكوابيس "الديستوبية" (المدن الفاسدة) بفضل أدوات التوظيف المدعومة بالذكاء الاصطناعي. ويبقى أن نرى ما إذا كانت هذه الدعوى القضائية ستحصل على الزخم الكافي لتحدي المنطقة القانونية الرمادية الواسعة لتوظيف الذكاء الاصطناعي. وإذا نجحت، فقد تجلب الراحة لجموع الباحثين عن عمل اليائسين الذين تتوقف حياتهم المهنية، حرفياً، على قرار خوارزمي.