القاهرة: الأمير كمال فرج.
يواجه رهان شركات التكنولوجيا الكبرى على استبدال القوى العاملة بالوكلاء الذكيين AI Agents عقبة علمية غير مسبوقة. ففي الوقت الذي تضخ فيه المليارات لتطوير نماذج قادرة على العمل الذاتي، كشف باحثون عن ثغرات رياضية في بنية النماذج اللغوية الكبيرة تجعل من "المستحيل" الوثوق بها في المهام الحساسة.
ذكر فرانك لانديمور في تقرير نشرته مجلة Futurism إن "دراسة حديثة - سُلط عليها الضوء مؤخراً في مجلة Wired بعد أن ظلت طي الكتمان لشهور- عن إثبات رياضي يؤكد أن النماذج اللغوية الكبيرة LLMs "غير قادرة على تنفيذ المهام الحسابية والوكيلة Agentic Tasks التي تتجاوز مستوى معيناً من التعقيد"؛ والمفاجأة أن هذا المستوى يعد بسيطاً للغاية.
الدراسة، التي لم تخضع بعد لمراجعة الأقران، أعدها فيشال سيكا، المدير التقني السابق لشركة البرمجيات الألمانية العملاقة SAP، بالتعاون مع ابنه "فارين سيكا". ولدى سيكا الأب خبرة عريقة في هذا المجال؛ فقد تتلمذ على يد جون مكارثي، عالم الكمبيوتر الحائز على جائزة Turing والذي يعد المؤسس الفعلي لمجال الذكاء الاصطناعي وصاحب هذا المصطلح.
وصرح فيشال سيكا لمجلة Wired قائلاً: "لا توجد وسيلة تجعل هذه النماذج موثوقة".
وفي إجابة على سؤال المحاور، وافق سيكا على ضرورة صرف النظر عن فكرة إدارة الوكلاء الذكيين لمحطات الطاقة النووية، وغيرها من الوعود الرنانة التي يروج لها المتحمسون للذكاء الاصطناعي.
فجوة بين وعود الرؤساء التنفيذيين وحقائق المختبرات
إذا تجاهلنا الخطابات البراقة التي يلقيها الرؤساء التنفيذيون لشركات التقنية على المسارح، وركزنا على ما يتوصل إليه الباحثون العاملون لديهم، سنكتشف أن قطاع الذكاء الاصطناعي نفسه يقر بوجود قيود جوهرية متجذرة في بنية هذه التقنية. ففي سبتمبر الماضي، اعترف علماء من شركة OpenAI بأن مشكلة "الهلوسة" -حين يبتكر النموذج حقائق وهمية بثقة تامة- لا تزال تمثل معضلة مستمرة حتى في الأنظمة الأكثر تطوراً، مؤكدين أن دقة النماذج لن تصل أبداً إلى نسبة 100%.
يبدو أن هذا الاعتراف يمثل ضربة قوية لجدوى ما يسمى "الوكلاء الذكيين" AI Agents، وهي نماذج مصممة لتنفيذ المهام بشكل ذاتي دون تدخل بشري، والتي أجمع قطاع التقنية العام الماضي على أنها "الصرعة الكبرى" القادمة. وقد أدركت بعض الشركات التي سارعت لتبني هؤلاء الوكلاء بهدف تقليص عمالتها البشرية، أن هذه النماذج ليست قريبة حتى من كفاءة البشر؛ ربما بسبب كثرة هلوساتها وعجزها عن إتمام المهام الموكلة إليها.
هل القيود الخارجية هي الحل؟
يصر قادة الذكاء الاصطناعي على أن وضع "ضوابط حماية" خارجية Guardrails بعيدة عن النماذج نفسها يمكن أن يفلتر الهلوسات. ورغم أن النماذج قد تظل عرضة للخطأ، إلا أنهم يأملون في تقليل هذه العثرات بحيث تثق الشركات في نهاية المطاف بمنحها مهاماً كانت تُوكل سابقاً للموظفين البشر. وفي الورقة البحثية ذاتها التي أقر فيها باحثو OpenAI باستحالة الوصول للدقة المطلقة، رفضوا فكرة أن الهلوسة "قدر لا مفر منه"، زاعمين أن النماذج يمكنها "الامتناع عن الإجابة عند الشك".
ومع ذلك، يصعب العثور على روبوت دردشة شهير يفعل ذلك حالياً، والسبب المرجح هو أن ذلك سيجعلها تبدو أقل إبهاراً وتفاعلية.
وعلى الرغم من إصرار سيكا على وجود سقف تقني للنماذج اللغوية، إلا أنه يتفق مع الرأي القائل بإمكانية كبح الهلوسة عبر أدوات مساعدة، حيث صرح قائلاً: "تؤكد ورقتنا البحثية أن النموذج اللغوي الصرف يمتلك هذه القيود المتأصلة، ولكن في الوقت ذاته، يمكن بناء مكونات محيطة بهذه النماذج للتغلب على تلك العوائق".