القاهرة: الأمير كمال فرج.
في ورقة بحثية نُشرت في وقت سابق من هذا الشهر، قال باحثون من OpenAI إنهم اكتشفوا السبب وراء استمرار ظاهرة "الهلوسة" المنتشرة في أقوى نماذج الذكاء الاصطناعي، حيث تقدم منتجات مثل ChatGPT إجابات واثقة ولكنها غير صحيحة من الناحية الواقعية.
ذكر تقرير نشرته مجلة إن "الباحثون وجدوا أن طريقة تقييم مخرجات نماذج اللغة الكبيرة، مثل تلك التي تُشغل ChatGPT، تجعلها "مُحسّنة لتكون جيدة في الاختبارات"، وأن "التخمين عند الشعور بعدم اليقين يُحسّن أداء الاختبار". ببساطة، القائمون على تطوير الذكاء الاصطناعي يشجعونه على التخمين بدلاً من الاعتراف بأنه لا يعرف الإجابة. قد تكون هذه استراتيجية جيدة في الامتحانات، لكنها خطيرة تماماً عند تقديم نصائح عالية المخاطر في مجالات مثل الطب أو القانون".
تحديات اقتصادية
على الرغم من أن OpenAI زعمت في تدوينة مصاحبة للورقة أن هناك "حلاً مباشراً" يكمن في تعديل التقييمات "لمعاقبة الأخطاء الواثقة أكثر من معاقبة عدم اليقين، ومنح نقاط جزئية للتعبير المناسب عن عدم اليقين"، إلا أن أحد الخبراء حذّر من أن هذه الاستراتيجية قد تحمل عواقب كارثية على أرض الواقع التجاري.
في مقال له على موقع The Conversation، أوضح وي شينغ، المحاضر في جامعة شيفيلد وخبير تحسين الذكاء الاصطناعي، أن صناعة الذكاء الاصطناعي ليس لديها حافز اقتصادي لإجراء هذه التغييرات، لأن القيام بذلك قد يؤدي إلى زيادة هائلة في التكاليف.
تأثيرات على تجربة المستخدم
والأسوأ من ذلك، أن اعتراف الذكاء الاصطناعي المتكرر بأنه لا يستطيع الإجابة على استفسار بدرجة كافية من الثقة قد يثني المستخدمين، الذين يفضلون الإجابة الواثقة حتى لو كانت غير صحيحة في النهاية.
يقول شينغ إنه حتى لو اعترف ChatGPT بأنه لا يعرف الإجابة في 30% فقط من الحالات، فإن المستخدمين قد يصابون بالإحباط سريعاً ويتجهون إلى أنظمة أخرى. كتب الباحث أن "المستخدمين الذين اعتادوا على تلقي إجابات واثقة لأي سؤال تقريباً سيهجرون هذه الأنظمة بسرعة".
تكاليف التشغيل المتصاعدة
بينما توجد "أساليب راسخة لتحديد درجة عدم اليقين"، يرى شينغ أن نماذج الذكاء الاصطناعي قد تحتاج إلى "قدرة حسابية أكبر بكثير من النهج الحالي"، لأنها ستضطر إلى تقييم إجابات متعددة وتقدير مستويات الثقة.
وكتب شينغ: "بالنسبة لنظام يعالج ملايين الاستفسارات يومياً، فإن هذا يترجم إلى تكاليف تشغيل أعلى بكثير".
إن زيادة التكاليف المرتفعة أصلاً في هذه المرحلة قد يكون كارثياً، فقد راهنت شركات الذكاء الاصطناعي بقوة على التوسع، وضاعفت استثماراتها في البنية التحتية لتشغيل نماذج تستهلك طاقة متزايدة. لكن على الرغم من كل جهودهم، يبدو أن تحقيق عائد على الاستثمار لا يزال بعيد المنال لسنوات، إن لم يكن لعقود. وحتى الآن، تجاوزت النفقات الرأسمالية التي بلغت عشرات المليارات من الدولارات الإيرادات المتواضعة نسبياً.
تعارض الحوافز
باختصار، قد يؤدي زيادة تكاليف التشغيل المرتفعة بالفعل، مع تنفير المستخدمين، إلى أن يصبح ذلك عقبة رئيسية أخرى أمام شركات مثل OpenAI وهي تتسابق لطمأنة المستثمرين بأن هناك نموذج عمل قابل للتطبيق على المدى الطويل.
يرى شينغ أن الحلول المقترحة من OpenAI للهلوسة قد تكون مجدية "لأنظمة الذكاء الاصطناعي التي تدير عمليات تجارية حيوية أو بنية تحتية اقتصادية"، حيث "تفوق تكلفة الهلوسة بكثير تكلفة جعل النماذج تقرر ما إذا كانت غير متأكدة جداً".
وأضاف: "لكن التطبيقات الاستهلاكية لا تزال تهيمن على أولويات تطوير الذكاء الاصطناعي"، "فالمستخدمون يريدون أنظمة تقدم إجابات واثقة لأي سؤال".
إن الوصول إلى إجابة أكثر غموضاً بشكل أسرع هو أرخص بطبيعته للشركات، مما قد يقلل من الحوافز لاتباع نهج أكثر حذراً وذكاءً يتضمن هلوسة أقل.
كيف ستتطور الأمور في الأمد البعيد هو أمر يظل مجهولاً، خاصة مع استمرار تحول قوى السوق وإيجاد الشركات طرقاً أكثر كفاءة لتشغيل نماذج الذكاء الاصطناعي الخاصة بها.
لكن هناك شيء واحد من غير المرجح أن يتغير: التخمين سيظل دائماً الخيار الأكثر اقتصاداً وفعالية من حيث التكلفة.
وفي الختام، قال شينغ إن ورقة OpenAI سلطت الضوء دون قصد على حقيقة مزعجة: "إن الحوافز التجارية التي تدفع تطوير الذكاء الاصطناعي الاستهلاكي لا تزال غير متوافقة بشكل أساسي مع تقليل الهلوسة". وأضاف: "حتى تتغير هذه الحوافز، ستستمر الهلوسة".