القاهرة: الأمير كمال فرج
لطالما عانت نماذج الذكاء الاصطناعي من "الهلوسات" - وهو مصطلح أنيق ومناسب تستخدمه الصناعة للإشارة إلى الاختلاقات التي غالبًا ما تقدمها نماذج اللغة الكبيرة على أنها حقائق.
وبالنظر إلى مسار أحدث نماذج "الاستدلال"، التي صممتها شركات مثل Google و AI "للتفكير" في المشكلة قبل الإجابة، يبدو أن المشكلة تتفاقم - لا تتحسن.
ذكر تقرير نشره موقع Futurism إن " صحيفة New York Times، ذكرت أنه كلما أصبحت نماذج الذكاء الاصطناعي أكثر قوة، أصبحت أيضًا أكثر عرضة للهلوسة، وليس العكس. إنها حقيقة غير مريحة في الوقت الذي يتدفق فيه المستخدمون باستمرار إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT الخاص بـ OpenAI، ويستخدمونها لمجموعة متزايدة من المهام. من خلال قيام روبوتات الدردشة ببث ادعاءات مشكوك فيها، فإن كل هؤلاء الأشخاص يخاطرون بإحراج أنفسهم أو ما هو أسوأ.
والأسوأ من ذلك كله، أن شركات الذكاء الاصطناعي تكافح لتحديد السبب الدقيق وراء توليد روبوتات الدردشة المزيد من الأخطاء مقارنة بالسابق - وهو صراع يسلط الضوء على حقيقة محيرة للعقل مفادها أن حتى مبتكري الذكاء الاصطناعي لا يفهمون تمامًا كيف تعمل هذه التقنية بالفعل.
يتحدى هذا الاتجاه المثير للقلق الافتراض الواسع النطاق في الصناعة بأن نماذج الذكاء الاصطناعي ستصبح أكثر قوة وموثوقية مع توسع نطاقها.
ولا يمكن أن تكون المخاطر أكبر من ذلك، حيث تواصل الشركات ضخ عشرات المليارات من الدولارات في بناء البنية التحتية للذكاء الاصطناعي لنماذج "الاستدلال" الأكبر والأكثر قوة.
يرى بعض الخبراء أن الهلوسات قد تكون متأصلة في التكنولوجيا نفسها، مما يجعل حل المشكلة مستحيلاً عمليًا.
وقال عمرو عوض الله، الرئيس التنفيذي لشركة Vectara الناشئة في مجال الذكاء الاصطناعي "على الرغم من أفضل جهودنا، فإنها ستستمر في الهلوسة دائمًا. هذا لن يختفي أبدًا."
إنها مشكلة واسعة الانتشار لدرجة أن هناك شركات بأكملها مخصصة لمساعدة الشركات على التغلب على الهلوسات.
وقال براتيك فيرما، المؤسس المشارك لشركة Okahu، وهي شركة استشارية تساعد الشركات على الاستفادة بشكل أفضل من الذكاء الاصطناعي: "عدم التعامل مع هذه الأخطاء بشكل صحيح يلغي بشكل أساسي قيمة أنظمة الذكاء الاصطناعي."
تأتي هذه الأخبار بعد أن تبين أن أحدث نماذج الاستدلال بالذكاء الاصطناعي من OpenAI، وهما o3 و o4-mini، اللذين تم إطلاقهما في أواخر الشهر الماضي، يهلوسان أكثر من الإصدارات السابقة.
أظهر نموذج o4-mini الخاص بـ OpenAI معدل هلوسة بلغ 48 % في معيار الدقة الداخلي الخاص به، مما يدل على أنه كان سيئًا للغاية في قول الحقيقة. سجل نموذج o3 معدل هلوسة بلغ 33 % ، أي الضعفين تقريبًا مقارنة بنماذج الاستدلال السابقة للشركة.
وفي الوقت نفسه، وكما تشير صحيفة New York Times، تعاني نماذج الذكاء الاصطناعي المنافسة من Google و DeepSeek من مصير مماثل لأحدث عروض OpenAI، مما يشير إلى أنها مشكلة على مستوى الصناعة.
حذر الخبراء من أنه كلما أصبحت نماذج الذكاء الاصطناعي أكبر، فإن المزايا التي يتمتع بها كل نموذج جديد على سابقه قد تتضاءل بشكل كبير. ومع نفاد بيانات التدريب بسرعة لدى الشركات، فإنها تتجه إلى البيانات الاصطناعية - أو المولدة بواسطة الذكاء الاصطناعي - بدلاً من ذلك لتدريب النماذج، وهو ما قد يكون له عواقب وخيمة.
باختصار، على الرغم من الجهود المبذولة لمضاعفة الدقة، لم تكن الهلوسات أكثر انتشارًا من أي وقت مضى - وفي الوقت الحالي، لذلك يمكن القول أن التكنولوجيا لا تسير في الاتجاه الصحيح.