اضطرت شركة Deloitte للاستشارات المالية إلى إعادة مبلغ 291 ألف دولار أمريكي للحكومة الأسترالية، بعد أن ضُبطت وهي تستخدم الذكاء الاصطناعي التوليدي وتُدرج أرقاماً "مُهَلوَسة" وغير موجودة في تقرير حديث.
ذكر فيكتور تانغرمان إن "وزارة التوظيف والعلاقات في أماكن العمل الأسترالية DEWR، وفقاً لتقرير نشرته صحيفة Guardian، أكدت أن الشركة وافقت على سداد الدفعة النهائية كجزء من العقد. كانت الوزارة قد كلّفت ديلويت في ديسمبر بمراجعة نظام آلي يفرض عقوبات على المستفيدين من إعانات البطالة في حال عدم التزامهم بـ "التزاماتهم المتبادلة" للحصول على وظيفة.
ومع ذلك، أظهرت "مراجعة الضمان المستقلة" علامات مثيرة للقلق تشير إلى أن ديلويت قد اختصرت الطريق وتضمنت أخطاء متعددة، مثل الإشارة إلى اقتباسات غير موجودة — وهو ما يُعدّ سمة مميزة لـ "الهراء" المُنتج بواسطة الذكاء الاصطناعي.
تُسلط "الهلوسات" الضوء مرة أخرى على كيف يمكن أن يؤدي استخدام الذكاء الاصطناعي التوليدي في بيئة العمل إلى تسلل أخطاء صارخة، بدءاً من المحامين الذين ضُبطوا وهم يستشهدون بقضايا وهمية وصولاً إلى مركز السيطرة على الأمراض في عهد ترامب الذي أشار إلى دراسة "مُتخيَّلة" بواسطة الذكاء الاصطناعي في وقت سابق من هذا العام.
غياب الرقابة والأخطاء المتراكمة
أفادت صحيفة Financial Times بأن شركة ديلويت، إلى جانب شركات استشارية أخرى، استثمرت مليارات الدولارات في تطوير أدوات ذكاء اصطناعي تزعم أنها ستُسرّع عمليات التدقيق والمراجعة لديها.
أشارت الصحيفة في وقت سابق اليوم إلى أن أكبر ست شركات محاسبة في المملكة المتحدة لم تكن تراقب بشكل رسمي كيف يؤثر الذكاء الاصطناعي على جودة عمليات التدقيق، مما يُبرز احتمال أن تكون تقارير أخرى كثيرة قد تتضمن "هلوسات" مماثلة.
من جهته، قال كريستوفر ردج، المحاضر في علم الاجتماع بجامعة سيدني والذي كان أول من لفت الانتباه إلى المشاكل في تقرير ديلويت، إن الشركة حاولت التستر على أخطائها بعد مشاركة نسخة محدثة من التقرير المليء بالعيوب.
وصرح لـ Guardian قائلاً: "بدلاً من مجرد استبدال مرجع مزيف مُهلوَس بمرجع "حقيقي" جديد، استبدلوا المراجع المزيفة، وفي النسخة الجديدة، تجد خمسة أو ستة أو سبعة أو ثمانية مراجع في مكانه. هذا يوحي بأن الزعم الأصلي الوارد في متن التقرير لم يكن مبنياً على أي مصدر إثباتي محدد."
انتقادات لاذعة من السياسيين
رغم أن ديلويت ضُبطت متلبسة باستخدام الذكاء الاصطناعي لتوليد استشهادات مُهلوَسة، قالت الشركة إن الجوهر العام لتوصياتها لم يتغير. وقد أشارت حاشية في النسخة المُنقحة إلى أن الموظفين استخدموا نموذج GPT-4o من OpenAI لإعداد التقرير.
صرّح متحدث باسم ديلويت لـ Guardian: "أجرت ديلويت مراجعة الضمان المستقلة وأكدت أن بعض الحواشي والمراجع كانت غير صحيحة. لكن جوهر المراجعة المستقلة لا يزال قائماً، ولا توجد تغييرات على التوصيات."
لكن هذا لم يهدئ من غضب المشرعين الذين دعوا إلى مزيد من الرقابة.
قالت السناتور العمالية ديبورا أونيل، ممثلة نيو ساوث ويلز، لصحيفة Financial Review الأسترالية: "لدى ديلويت مشكلة في الذكاء البشري. سيكون الأمر مضحكاً لو لم يكن بهذه الفظاعة... ففي كثير من الأحيان، وكما أظهرت تحقيقاتنا البرلمانية، تفوز هذه الشركات الاستشارية بالعقود عبر الوعد بخبراتها، ثم عندما يُوقع العقد، يقدمون لك ما يُكلّفهم أقل قدر من الجهد البشري."
وأضافت أونيل: "أي شخص يتطلع إلى التعاقد مع هذه الشركات يجب أن يسأل تحديداً عن هوّية من يقوم بالعمل الذي يدفعون مقابله، وأن يتم التأكد من تلك الخبرة وعدم استخدام الذكاء الاصطناعي. وإلا، فربما يكون من الأفضل للمشترين الاشتراك في خدمة ChatGPT بدلاً من التعاقد مع شركة استشارية كبرى."
من جانبها، قالت السناتور عن حزب الخضر بيني أولمان-باين: "كان هذا التقرير يهدف للمساعدة في كشف الإخفاقات في نظام الرعاية الاجتماعية وضمان المعاملة العادلة للمستفيدين، ولكن بدلاً من ذلك، سمحت الحكومة [العمالية] لديلويت بأن تخدعهم. يجب على الحكومة أن تصر على استرداد كامل المبلغ من ديلويت، وعليهم التوقف عن إسناد قراراتهم إلى شركائهم المستشارين."