القاهرة: الأمير كمال فرج.
في الماضي، كان التعرض لأكواد الغش الزائفة عبر الشائعات أو المنتديات القديمة على الإنترنت بمثابة طقس اعتاد عليه اللاعبون. أما الآن، وبعد مرور زمن طويل على الألعاب الكلاسيكية مثل Pokémon Yellow وFinal Fantasy، يبدو أن الذكاء الاصطناعي قد ورث هذا الدور.
قال الصحفي المخضرم في مجال الألعاب ستيفن توتيلو في رسالته الإخبارية "ملف اللعبة" أن "تقارير جوجل المدعومة بالذكاء الاصطناعي رصدت وهي تقدم نصائح سيئة بشكل متكرر حول لعبة Trash Goblin، وهي لعبة مستقلة من تطوير استوديو Spilt Milk البريطاني. في هذه اللعبة، يلعب المستخدمون دور عفريت لطيف يبحث في القمامة عن كنوز لامعة ليقوم بتنظيفها وبيعها في متجره.
أوضح توتيلو أن العفريت ينظف الأشياء عن طريق نحتها بالإزميل، وهو ما يحاكيه اللاعبون بالنقر المتكرر بالفأرة. من المستحيل إتلاف هذه الحلي أثناء اللعب، ولكن عندما سأل توتيلو Google عما إذا كان هذا الضرر ممكنًا، كذب نظام الذكاء الاصطناعي بشكل صريح.
قال الذكاء الاصطناعي بشكل خاطئ: "نعم، يمكن أن تتلف الحلي في لعبة Trash Goblin أثناء تفتيت القطع المحيطة بها".
وما زاد الأمر سوءًا، هو أن الذكاء الاصطناعي أضاف نصيحة غير مفيدة للاعبين لتجنب شيء لا يمكن حدوثه في اللعبة أصلًا.
زعم الذكاء الاصطناعي: "عليك توخي الحذر عند إزالة القطع الصغيرة، وخاصة الأجزاء المتصلة مباشرة بالحلية، لأن ضربها قد يتسبب في كسرها".
هذه ليست المرة الأولى التي نرى فيها أنظمة الذكاء الاصطناعي تختلق ادعاءات لا أساس لها من الصحة. فمن ادعائه الكاذب بفوز الفنان المستقل إم جيه ليندرمان بـ 14 جائزة جرامي، إلى اقتراحه الغريب بأن يلطخ الآباء البالونات بالبراز لتدريب أطفالهم على استخدام الحمام، وصولًا إلى مطالبة الناس بوضع الغراء على البيتزا واختلاق أقوال شعبية عجيبة، غالبًا ما تكون ملخصات الذكاء الاصطناعي المليئة بالأخطاء مضحكة وغير منطقية.
على الرغم من أن هذه الأمثلة قد تبدو مضحكة، إلا أنها تنذر بأخطاء أكثر خطورة، خاصة بعد أن قررت Google في وقت سابق من هذا العام إضافة نصائح صحية إلى ميزة "نظرة عامة على الذكاء الاصطناعي". من المقلق تخيل نفس الميزة التي اقترحت سابقًا أن الفيلة يمكن أن تتسع في راحة اليد وهي تقدم معلومات طبية.