القاهرة: الأمير كمال فرج.
في تحذير يمزج بين الجدية والفكاهة، دعا دنيس شو، باحث في مؤسسة "غارتنر" المرموقة، الشركات إلى حظر استخدام مساعد الذكاء الاصطناعي "Copilot" من مايكروسوفت في ظهيرة أيام الجمعة.
ذكر جو ويلكينز في تقرير نشرته مجلة Futurism إن "هذا المقترح المثير للجدل يأتي في وقت تزداد فيه المخاوف بشأن الثغرات الأمنية والخصوصية المرتبطة بهذه التقنية في بيئات العمل".
أوضح "شو" خلال ندوة بعنوان "تخفيف المخاطر الأمنية الخمسة الكبرى في Microsoft 365 Copilot" عُقدت في سيدني أن "المشكلة ليست في ابتكار مخاطر جديدة، بل في قدرة الذكاء الاصطناعي على تضخيم المخاطر القائمة بالفعل". ومن أبرز هذه النقاط:
سهولة الوصول للمستندات "المشاركة بإفراط": يجعل "Copilot" الوصول إلى الملفات الحساسة التي تمت مشاركتها بشكل خاطئ داخل المؤسسة أسهل من أي وقت مضى.
تلاشي التركيز: حذر المحلل من أن الموظفين في نهاية أسبوع العمل (عصر الجمعة) غالباً ما يفتقرون للتركيز اللازم لمراجعة وتدقيق مخرجات الذكاء الاصطناعي، مما قد يؤدي لتمرير أخطاء كارثية.
سوابق أمنية: رصد التقرير حالات سابقة قام فيها البرنامج بـ "الهلوسة" في تقارير شرطية، وكشف كلمات مرور آمنة، وتلخيص رسائل بريد إلكتروني سرية. 🛡️
خصص "شو" ثلثي وقت عرضه التقديمي للحديث عن ميل "Copilot" لكشف البيانات الحساسة الناتجة عن إخفاق المستخدمين في اتخاذ الاحتياطات اللازمة قبل تفعيل الأداة.
وقال دنيس شو، محلل الأبحاث في غارتنر إن " Copilot يجعل المستندات المشتركة بشكل زائد أكثر سهولة في الوصول. هذا ليس خطراً جديداً تماماً، ولكنه خطر معروف تضاعف بفضل الذكاء الاصطناعي."
بينما تواصل مايكروسوفت دفع أدواتها الذكية بقوة نحو قطاعات الشركات والحكومات، يرى الخبراء أن الحل قد لا يقتصر على تحسين الخوارزميات، بل في فرض رقابة بشرية صارمة، أو ربما في أخذ "استراحة" من الذكاء الاصطناعي عندما يبدأ تركيز البشر في التراجع. 💤