القاهرة: الأمير كمال فرج.
بناءً على إعلان Secure AI الذي صدر العام الماضي، أطلقت Google اليوم أداة أمان جديدة لتقييم المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على مؤسستك.
و Secure AI اختصار لأمان الذكاء الاصطناعي، وهو عملية تعزيز وضع أمان الذكاء الاصطناعي في المؤسسة، بأتمتة اكتشاف التهديدات والوقاية منها ومعالجتها لمكافحة الهجمات الإلكترونية وانتهاكات البيانات بشكل أفضل.
ذكر ديفي وندر في تقرير نشرته مجلة Forbes أن "أداة تقييم المخاطر SAIF تم تصميمها لمساعدة الآخرين ليس فقط على تقييم وضعهم الأمني من منظور أنظمة الذكاء الاصطناعي ولكن أيضًا تطبيق أفضل الممارسات ووضع المبادئ وراء SAIF موضع التنفيذ داخل أي مؤسسة. إليك ما تحتاج إلى معرفته حول أداة Google SAIF المجانية".
تم الإعلان عن إطار عمل مفاهيمي للمساعدة، بطريقة تعاونية، في تأمين تكنولوجيا الذكاء الاصطناعي الناشئة، لأول مرة في يونيو 2023 من قبل كبير مسؤولي أمن المعلومات في Google Cloud، Phil Venables، إلى جانب نائب رئيس الهندسة للخصوصية والسلامة والأمان، رويال هانسن .
كيف ولدت SAIF من Google؟
قالت جوجل، ""في إطار السعي إلى تحقيق التقدم ضمن هذه الحدود الجديدة للابتكار، يجب أن تكون هناك معايير أمان صناعية واضحة لبناء ونشر هذه التكنولوجيا بطريقة مسؤولة".
ومن هنا، وُلِدت SAIF. على مدار الأشهر الستة عشر التي مرت، تم وضع أداة أمان الذكاء الاصطناعي SAIF موضع التنفيذ العملي للغاية مع تشكيل تحالف من أجل الذكاء الاصطناعي الآمن.
عمل هذا المنتدى الصناعي على تقديم المشورة الشاملة بشأن التدابير الأمنية عندما يتعلق الأمر بنشر أنظمة الذكاء الاصطناعي، باستخدام مبادئ SAIF كأساس له.
اليوم، قطعت Google SAIF خطوة عملاقة أخرى إلى الأمام بإطلاق أداة تقييم المخاطر المجانية التي تولد قائمة مرجعية مخصصة للمنظمات لاستخدامها عند تأمين أنظمة الذكاء الاصطناعي الخاصة بها.
يتوفر تقييم مخاطر SAIF من Google على الفور، في شكل أداة تعتمد على الاستبيان، والتي إذا تم إكمالها بصدق وبشكل كامل، يمكنها إخراج إرشادات شاملة وعملية لممارسي الأمن عندما يتعلق الأمر بتأمين أنظمة الذكاء الاصطناعي المنتشرة في مؤسستهم.
كيف تعمل أداة Google SAIF للأمان في مجال الذكاء الاصطناعي؟
بدءًا من الأسئلة التي تهدف إلى جمع أكبر قدر ممكن من المعلومات فيما يتعلق بموقف أمان الذكاء الاصطناعي الحالي في المؤسسة، يغطي استبيان Google SAIF عددًا من الموضوعات المميزة: التدريب والضبط والتقييم؛ ضوابط الوصول إلى النماذج ومجموعات البيانات؛ منع الهجمات والمدخلات المعادية؛ التصميمات الآمنة وأطر البرمجة للذكاء الاصطناعي التوليدي؛ والوكلاء المولدون للذكاء الاصطناعي.
تبدأ أداة Google SAIF بعد ذلك في تسليط الضوء على مخاطر أمان الذكاء الاصطناعي المحددة التي حددتها داخل نظام الذكاء الاصطناعي بناءً على تلك الإجابات، والأهم من ذلك، توفر التخفيف الموصى به لهذه المخاطر.
ومع ذلك، هذا ليس مجرد تمرين لوضع علامة على قائمة التحقق، حيث توفر أداة Google SAIF أيضًا أسبابًا سهلة الفهم وراء المخاطر التي حددتها، سواء كانت تتعلق بتسميم البيانات أو الحقن الفوري أو التلاعب بمصدر النموذج.
ولا تتجنب أداة Google SAIF أيضًا التفاصيل الفنية، مع توفير مخاطر فنية مفصلة وضوابط تخفيف أيضًا. يتم كل هذا، بفضل الذكاء الاصطناعي نفسه بالطبع، على الفور تقريبًا.
لا داعي للانتظار حتى تقوم وكالة خارجية بإعداد تقرير استشاري يستغرق وقتًا طويلاً ومكلفًا. بل توجد أيضًا خريطة مخاطر SAIF تفاعلية للمساعدة في التنقل وفهم المشكلات التي تم الكشف عنها والطريقة التي يتم بها تقديم مخاطر أمنية مختلفة واستغلالها والتخفيف منها طوال عملية تطوير الذكاء الاصطناعي.
قال متحدث باسم Google: "إن قدرة تقرير تقييم مخاطر SAIF تتوافق بشكل خاص مع مسار عمل حوكمة مخاطر الذكاء الاصطناعي في CoSAI، وهو نظام بيئي مفتوح لخبراء الذكاء الاصطناعي والأمن من المنظمات الرائدة في الصناعة والمكرسة لمشاركة أفضل الممارسات لنشر الذكاء الاصطناعي الآمن.
يمكن استخدام أداة Google SAIF مجانًا من خلال زيارة SAIF.Google واتباع الروابط الموجودة هناك.