القاهرة: الأمير كمال فرج.
وقع البنتاغون اتفاقية مع شركة الذكاء الاصطناعي Scale AI في إطار مبادرة تحمل اسم Thunderforge، بهدف دمج وكلاء الذكاء الاصطناعي في التخطيط والعمليات العسكرية.
ذكر تقرير نشره موقع Futurism أن "هذه الخطوة، التي وصفت بأنها "برنامج رائد"، تمثل تطورًا ملحوظًا في ظل الجدل الواسع حول استخدام الذكاء الاصطناعي في الحروب، والتحديات الكبيرة التي لا تزال تواجه هذا المجال".
لا يمكن تجاهل التوسع المتزايد لتقنيات الذكاء الاصطناعي داخل المؤسسات العسكرية. فقد تراجعت كل من Google وOpenAI عن القيود التي كانت تفرضها على استخدام تقنيات الذكاء الاصطناعي في تطوير الأسلحة والمراقبة، مما يشير إلى انفتاح وادي السيليكون على فكرة استخدام أدواته من قبل الجيش.
في الشهر الماضي فقط، صرح مسؤول رفيع المستوى في البنتاغون لموقع Defense One بأن الجيش الأمريكي يتجه نحو التخلي عن تمويل الأبحاث المتعلقة بالروبوتات القاتلة ذاتية التشغيل، والتركيز بدلاً من ذلك على الاستثمار في الأسلحة التي تعمل بالذكاء الاصطناعي.
ولا يقتصر الأمر على البنتاغون وحده. فقد أعلنت OpenAI في أواخر العام الماضي عن شراكة مع شركة Anduril المتخصصة في تقنيات الدفاع والتي يملكها بالمر لوكي، بهدف تطوير "أنظمة مكافحة الطائرات المسيرة (CUAS)" وتحسين قدرتها على اكتشاف وتقييم والاستجابة للتهديدات الجوية القاتلة المحتملة في الوقت الفعلي.
جوهر الأمر يكمن في شعار مألوف في صناعة الذكاء الاصطناعي. كجزء من صفقة Scale AI التي تقدر بملايين الدولارات، كما ذكرت قناة CNBC ، تسعى الشركة إلى تسريع قدرة الجيش على معالجة البيانات الضخمة.
وذكرت وحدة الابتكار الدفاعي (DIU) التابعة لوزارة الدفاع الأمريكية في بيان: "يمثل Thunderforge تحولًا حاسمًا نحو حرب تعتمد على الذكاء الاصطناعي والبيانات، مما يضمن قدرة القوات الأمريكية على توقع التهديدات والاستجابة لها بسرعة ودقة".
وفقًا لبيان وحدة الابتكار الدفاعي، سيسمح النظام "للمخططين بتجميع كميات هائلة من المعلومات بسرعة أكبر، وتوليد مسارات عمل متعددة، وإجراء محاكاة حربية مدعومة بالذكاء الاصطناعي لتوقع التهديدات المتطورة والاستجابة لها".
ووفقًا لبيان بريس جودمان، قائد البرنامج، هناك "عدم تطابق أساسي بين سرعة الحرب الحديثة وقدرتنا على الاستجابة".
وقال ألكسندر وانغ، مؤسس والرئيس التنفيذي لشركة Scale AI، في البيان: "ستعمل حلول الذكاء الاصطناعي لدينا على تحويل عملية التشغيل العسكرية الحالية وتحديث الدفاع الأمريكي".
الجدير بالذكر أن شركة Scale AI كانت قد وقعت عقدًا مع مكتب الذكاء الاصطناعي والرقمنة الرئيسي التابع لوزارة الدفاع العام الماضي لاختبار وتقييم نماذج اللغة الكبيرة.
وتثير هذه الخطوة تساؤلات حاسمة حول مستقبل الحروب، حيث يرى الخبراء أن دمج الذكاء الاصطناعي في العمليات العسكرية يحمل في طياته فرصًا هائلة، ولكنه ينطوي أيضًا على مخاطر جمة هى:
تحديات أخلاقية وقانونية: يبرز التحدي الأكبر في المسائل الأخلاقية والقانونية المتعلقة باستخدام الذكاء الاصطناعي في الحروب، وعلى رأسها مسائل المسؤولية والشفافية. فمن المسؤول عن القرارات التي تتخذها أنظمة الذكاء الاصطناعي في ساحة المعركة؟ وكيف يمكن ضمان الشفافية في عمل هذه الأنظمة؟
مخاطر التحيز والأخطاء: لا يمكن إغفال مخاطر التحيز والأخطاء في أنظمة الذكاء الاصطناعي، والتي قد تؤدي إلى عواقب كارثية في ساحة المعركة. فأنظمة الذكاء الاصطناعي تتغذى على البيانات، وإذا كانت هذه البيانات متحيزة أو غير دقيقة، فإن القرارات التي تتخذها الأنظمة ستكون متحيزة وغير دقيقة أيضًا.
سباق التسلح بالذكاء الاصطناعي: يخشى البعض من أن تؤدي هذه الخطوة إلى سباق تسلح جديد يعتمد على الذكاء الاصطناعي، مما يزيد من التوترات العالمية. فمع تسارع وتيرة التطور التكنولوجي، قد تتسابق الدول لتطوير أسلحة ذكية أكثر تطورًا، مما يزيد من خطر نشوب صراعات مسلحة.
دور الرقابة الدولية: في ظل هذه التحديات، تبرز الحاجة إلى وضع أطر تنظيمية دولية للتحكم في استخدام الذكاء الاصطناعي في الحروب. يجب أن تتضمن هذه الأطر معايير أخلاقية وقانونية واضحة، وآليات للرقابة والتفتيش، لضمان استخدام هذه التقنيات بشكل مسؤول.
الشفافية والمساءلة: يجب التأكيد على أهمية الشفافية في استخدام هذه التقنيات، والمساءلة عن أي أخطاء أو عواقب غير مقصودة. فالشفافية تساعد على بناء الثقة بين الدول، والمساءلة تضمن عدم إفلات أي طرف من العقاب في حال ارتكاب أخطاء.
تأثير الذكاء الاصطناعي على مستقبل الحرب: لا شك أن تقنيات الذكاء الاصطناعي ستغير طبيعة الحرب في المستقبل. لذلك يجب على المجتمع الدولي أن يستعد لهذه التغيرات، وأن يضع استراتيجيات للتعامل معها.