تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



هل تتحكم الروبوتات في الحروب؟


القاهرة: الأمير كمال فرج.

وقع البنتاغون اتفاقية مع شركة الذكاء الاصطناعي Scale AI في إطار مبادرة تحمل اسم Thunderforge، بهدف دمج وكلاء الذكاء الاصطناعي في التخطيط والعمليات العسكرية.

ذكر تقرير نشره موقع Futurism أن "هذه الخطوة، التي وصفت بأنها "برنامج رائد"، تمثل تطورًا ملحوظًا في ظل الجدل الواسع حول استخدام الذكاء الاصطناعي في الحروب، والتحديات الكبيرة التي لا تزال تواجه هذا المجال".

لا يمكن تجاهل التوسع المتزايد لتقنيات الذكاء الاصطناعي داخل المؤسسات العسكرية. فقد تراجعت كل من Google وOpenAI عن القيود التي كانت تفرضها على استخدام تقنيات الذكاء الاصطناعي في تطوير الأسلحة والمراقبة، مما يشير إلى انفتاح وادي السيليكون على فكرة استخدام أدواته من قبل الجيش.

في الشهر الماضي فقط، صرح مسؤول رفيع المستوى في البنتاغون لموقع  Defense One بأن الجيش الأمريكي يتجه نحو التخلي عن تمويل الأبحاث المتعلقة بالروبوتات القاتلة ذاتية التشغيل، والتركيز بدلاً من ذلك على الاستثمار في الأسلحة التي تعمل بالذكاء الاصطناعي.

ولا يقتصر الأمر على البنتاغون وحده. فقد أعلنت OpenAI  في أواخر العام الماضي عن شراكة مع شركة Anduril  المتخصصة في تقنيات الدفاع والتي يملكها بالمر لوكي، بهدف تطوير "أنظمة مكافحة الطائرات المسيرة (CUAS)" وتحسين قدرتها على اكتشاف وتقييم والاستجابة للتهديدات الجوية القاتلة المحتملة في الوقت الفعلي.

جوهر الأمر يكمن في شعار مألوف في صناعة الذكاء الاصطناعي. كجزء من صفقة Scale AI التي تقدر بملايين الدولارات، كما ذكرت قناة CNBC ، تسعى الشركة إلى تسريع قدرة الجيش على معالجة البيانات الضخمة.

وذكرت وحدة الابتكار الدفاعي (DIU) التابعة لوزارة الدفاع الأمريكية في بيان: "يمثل Thunderforge تحولًا حاسمًا نحو حرب تعتمد على الذكاء الاصطناعي والبيانات، مما يضمن قدرة القوات الأمريكية على توقع التهديدات والاستجابة لها بسرعة ودقة".

وفقًا لبيان وحدة الابتكار الدفاعي، سيسمح النظام "للمخططين بتجميع كميات هائلة من المعلومات بسرعة أكبر، وتوليد مسارات عمل متعددة، وإجراء محاكاة حربية مدعومة بالذكاء الاصطناعي لتوقع التهديدات المتطورة والاستجابة لها".

ووفقًا لبيان بريس جودمان، قائد البرنامج، هناك "عدم تطابق أساسي بين سرعة الحرب الحديثة وقدرتنا على الاستجابة".

وقال ألكسندر وانغ، مؤسس والرئيس التنفيذي لشركة Scale AI، في البيان: "ستعمل حلول الذكاء الاصطناعي لدينا على تحويل عملية التشغيل العسكرية الحالية وتحديث الدفاع الأمريكي".

الجدير بالذكر أن شركة Scale AI كانت قد وقعت عقدًا مع مكتب الذكاء الاصطناعي والرقمنة الرئيسي التابع لوزارة الدفاع العام الماضي لاختبار وتقييم نماذج اللغة الكبيرة.

وتثير هذه الخطوة تساؤلات حاسمة حول مستقبل الحروب، حيث يرى الخبراء أن دمج الذكاء الاصطناعي في العمليات العسكرية يحمل في طياته فرصًا هائلة، ولكنه ينطوي أيضًا على مخاطر جمة هى:

    تحديات أخلاقية وقانونية: يبرز التحدي الأكبر في المسائل الأخلاقية والقانونية المتعلقة باستخدام الذكاء الاصطناعي في الحروب، وعلى رأسها مسائل المسؤولية والشفافية. فمن المسؤول عن القرارات التي تتخذها أنظمة الذكاء الاصطناعي في ساحة المعركة؟ وكيف يمكن ضمان الشفافية في عمل هذه الأنظمة؟

    مخاطر التحيز والأخطاء: لا يمكن إغفال مخاطر التحيز والأخطاء في أنظمة الذكاء الاصطناعي، والتي قد تؤدي إلى عواقب كارثية في ساحة المعركة. فأنظمة الذكاء الاصطناعي تتغذى على البيانات، وإذا كانت هذه البيانات متحيزة أو غير دقيقة، فإن القرارات التي تتخذها الأنظمة ستكون متحيزة وغير دقيقة أيضًا.

    سباق التسلح بالذكاء الاصطناعي: يخشى البعض من أن تؤدي هذه الخطوة إلى سباق تسلح جديد يعتمد على الذكاء الاصطناعي، مما يزيد من التوترات العالمية. فمع تسارع وتيرة التطور التكنولوجي، قد تتسابق الدول لتطوير أسلحة ذكية أكثر تطورًا، مما يزيد من خطر نشوب صراعات مسلحة.

    دور الرقابة الدولية: في ظل هذه التحديات، تبرز الحاجة إلى وضع أطر تنظيمية دولية للتحكم في استخدام الذكاء الاصطناعي في الحروب. يجب أن تتضمن هذه الأطر معايير أخلاقية وقانونية واضحة، وآليات للرقابة والتفتيش، لضمان استخدام هذه التقنيات بشكل مسؤول.

    الشفافية والمساءلة: يجب التأكيد على أهمية الشفافية في استخدام هذه التقنيات، والمساءلة عن أي أخطاء أو عواقب غير مقصودة. فالشفافية تساعد على بناء الثقة بين الدول، والمساءلة تضمن عدم إفلات أي طرف من العقاب في حال ارتكاب أخطاء.

    تأثير الذكاء الاصطناعي على مستقبل الحرب: لا شك أن تقنيات الذكاء الاصطناعي ستغير طبيعة الحرب في المستقبل. لذلك يجب على المجتمع الدولي أن يستعد لهذه التغيرات، وأن يضع استراتيجيات للتعامل معها.

تاريخ الإضافة: 2025-03-07 تعليق: 0 عدد المشاهدات :105
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات