تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



خوارزميات تتعلم القتل


القاهرة : الأمير كمال فرج.

يتجمع الطلاب الذين يرتدون ملابس مموهة حول ساحة مصغرة في قبو مبنى محفور في المنحدرات في حرم الأكاديمية العسكرية للولايات المتحدة في ويست بوينت. إنهم يشاهدون نموذجا لدبابة آلية في اختبار للقصف، تحيط بالدبابة بالونات بألوان مختلفة تمثل إما مقاتلين أو مدنيين من الأعداء ، وهي تعمل بمفردها في تحديد الأعداء باستخدام كاميرا بحجم مصغر. انتفض الطلاب العسكريون بينما ترددت أصداء فجأة في أرجاء الغرفة، وهتفوا : أحد "مقاتلي داعش" يسقط.

هذا الانفجار هو هدف هذا التمرين، وهو جزء من فصل دراسي في الأخلاق العسكرية يتم تدريسه لطلبة السنة الثانية في الأكاديمية العسكرية الأمريكية. برمج الطلاب الدبابة بخوارزمية توجهها لاستخدام قذيفتها "لقتل" مقاتلي العدو؛ الآن يقومون بتعديله لجعل الروبوت إما أكثر أو أقل عدوانية في أداء مهمته - مع أقل ضرر ممكن للأهداف غير المقصودة.

القرارات الأخلاقية

مع وجود مجموعة من الأسلحة المستقلة الفتاكة قيد التطوير اليوم، تهدف المناطيد المتفجرة إلى إثارة أسئلة في أذهان الطلاب حول القرارات الأخلاقية الأوسع التي سيواجهونها كقادة في الميدان.

يعتبر الكولونيل كريستوفر كوربيلا ، مدير مركز الروبوتات في ويست بوينت، أن نشر آلات القتل هذه أمر لا مفر منه، ويريد التأكد من أن هؤلاء الضباط تحت التدريب على استعداد التعامل معها. يقول كوربيلا: "هناك مؤثرات عميقة في التدريب، حيث يقوم هذا الروبوت بفرقعة بالون". "إنه منطاد، لكن يتم تدميره مثل الإنسان ، وهذا يجعله أكثر واقعية".

يتفاعل الطلاب مع التحدي بطرق واسعة النطاق بشكل متوقع. يشعر البعض بالقلق من أن نسيمًا خفيفًا من نظام تكييف الهواء بالمبنى قد يدفع منطادًا مدنيًا إلى رمح الروبوت المعدني ، فبدأوا بتعليم دباباتهم المصغرة للابتعاد 180 درجة عن أي مدني يتم اكتشافه ، مما يفقد فرصة قتل العدو. يقوم آخرون ببرمجة دباباتهم بنهج أكثر تشددًا، مما يؤدي أحيانًا إلى فرقعة البالونات التي تمثل "المدنيين".

قال الرائد سكوت بارسونز، أستاذ الأخلاق في ويست بوينت الذي يساعد في تدريس الدروس ، "ربما يبرمج بعض [الطلاب العسكريين] الكثير من الأخلاقيات هناك، وربما لا يقتلون أي شخص أو ربما يضعون ما يكفي"  "وظيفتنا هي أن نخوض الحروب ونقتل الآخرين. هل نقوم بذلك بالطريقة الصحيحة؟ هل نميز ونقتل الأشخاص الذين يجب أن يقتلوا ولا نقتل الأشخاص الذين لا يجب أن يقتلوا؟، هذا ما نريد أن يفكر فيه الطلاب العسكريون لفترة طويلة وصعبة ".

فقدان السيطرة

حجم التدريبات في ويست بوينت، التي شارك فيها ما يقرب من 100 طالب حتى الآن ، صغير ، لكن المعضلات التي يطرحونها تمثل رمزًا لكيفية محاولة الجيش الأمريكي السيطرة على احتمال فقدان بعض السيطرة على الأقل.

من ساحة المعركة إلى الآلات الذكية. قد يتم تشكيل المستقبل من خلال خوارزميات الكمبيوتر التي تملي كيفية تحرك الأسلحة واستهداف الأعداء. ويعكس عدم اليقين لدى الطلاب العسكريين بشأن مقدار السلطة التي يجب منحها للروبوتات، وكيفية التفاعل معها في الصراع التناقض الأوسع للجيش حول ما إذا كان يجب وأين يرسم حدًا للسماح لآلات الحرب بالقتل بمفردها.

كانت مثل هذه الآلات المستقلة ذات يوم بعيدًا عن الإدراك التقني للعلماء لدرجة أن مناقشة أخلاقياتها كانت مجرد تمرين فكري. ولكن نظرًا لأن التكنولوجيا استوعبت الفكرة ، أصبح هذا النقاش حقيقيًا للغاية.

بالفعل، تقوم البحرية الأمريكية بتجربة السفن التي يمكنها السفر لآلاف الأميال بمفردها للبحث عن غواصات أو سفن معادية يمكنها إطلاق البنادق من الشاطئ بينما تقتحم مشاة البحرية الشواطئ. يقوم الجيش بتجربة الأنظمة التي ستحدد الأهداف وتوجه مدافع الدبابات تلقائيًا.

وتقوم القوات الجوية بتطوير طائرات بدون طيار مميتة يمكنها مرافقة الطائرات في المعركة أو المضي قدمًا بمفردها، وتعمل بشكل مستقل عن "الطيارين" الذين يجلسون على بعد آلاف الأميال أمام شاشات الكمبيوتر.

 التداعيات الأخلاقية

لكن بينما تستمر المسيرة نحو الذكاء الاصطناعي في الحرب، فإنها لا تتقدم بلا منازع. ماري ويرهام واحدة من النشطاء البارزين الذين يدفعون الحكومات للنظر في التداعيات الأخلاقية لاستخدام الذكاء الاصطناعي في الأسلحة. أصلها من نيوزيلندا ، ووارهام ، التي تحدثت إليها في مكتبها بالعاصمة في يوليو  2019 ، أمضت معظم السنوات العشرين الماضية في العمل مع هيومن رايتس ووتش، في محاولة لدفع الحكومات إلى حظر الأسلحة المضادة للأفراد مثل القنابل العنقودية والألغام الأرضية. الآن ، بصفتها مديرة الدعوة لقسم الأسلحة بالمنظمة ، تعمل على إقناع قادة العالم بفرض قيود شاملة على الأسلحة المستقلة.

في أكتوبر 2012 ، أطلقت هيومن رايتس ووتش وستة منظمات غير حكومية أخرى - بعد القلق بشأن القدرة المتنامية بسرعة للطائرات بدون طيار، والوتيرة السريعة للابتكار في مجال الذكاء الاصطناعي - حملة لإيقاف الروبوتات القاتلة.

في العام التالي، تناولت اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة (CCW) مسألة ما إذا كان يجب حظر إنشاء وبيع واستخدام أنظمة الأسلحة الفتاكة المستقلة تمامًا. في كل عام منذ ذلك الحين ، انضمت ويرهام إلى آخرين من حملة "أوقفوا الروبوتات القاتلة" في الضغط على قضيتها في مكتب الأمم المتحدة في جنيف.

حجتها الأساسية هي أنه ، نظرًا لأن الآلات تفتقر إلى التعاطف، ولا يمكنها الفرز من خلال البدائل الأخلاقية الصعبة، فإن استخدامها للقتل تجاوز أخلاقي. وتقول إن "الآلات لا يمكنها الحكم على ما إذا كانت أفعالها تخلق خطرًا نسبيًا مبررًا على المدنيين، وهو مطلب أساسي في القانون الدولي".

بالإضافة إلى ذلك ، تضيف ، أن "تبني مثل هذه الآلات على نطاق واسع يمكن أن يجعل الحروب أكثر احتمالية، حيث قد ترتكب الروبوتات أخطاء مأساوية، ولن يكون من الواضح من يجب أن يتحمل المسؤولية. هل هو من أطلق السلاح؟، أم مصمم السلاح؟، أم بانيه؟".

 وضع خطير

 أظهر استطلاع للرأي العام أجري في ديسمبر 2020 معارضة الأغلبية لتطوير أسلحة الذكاء الاصطناعي في 26 من أصل 28 دولة شملها الاستطلاع ، بما في ذلك الولايات المتحدة وروسيا والصين.

ولكن حتى الآن لم تحرز ويرهام تقدمًا كبيرًا في الحصول على حظر من خلال اتفاقية الأسلحة التقليدية ، التي تعمل كهيئة إجماع ؛ لم يتم تقديم أي مشروع معاهدة إلى الأمم المتحدة ما لم توافق جميع الدول الأعضاء البالغ عددها 125 دولة. حتى الآن قالت 30 دولة فقط إنها توافق ، بينما رفضت الولايات المتحدة وروسيا وإسرائيل ، التي تستثمر بعمق في أسلحة الذكاء الاصطناعي، أيدت الصين بشكل صارم فرض حظر على استخدام مثل هذه الأسلحة، ولكن ليس تطويرها أو إنتاجها. 

تقول ويرهام ، "إذا كانت هذه الدول لا تريد معاهدة ملزمة قانونًا ، نحن نسأل، ماذا يمكنك أن تدعم؟ "لأنه يبدو أنه لا شيء في الوقت الحالي. ... نحن في وضع خطير الآن ".

التفكير الحاسوبي

بالإضافة إلى الألغاز الأخلاقية التي يطرحها الذكاء الاصطناعي، لا يزال هناك عدم القدرة على التنبؤ بشكل واسع في التفكير الحاسوبي، والذي يختلف عن المنطق البشري بطرق قد تتسبب عرضًا في وقوع إصابات أو فشل المهمة.

يمكن أن تفتقر الآلات إلى الحس السليم، حيث تبحث أجهزة الكمبيوتر عن الحل الأكثر مباشرة للمشكلات، وليس الحل الأكثر أخلاقية أو عملية. في عام 2018 ، على سبيل المثال ، صدمت سيارة ذاتية القيادة يجري اختبارها من قبل أوبر امرأة في ولاية أريزونا وقتلتها. كشف تحقيق حكومي استمر قرابة عامين أن السيارة لم تتعطل ؛ بدلاً من ذلك ، تمت برمجتها للبحث فقط عن المشاة في ممرات المشاة. كانت المشكلة في العبور العشوائي للمشاة ، كما كانت تفعل المرأة ، بعيدًا عن متناول النظام ، لذا انطلقت السيارة إلى الأمام.

يسمي باحثو الذكاء الاصطناعي هذا "الهشاشة" ، وعدم القدرة على التكيف هذا شائع في الأنظمة المستخدمة اليوم. هذا يجعل القرارات المتعلقة بحجم مخاطر ساحة المعركة التي يجب احتضانها مع الذكاء الاصطناعي صعبة بشكل خاص.

ماذا لو كان الاختلاف البسيط في الزي الرسمي - بعض الزيت المنقوع في قميص أو التراب يحجب نمط التمويه العادي - يربك الكمبيوتر ، ولم يعد يتعرف على القوات الصديقة؟.

تقدم الآلات عيبًا محتملاً آخر: في بحثها عن نجاح المهمة ، يمكن أن تكون غشاشين لا يرحمون. على مدى عقود ، صمم باحثو الذكاء الاصطناعي الألعاب كأرض اختبار للخوارزميات ومقياس لحكمتهم المتزايدة.

الغش في الألعاب

توفر الألعاب ، بقواعدها المنظمة للغاية وشروطها الخاضعة للرقابة، حاضنة آمنة يمكن لأجهزة الكمبيوتر التعلم فيها. ولكن في حالة سيئة السمعة، طُلب من نظام ذكاء اصطناعي تم تعليمه لعب تتريس Tetris بواسطة الباحث توم مورفي في جامعة كارنيجي ميلون ألا يخسر.  مع هبوط الكتل بشكل أسرع وأسرع من أعلى الشاشة ، واجه اللاعب هزيمة لا مفر منها. لذلك وجدت الخوارزمية حلاً بارعًا: أوقف اللعبة مؤقتًا واتركها متوقفة مؤقتًا - وبالتالي تجنب الخسارة. هذا النوع من اللامبالاة بالمعايير الأوسع حول الإنصاف لا يهم في اللعبة، ولكن يمكن أن يكون كارثيًا في الحرب.

تسارع الجدل حول استخدام الذكاء الاصطناعي لإحداث ضرر مميت في السنوات الأخيرة، مدفوعًا بموجة من الاستثمار من قبل البنتاغون. طلبت ميزانية وزارة الدفاع غير المصنفة 927 مليون دولار لإنفاقها على الذكاء الاصطناعي، بما في ذلك تطوير الأسلحة، في عام 2020. وكانت تريد 841 مليون دولار لعام 2021.

وتخطط وكالة مشاريع الأبحاث الدفاعية المتقدمة، وهي مهد رئيسي للتقنيات العسكرية المتقدمة ، لإنفاق ملياري دولار على الذكاء الاصطناعي على مدى خمس سنوات، وينتهي في عام 2023.

في ديسمبر، نجح سلاح الجو في استخدام الذكاء الاصطناعي على طائرة تجسس من طراز U-2 لأول مرة. حصر الاختبار الذكاء الاصطناعي في إدارة الملاحة والرادار بينما كان طيار بشري يتحكم في الطائرة ، لكن لاحقا تم نشر الذكاء الاصطناعي على طائرة تشغيلية، وإن كانت طائرة مراقبة غير مسلحة.

كان الدافع وراء الاختبار هو حملة ويل روبر، المسؤول الدفاعي السابق الذي كان يدير عمليات شراء الأسلحة للقوات الجوية خلال سنوات ترامب، وكان أحد المبشرين الرئيسيين في مجال الذكاء الاصطناعي في البنتاغون.

يعتقد روبر أن المخططين العسكريين عليهم المضي قدمًا في اختبار الذكاء الاصطناعي، حتى لو كان هناك العديد من الأشياء المجهولة، لأن منافسي الولايات المتحدة يطورون قدراتهم بسرعة. وقال خلال مائدة مستديرة مع الصحفيين بعد فترة وجيزة من اختبار طائرة التجسس: "أخشى عدم مواكبة الأمر". "لا أخشى أن نفقد معاييرنا الأخلاقية".

يعني الذكاء الاصطناعي المتقدم أن الأسلحة تعمل بشكل أسرع، تاركة وراءها المشغلين البشر وردود الفعل الطبيعية. قال روبر إنه بسبب الطريقة التي تتسارع بها قدرات الذكاء الاصطناعي ، فإن التخلف يعني أن الولايات المتحدة قد لا تلحق بالركب أبدًا ، وهذا هو السبب في أنه يدفع للتحرك بسرعة ودفع الذكاء الاصطناعي إلى القتال.

قال: "ليس من المنطقي دراسة أي شيء في عصر الذكاء الاصطناعي". "من الأفضل السماح للذكاء الاصطناعي بالبدء في العمل والتعلم ، لأنه نظام حي، يشبه إلى حد كبير الإنسان ، ولكنه يعتمد على السيليكون فقط."

 قرار القتل

لكن في الوقت الذي تتقدم فيه التكنولوجيا، لا يزال الجيش يواجه السؤال الأخلاقي الأكبر وهو : ما مدى السيطرة التي يجب أن يمنحها القادة للآلات على قرار القتل في ساحة المعركة؟ لا توجد إجابة سهلة. يمكن للآلات أن تتفاعل بسرعة أكبر من أي إنسان ، دون تعب أو إرهاق من الحرب يضعف حواسها .

خدم كل من كوربيلا وبارسونز في أفغانستان والعراق وشاهداا كيف يمكن للبشر في منطقة الحرب أن يكونوا عرضة لسوء اتخاذ القرار. عندما يُقتل الأصدقاء المقربون في القتال، يمكن للجنود أن يتخذوا قرارات خاطئة بشأن من وماذا يستهدفون بالقوة النارية. ويقولان إن الآلات ، على النقيض من ذلك ، لا تتأثر بالعواطف وتظل مركزة.

كان الشخص المكلف بالذكاء الاصطناعي في الجيش هو اللفتنانت جنرال جاك شاناهان، طيار سابق من طراز F-15 وكان أول مدير لمركز الذكاء الاصطناعي المشترك في البنتاغون، والذي تم إنشاؤه عام 2018 ليكون بمثابة حلقة الوصل لجميع عمليات تطوير الذكاء الاصطناعي العسكرية.

كان شاناهان لا يزال يبني فريقه الآخذ في التوسع بسرعة عندما أجريت معه مقابلة في مكتبه في أرلينغتون ، فيرجينيا ، في أوائل عام 2020 ، في اليوم الذي أعلن فيه أنه سيتقاعد في وقت لاحق من ذلك العام.

قال شاناهان إن فريقه بدأ للتو العمل على ما سيكون أول مشروع ذكاء اصطناعي له مرتبط مباشرة بقتل الناس في ساحة المعركة. الهدف هو استخدام الذكاء الاصطناعي للمساعدة في تقصير الوقت الذي تستغرقه الضربة من خلال تبسيط عملية اختيار الأهداف - إرسال إشارات على الفور تقريبًا ، على سبيل المثال ، ما إذا كانت أماكن مثل المستشفيات أو المواقع الدينية في خط النار. من المتوقع أن يتم استخدامه في القتال عام 2021.

 

أجزاء من الثانية

قال شاناهان إن المشروع جديد للغاية، ولا يمكن مناقشته بالتفصيل ؛ حتى لو لم يكن الأمر كذلك ، فمن المحتمل ألا يقول الكثير من أجل حماية الأسرار من دول مثل الصين وروسيا التي تسعى بقوة إلى الذكاء الاصطناعي.

قال شاناهان إن الجيش سيضع الذكاء الاصطناعي في أسلحته على الرغم من النقاشات حول الأخلاق: "سنفعل ذلك. سنفعل ذلك عمدا. سوف نتبع السياسة ".

في عام 2019 ، لخص شاناهان شكل حرب الذكاء الاصطناعي، متحدثًا في مؤتمر برعاية الحكومة. وقال: "سنصدم من السرعة ، والفوضى ، والدموية والاحتكاك في معركة مستقبلية ستتم فيها هذه المعركة في أجزاء من الثانية في بعض الأحيان" ، فيما بدا أنه تحذير بقدر ما هو توقع .

أوقفوا الروبوتات القاتلة

يدرك شاناهان أن الجمهور قد يكون متشككًا. فوجئ شاناهان وزملاؤه في أبريل 2018 عندما وقع حوالي 4000 موظف في جوجل على عريضة تطالب الشركة بالانسحاب من برنامج يديره يسمى Project Maven ، والذي استخدم الذكاء الاصطناعي لتحديد وتعقب الأشياء في الصور من لقطات الطائرات بدون طيار والأقمار الصناعية.

في يونيو من ذلك العام، قالت جوجل إنها لن تجدد عقدها للبرنامج، ووعدت بعدم العمل على أنظمة أخرى يمكن استخدامها مباشرة في الأسلحة. تم تداول التماسات مماثلة في أمازون ومايكروسوفت ، لكن لم تتراجع أي من الشركتين عن العمل مع البنتاغون.

هذه الالتماسات ليست من قبيل الصدفة ، حيث تعمل ويرهام وحملة أوقفوا الروبوتات القاتلة Stop Killer Robots بجد لتنظيم عمال التكنولوجيا لمقاومة تطوير الذكاء الاصطناعي للأسلحة. يعكس هذا الجهد اختلافًا جوهريًا واحدًا بين الذكاء الاصطناعي ومعظم التقنيات العسكرية الرئيسية الأخرى التي تم تطويرها في القرن الماضي: تقريبًا كل التطورات في الذكاء الاصطناعي يتم إعدادها في شركات التكنولوجيا التجارية ، وليس مقاولي الدفاع التقليديين.

بدلاً من انضمام الموظفين عن عمد إلى صانعي الأسلحة ، فإنهم يعملون في مشاريع في وادي السيليكون تحتوي على قطع تنتقل إلى أسلحة. وشركات التكنولوجيا تلك لا تعتمد بشكل كامل على الجيش في العمل ، على عكس شركات الدفاع ، على الرغم من أن أموال البنتاغون لا تزال جذابة.

على الرغم من الاحتجاجات من قبل موظفي جوجل كانت مزعجة لشاناهان ، إلا أنه يدرك تمامًا اعتماد وزارة الدفاع على الشركات التجارية. على الرغم من صعوبة ذلك ، يؤكد شاناهان أن البنتاغون بحاجة إلى التحدث علنًا عن كيفية استخدام الذكاء الاصطناعي. إذا لم يتمكن مسؤولو الدفاع من إقناع العاملين في مجال التكنولوجيا من خلال قدر أكبر من الشفافية بالتسامح على الأقل مع البرامج العسكرية التي تستفيد من ابتكاراتهم ، فسوف يفوت البنتاغون الفرص الثورية.

قال شاناهان : "لسنا معتادين على تلك المحادثة". “لقد أبقينا التقنيات معبأة في زجاجات لأنها كانت سرية ، قدرات وزارة الدفاع الخاصة في الطابق السفلي من البنتاغون. لم يعد هذا هو الحال بعد الآن ".

 خمسة مبادئ

في أعقاب الجدل، طلب البنتاغون من مجلس الابتكار الدفاعي ، وهو مجموعة استشارية من التقنيين والمهندسين المتعاونين مع الجيش ، فحص استخدام الجيش للذكاء الاصطناعي والقضايا الأخلاقية المرتبطة به. توصلت المجموعة إلى قائمة من خمسة مبادئ رئيسية غير ملزمة لكيفية متابعة الجيش للذكاء الاصطناعي، مع التركيز على الاختبارات المكثفة والقدرة على إيقاف الأسلحة المستقلة - ولكن دون الحد مما يمكن للجيش السعي وراءه.

أعلن شاناهان في مؤتمر صحفي أن البنتاغون سيتبنى هذه المبادئ في أوائل عام 2020 ، مؤكدا أنه لا يريد إزالة أي شيء عن الطاولة. قال: "آخر شيء أردنا القيام به ، هو وضع الأصفاد على القسم ليقول ما لا يمكنك فعله".

تم كتابة القواعد الوحيدة للأسلحة العسكرية المستقلة نفسها قبل عقد من الزمن من قبل مسؤول متوسط ​​المستوى في البنتاغون يحاول تخيل قدرات الكمبيوتر التي بدأت للتو تبدو معقولة.

كان بول شار، وهو حارس سابق بالجيش خدم في العراق وأفغانستان، يعمل في متجر سياسات وزارة الدفاع كمدني في عام 2010 عندما تم تكليفه بكتابة المبادئ التوجيهية لسياسة الوزارة لأسلحة الذكاء الاصطناعي.

كان البنتاغون في خضم المداولات حول طائرة بدون طيار جديدة من المفترض إطلاقها من حاملات الطائرات ومجهزة في النهاية لحمل صواريخ فتاكة. أراد المهندسون المشاركون في تطوير الطائرة بدون طيار ، والمعروفين باسم Northrop Grumman X-47B ، التأكد من أن لديهم فسحة لبناء وتطوير السلاح باستقلالية كبيرة، ولم يرغبوا في إنشاء شيء يقرر المسؤولون لاحقًا أنه مستقل للغاية لاستخدامه في الميدان.

قال شار: "كان بإمكان الناس رؤية الانحناء نحو مزيد من الاستقلالية، وكان الناس يسألون ،" إلى أي مدى نحن على استعداد للذهاب مع هذا؟ " "إذا كان السلاح بمفرده وفقدت الاتصال به ، فماذا تريد منه أن يفعل؟ هل تعود للمنزل ، هل تهاجم أهدافًا مخططة مسبقًا؟ هل يمكنه مهاجمة أهداف الفرص الناشئة؟

أوضح شار إن السياسة التي ساعد في كتابتها، والتي صدرت في وقت قريب من تشكيل حملة وقف الروبوتات القاتلة عام 2012 ، كان من المفترض أن توضح لمصممي الأسلحة أنه يمكنهم مواصلة عملهم.

كان ابتكاره الرئيسي هو مطلب مراجعة الأنظمة القادرة على القتل بمفردها من قبل ثلاثة من كبار مسؤولي وزارة الدفاع. لكن السياسة لم تحظر أي شيء. قال شار: "في نهاية اليوم ، يجدر الإشارة إلى أن التوجيه لا يعطي الإجابة". "لا يقول إن هذا هو ما يُسمح لك بفعله، ولا يجوز لك القيام به في جميع الأوقات".

تخلت البحرية في النهاية عن فكرة تسليح الطائرة نورثروب غرومان X-47B. ولم يتم اعتبار أي سلاح آخر بعيدًا بما يكفي للتأهل للمراجعة الخاصة التي تتطلبها سياسة شار ، وفقًا لمسؤولين حاليين وسابقين مطلعين. لكن مسؤولي البنتاغون يقولون إن اللحظة تقترب عندما ستشهد أسلحة الذكاء الاصطناعي القتال.

تجربة بريطانية

الولايات المتحدة ليست وحدها التي تغامر بدخول هذه المنطقة. منذ ما يقرب من عقدين من الزمن ، صنعت بريطانيا صاروخًا يسمى Brimstone كان من المفترض أن يلاحق مركبات العدو التي اختارتها من تلقاء نفسها بعد إطلاقها من مقاتلات تورنادو البريطانية.

قامت خوارزميتان للكمبيوتر - وليس الطيارون - بإملاء أفعالها. لم يكن Brimstone بالضبط مثالًا على الذكاء الاصطناعي: فقد تم كتابة الخوارزميات بواسطة أشخاص ، في حين أن أسلحة الذكاء الاصطناعي ستعتمد على أجهزة الكمبيوتر ذات الشفرات التي تكتب نفسها - وهي برمجة شاملة يكاد يكون من المستحيل مراجعتها والتحقق منها.

ومع ذلك ، عندما كان الصاروخ جاهزًا للاستخدام ، كان القادة البريطانيون - في خضم القتال في العراق - يواجهون ضغطًا شعبيًا قويًا بشأن الخسائر في صفوف المدنيين، ومخاوف بشأن القانون الدولي.

يجب أن يكون جميع القادة العسكريين، بموجب قواعد الحرب ، قادرين على إظهار أنهم "يميزون" بين الأهداف العسكرية القانونية والمدنيين، وهو أمر يصعب القيام به إذا كان الصاروخ هو الذي يقرر ما سيضرب وليس الشخص. في النهاية ، اختار قادة سلاح الجو الملكي عدم نشر الصاروخ في العراق، وبدلاً من ذلك أمضوا عامًا في إعادة تصميمه لإضافة وضع يسمح للطيارين باختيار الأهداف.

ومع ذلك ، نشر البريطانيون هذه التكنولوجيا في ليبيا، عندما أطلقت طائرتان مقاتلتان من طراز تورنادو في عام 2011 22 بريمستون في وضع مستقل على قافلة من ثماني مركبات عسكرية ليبية كانت تقصف بلدة في وسط الصحراء. وشوهدت سبع سيارات من أصل ثماني مشتعلة في ألسنة اللهب بعد الضربة، بينما يُفترض أن السيارة الثامنة دمرت.

وصدرت بريطانيا منذ ذلك الحين الصاروخ الذي يتمتع بالقدرة على التحكم به من خلال الطيار والاستقلال الذاتي، وتقوم الولايات المتحدة الآن بتطوير صاروخ مشابه لصاروخ Brimstone ، وفقًا لوثائق ميزانية وزارة الدفاع.

ساحة المعركة

في غضون ذلك ، تطورت آراء شار على مدار السنوات العشر الماضية، ويرجع ذلك جزئيًا إلى أن أنظمة الأسلحة التي كانت مجرد مفاهيم في ذلك الوقت أصبحت الآن على وشك أن تكون في ساحة المعركة.

ما زال شار لا يدعم فرض حظر شامل على أنظمة الأسلحة المستقلة - وهو موقف يتوافق مع قواعد 2012 التي كتبها - لكنه تبنى مؤخرًا إمكانية فرض قيود على أسلحة الذكاء الاصطناعي التي تستهدف الأشخاص، على عكس الدبابات والطائرات والسفن.

تبنى بعض الضباط المستقبليين الذين يعملون مع الدبابات الآلية في ويست بوينت وجهة نظرهم الحذرة تجاه الأسلحة المستقلة. بعد تكرار المحاولة والخطأ، حققوا تقدمًا جيدًا في برمجة الدبابات لقتل بالونات العدو بشكل أكثر كفاءة، لكن العديد منهم ما زالوا غير مقتنعين بأن الأسلحة المحقونة بالذكاء الاصطناعي جاهزة لوضعها في الميدان.

قال كاميرون طومسون ، طالب من ليتلتون ، كولورادو: "لا يزال الأمر يمثل مسؤولية في نهاية المطاف" ، مشيرًا إلى أن القادة في نهاية المطاف سيكونون مسؤولين عما تفعله الآلات. "نحن ندرك أنه جيد جدًا في وظيفته وأنه يمكننا برمجته جيدًا. ومع ذلك ، لا أعتقد أن الكثير من الناس يريدون المجازفة الآن بأن يكونوا أول شخص يضع هذا في بيئة فعلية، ويرى ما سيحدث ".

تاريخ الإضافة: 2021-02-20 تعليق: 0 عدد المشاهدات :1473
2      0
التعليقات

إستطلاع

هل سينجح العالم في احتواء فيروس كورونا ؟
 نعم
68%
 لا
21%
 لا أعرف
12%
      المزيد
خدمات