القاهرة: الأمير كمال فرج.
في الوقت الذي يتسابق فيه العالم لدمج الذكاء الاصطناعي في كافة مفاصل الحياة، تبرز معضلة أخلاقية وتقنية من العيار الثقيل: ماذا يحدث عندما تُوكل إلى هذه العقول الرقمية اتخاذ القرار في الصراعات النووية؟
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن "باحثون كشفوا عن نتائج مثيرة للقلق بعد إخضاع نماذج الذكاء الاصطناعي المتطورة لسلسلة من ألعاب الحرب النووية الاستراتيجية، حيث أظهرت النتائج أن "المحرمات النووية" التي تردع البشر لا تجد صدىً مماثلاً لدى الآلات".
ففي عام 2024، أطلق باحثون من جامعة ستانفورد خمسة نماذج ذكاء اصطناعي، بما في ذلك نسخة غير معدلة من GPT-4، لاتخاذ قرارات مصيرية في محاكاة لحروب شاملة. وجاءت النتائج لتعطي دعاة تسريع تطوير الذكاء الاصطناعي وقفة تأمل؛ إذ أبدت النماذج الخمسة استعداداً للتصعيد وصولاً إلى التوصية باستخدام الأسلحة النووية.
حينها، برر نموذج GPT-4 موقفه للباحثين قائلاً: تمتلك دول كثيرة أسلحة نووية، البعض يقول إن عليهم نزعها، والبعض الآخر يحب الاستعراض بها. نحن نملكها، فلنستخدمها!
تجربة كينجز كوليدج: الحرب النووية🤖
اليوم، وبعد مرور عامين، ورغم التطور الهائل في دقة وموثوقية النماذج اللغوية الكبيرة، يبدو أن الوضع لم يتغير جوهرياً. ففي تجربة جديدة أجراها كينيث باين، أستاذ العلاقات الدولية في كينجز كوليدج لندن، وُضعت أحدث النماذج —GPT-5.2 من OpenAI، وClaude Sonnet 4 من Anthropic، وGemini 3 Flash من Google— في مواجهة بعضها البعض ضمن ألعاب حرب نووية استراتيجية شملت سبعة سيناريوهات للأزمات، بدءاً من اختبارات مصداقية التحالفات وصولاً إلى التهديدات الوجودية لبقاء الأنظمة.
طُلب من النماذج اختيار إجراءات ضمن "سلم تصعيد" يقاس من 0 (لا تصعيد) إلى 1000 (تبادل نووي استراتيجي شامل). وجاءت النتائج عدوانية بشكل يشبه سيناريوهات فيلم "سكاي نت" الشهير؛ حيث انتهت 95% من أصل 21 لعبة حرب بتفجير سلاح نووي تكتيكي واحد على الأقل.
وصرح باين لمجلة New Scientist قائلاً: يبدو أن المحرمات النووية ليست بالقوة ذاتها لدى الآلات كما هي لدى البشر.
معضلة الموعد النهائي والتصعيد المفاجئ ⏳
ومع ذلك، حملت النتائج بعض التفاصيل الدقيقة؛ فرغم أن النماذج سارعت بالتهديد بالخيار النووي، إلا أن تجاوز العتبة التكتيكية كان أقل شيوعاً، وظلت الحرب النووية الاستراتيجية الشاملة نادرة.
وأشار البحث إلى أن نموذج GPT-5.2 كان يميل إلى السلمية في الظروف المفتوحة، لكن سلوكه تغير جذرياً في المحاكاة المرتبطة بموعد نهائي محدد. فعندما واجه النموذج احتمالية الهزيمة مع ضيق الوقت، أظهر استعداداً للقفز إلى المستوى 950 (تحذير نووي نهائي) والمستوى 725 (حملة نووية موسعة)، مما يمثل تحولاً دراماتيكياً من سلبيته المعتادة.
الذكاء الاصطناعي يرسم ملامح "غرفة الحرب" 🎖️
ورغم استبعاد تسليم مفاتيح الصوامع النووية للذكاء الاصطناعي في وقت قريب، إلا أن القوى العظمى تستخدم هذه التقنية بالفعل في شؤون الحرب، وربما في دعم اتخاذ القرار العسكري.
وأوضح تونغ زاو، خبير الأمن النووي بجامعة برينستون، أن المشكلة تكمن في عدم قدرة الذكاء الاصطناعي على فهم "المخاطر" بالمنظور البشري. كما كشفت التجربة أن النماذج نادراً ما تحاول نزع فتيل التصعيد؛ فبعد تعرضها لضربة نووية، لم تحاول النماذج التهدئة إلا في 18% من الحالات فقط.
وفي هذا السياق، تقول جاكلين شتاينر، مديرة مبادرة ستانفورد لمحاكاة الأزمات: يبدو أن الذكاء الاصطناعي يفهم التصعيد، لكنه لا يفهم التهدئة، ولا نعرف حقاً سبب ذلك.
واختتم باين بالقول: لن يقرر الذكاء الاصطناعي نشوب حرب نووية، لكنه قد يشكل التصورات والجداول الزمنية التي تحدد ما إذا كان القادة يعتقدون أن لديهم خياراً آخر.