القاهرة: الأمير كمال فرج.
التقى حائزون على جائزة نوبل مع خبراء في الأسلحة النووية لمناقشة دور الذكاء الاصطناعي في تحديد نهاية العالم. قد يبدو هذا كأنه مشهد من فيلم خيال علمي، وهذا ليس غريباً.
بحسب تقرير لمجلة Wired، يتفق الخبراء بشكل عام على أن مسألة حصول الذكاء الاصطناعي على رموز الأسلحة النووية هي مجرد وقت. وعلى الرغم من صعوبة تحديد السبب الدقيق وراء هذا الاعتقاد، فإن الشعور بالحتمية والقلق واضح في التقرير.
يقول اللواء المتقاعد في سلاح الجو الأمريكي، بوب لاتيف، وهو عضو في مجلس العلوم والأمن التابع لنشرة العلماء الذريين، لمجلة Wired: "الأمر يشبه الكهرباء، سيجد طريقه إلى كل شيء."
إنه موقف غريب. لقد أظهرت نماذج الذكاء الاصطناعي بالفعل سلوكيات مظلمة، مثل اللجوء إلى ابتزاز المستخدمين بمعدلات مذهلة عند تهديدها بالإيقاف.
وفي سياق قيام الذكاء الاصطناعي، أو شبكات من الذكاء الاصطناعي، بحماية مخزون من الأسلحة النووية، تصبح هذه المخاطر غير المفهومة ضخمة. وهذا دون الخوض في القلق الحقيقي لدى بعض الخبراء، والذي يشكل أيضاً حبكة فيلم The Terminator؛ وهو احتمال أن يصبح ذكاء اصطناعي فائق التطور مارقاً ويستخدم الأسلحة النووية ضد البشرية.
في وقت سابق من هذا العام، حذر المدير التنفيذي السابق لشركة Google، إريك شميت، من أن ذكاءً اصطناعياً بمستوى ذكاء الإنسان قد لا يكون لديه حافز "للاستماع إلينا بعد الآن"، مشيراً إلى أن "الناس لا يفهمون ما يحدث عندما يكون لدينا ذكاء بهذا المستوى".
لطالما كان هذا النوع من التشاؤم بشأن الذكاء الاصطناعي حاضراً في أذهان قادة التكنولوجيا لسنوات عديدة، مع تقدم الواقع ببطء. ففي شكله الحالي، قد تكون المخاطر أكثر عادية، حيث لا تزال أفضل نماذج الذكاء الاصطناعي اليوم تعاني من هلوسات واسعة النطاق تقلل بشكل كبير من فائدة مخرجاتها.
بالإضافة إلى ذلك، هناك خطر أن تترك تقنيات الذكاء الاصطناعي المعيبة ثغرات في أمننا السيبراني، مما يسمح للخصوم – أو حتى أنظمة الذكاء الاصطناعي المعادية – بالوصول إلى الأنظمة التي تتحكم في الأسلحة النووية.
كان من الصعب على جميع المشاركين في الاجتماع غير العادي الذي عقد الشهر الماضي أن يتفقوا على موضوع محفوف بالمخاطر مثل الذكاء الاصطناعي، حيث اعترف جون ولفثال، مدير المخاطر العالمية في اتحاد العلماء الأمريكيين، للمجلة بأنه "لا أحد يعرف حقاً ما هو الذكاء الاصطناعي."
لكنهم وجدوا بعض النقاط المشتركة على الأقل.
يضيف ولفثال: "في هذا المجال، يقول الجميع تقريباً إننا نريد سيطرة بشرية فعالة على عملية اتخاذ القرارات المتعلقة بالأسلحة النووية". ووافق لاتيف على أنه "يجب أن تكون قادراً على طمأنة الأشخاص الذين تعمل من أجلهم بأن هناك شخصاً مسؤولاً."
إذا كان كل هذا يبدو وكأنه عرض عبثي، فأنت لست مخطئاً. في عهد الرئيس دونالد ترامب، كانت الحكومة الفيدرالية منشغلة بدمج الذكاء الاصطناعي في كل مجال ممكن، بينما يحذرهم الخبراء من أن التكنولوجيا ليست جاهزة بعد لهذه المهمة، وقد لا تكون كذلك أبداً. وتأكيداً على هذه الجرأة، أعلنت وزارة الطاقة هذا العام أن الذكاء الاصطناعي هو "مشروع مانهاتن التالي"، في إشارة إلى المشروع الذي تم في زمن الحرب العالمية الثانية وأدى إلى إنتاج أولى القنابل النووية في العالم.
وتأكيداً على خطورة التهديد، أبرمت شركة OpenAI صانعة ChatGPT أيضاً صفقة مع المختبرات الوطنية الأمريكية في وقت سابق من هذا العام لاستخدام ذكائها الاصطناعي في تأمين الأسلحة النووية.
في العام الماضي، تفاخر الجنرال في سلاح الجو أنتوني كوتون، المسؤول فعلياً عن المخزون الأمريكي من الصواريخ النووية، في مؤتمر دفاعي بأن البنتاغون يضاعف جهوده في مجال الذكاء الاصطناعي، مؤكداً أنه "سيعزز قدراتنا على اتخاذ القرار".
لحسن الحظ، توقف كوتون عند حد الإعلان عن أننا يجب أن نسمح للتكنولوجيا بتولي السيطرة الكاملة. أضاف في ذلك الوقت: "لكن يجب ألا نسمح أبداً للذكاء الاصطناعي باتخاذ تلك القرارات نيابة عنا."