القاهرة: الأمير كمال فرج.
يسود القلق بين الرؤساء التنفيذيين في قطاع الذكاء الاصطناعي من احتمالية تورط تقنياتهم في كارثة كبرى تشبه حادثة تشيرنوبيل، مما قد يجعل هذه التكنولوجيا منبوذة اجتماعياً ومرفوضة من قبل الرأي العام. ⚠️
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن " قطاع الذكاء الاصطناعي لم يعد غريباً عن العناوين السلبية؛ بدءاً من المخاوف المتعلقة بفقدان الوظائف على نطاق واسع، وصولاً إلى الأزمات المتصاعدة في الصحة العقلية، وحتى قضايا الانتحار والقتل المرتبطة بهذه التقنية". 📉
لكن ما يشغل بال قادة التكنولوجيا حالياً، وفقاً لتقرير جديد نشرته مجلة Economist، هو إمكانية ضلوع تقنياتهم في حدث كارثي يماثل انفجار مفاعل تشيرنوبيل عام 1986، وهي الحادثة التي باتت رمزاً لإخفاقات الصناعة النووية. ☣️
ويحذر الخبراء من أنه مع تغلغل الذكاء الاصطناعي في مفاصل المجتمع، فإن مخاطر وقوع مأساة مروعة وبارزة للعيان قد تلطخ سمعة هذا القطاع بالكامل أصبحت حقيقية وملموسة. 🚩
وفي هذا السياق، صرح مايكل وولدريج، أستاذ علوم الكمبيوتر في جامعة أكسفورد، لصحيفة Guardian الشهر الماضي قائلاً: إن كارثة منطاد هيندنبورغ قضت على الاهتمام العالمي بالمناطيد، وأصبحت منذ ذلك الحين تكنولوجيا ميتة، ونواجه اليوم خطراً مماثلاً قد يواجه الذكاء الاصطناعي. 🏗️
تلوح هذه الاحتمالية في الأفق بشكل خاص مع تداخل الذكاء الاصطناعي العميق في العمليات العسكرية لإدارة ترامب، حيث تشير التقارير إلى استخدام البنتاغون لنموذج cloud التابع لشركة Anthropic لاختيار أهداف الضربات العسكرية. ⚔️
وإذا كانت هذه الأنباء تبدو كوصفة لكارثة محققة، فالعالم ليس وحده في هذا التوجس. فبعد أن قتل الجيش الأمريكي أكثر من 160 شخصاً، بينهم عشرات الأطفال، إثر قصف مدرسة ابتدائية ايرانية في الساعات الأولى من الصراع، رفضت السلطات الكشف عما إذا كان الذكاء الاصطناعي قد استخدم في التخطيط لتلك الضربة. 🏫
ولا تتوقف المخاطر عند هذا الحد، فهناك تهديد مستمر يتمثل في استخدام الذكاء الاصطناعي لتطوير أسلحة بيولوجية، وهو موضوع ناقشه الباحثون علانية لسنوات، في ظل تقارير تفيد بأن روبوتات الدردشة التابعة لشركات مثل Google وOpenAI وأنثروبيك وxAI تستجيب لطلبات متعلقة بالأسلحة البيولوجية. 🧪
كما تساهم هذه التقنية في تعزيز انتشار البرمجيات الخبيثة وفيروسات الفدية، وتسهيل حملات التصيد الاحتيالي الجماعي، واستغلال ثغرات الشبكات. 💻
وبناءً على هذه المعطيات، يخشى قادة التكنولوجيا أن وقوع أزمة بأسلوب تشيرنوبيل لم يعد مجرد احتمال، بل بات مسألة وقت لا أكثر. ⏳
وكان داريو أمودي، الرئيس التنفيذي لشركة Anthropic ، قد حذر في مقال مطول مطلع هذا العام من أن البشرية على وشك الحصول على قوة لا يمكن تصورها، ومن غير الواضح بتاتاً ما إذا كانت أنظمتنا الاجتماعية والسياسية والتكنولوجية تمتلك النضج الكافي للتعامل معها. 🧠
وعدد أمودي في مقاله مخاطر وجودية يشكلها الذكاء الاصطناعي، بدءاً من تركز القوة الاقتصادية وصولاً إلى تطوير أسلحة بيولوجية فتاكة أو أسلحة عسكرية متفوقة تقنياً. 🛡️
وبعد سنوات من التحذيرات الصارمة، يبدو أن الموقف وصل إلى ذروته في ظل التوجهات الهجومية لإدارة ترامب؛ إذ يرى كبار المسؤولين أن المخاوف بشأن سلامة الذكاء الاصطناعي ليست سوى قلق مبالغ فيه، حيث وصفها نائب الرئيس جيه دي فانس بأنها مجرد هواجس، بينما اعتبرها وزير الدفاع بيت هيغسيث آراء لمجانين من التيار اليساري. 🏛️
وقد تعهد هيغسيث في وقت سابق من هذا العام بالتسريع بأقصى سرعة ممكنة، وهي مقامرة خطيرة قد تؤدي إلى عواقب وخيمة إذا ما صحت تحذيرات مجتمع أبحاث الذكاء الاصطناعي وقادة الصناعة. 🚀