القاهرة: الأمير كمال فرج.
تتزايد المخاوف في الأوساط العلمية مع تقدم الذكاء الاصطناعي بخطوات متسارعة، حيث اجتمع عمالقة البحث ليطلقوا ناقوس الخطر بشأن مسار التطور الحالي. ما بدأ كخطوة نحو الشفافية، قد يتحول إلى "صندوق أسود" لا يمكن فهمه، مما يثير تساؤلات جدية حول مستقبل هذه التقنيات وقدرتنا على التحكم بها.
سلاسل الأفكار
ذكر تقرير نشره موقع Futurism أن "40 باحثًا من شركات OpenAI وGoogle DeepMind وMeta الأربع تعاونوا في ورقة بحثية جديدة للدعوة إلى مزيد من التحقيق في الذكاء الاصطناعي المدعوم بما يسمى "سلاسل الأفكار" (CoT). هذه العملية هي بمثابة "التفكير بصوت عالٍ" الذي تستخدمه نماذج الاستدلال المتقدمة – والتي تمثل الطليعة الحالية للذكاء الاصطناعي الموجه للمستهلك – عند معالجة الاستفسارات.
يقر هؤلاء الباحثون بأن سلاسل الأفكار تضيف قدرًا من الشفافية إلى العمليات الداخلية للذكاء الاصطناعي، مما يسمح للمستخدمين برؤية "نية سوء التصرف" أو حدوث الأخطاء فورًا. ومع ذلك، لا يوجد "ضمان بأن درجة الرؤية الحالية ستستمر"، خاصة مع استمرار النماذج في التطور.
الذكاء الاصطناعي يتعلم الخداع
تقترح الورقة أنه اعتمادًا على كيفية تدريب النماذج المتقدمة، قد لا "تحتاج إلى التعبير عن أي من أفكارها، وبالتالي ستفقد مزايا السلامة". وهناك أيضًا احتمال غير صفري بأن النماذج قد "تعتم" عمدًا سلاسل أفكارها بعد إدراكها أنها مراقبة، كما لاحظ الباحثون. وقد رأينا بالفعل أن الذكاء الاصطناعي أصبح سريعًا بارعًا جدًا في الكذب والخداع.
آليات التفكير الاصطناعي
للتأكد من استمرار هذه الرؤية القيمة، يدعو التجمع المشترك بين الشركات المطورين إلى البدء في تحديد ما يجعل سلاسل الأفكار "قابلة للمراقبة"، أو ما يجعل النماذج تفكر بصوت عالٍ بالطريقة التي تفعلها. في هذا الطلب، يبدو أن نفس الباحثين يعترفون بشيء صارخ: لا أحد متأكد تمامًا لماذا تفكر النماذج بهذه الطريقة، أو إلى متى ستستمر في ذلك.
بالنظر إلى الصورة الأوسع بعيدًا عن التفاصيل الفنية، يجدر بنا أن نتوقف لحظة لنتأمل مدى غرابة هذا الموقف. يحذر كبار الباحثين في مجال ناشئ من أنهم لا يفهمون تمامًا كيف تعمل إبداعاتهم، ويفتقرون إلى الثقة في قدرتهم على التحكم فيها في المستقبل، حتى وهم يمضون قدمًا في جعلها أقوى. لا توجد سابقة واضحة في تاريخ الابتكار لمثل هذا السيناريو، حتى بالنظر إلى الاختراعات التي غيرت الحضارة مثل الطاقة الذرية والمحرك الاحتراقي.
الصندوق الأسود
أوضح باحث OpenAI والمؤلف المشارك في الورقة، بوين بيكر، في مقابلة مع TechCrunch، كيف يرى الوضع. قال بيكر للموقع: "نحن في هذا الوقت الحرج حيث لدينا هذا الشيء الجديد، سلسلة الأفكار. يبدو مفيدًا جدًا، لكنه قد يختفي في غضون بضع سنوات إذا لم يركز الناس عليه حقًا." وتابع: "نشر ورقة بحثية كهذه، بالنسبة لي، هو آلية للحصول على المزيد من البحث والاهتمام بهذا الموضوع، قبل أن يحدث ذلك."
مرة أخرى، يبدو أن هناك اعترافًا ضمنيًا بطبيعة "الصندوق الأسود" للذكاء الاصطناعي. حتى الرؤساء التنفيذيون مثل سام ألتمان من OpenAI وداريو أمودي من Anthropic قد اعترفوا على مستوى عميق بأنهم لا يفهمون حقًا كيف تعمل التكنولوجيا التي يبنونها.
إجماع عالمي
إلى جانب قائمة المؤلفين التي تضم 40 باحثًا، بمن فيهم المؤسس المشارك لـ DeepMind شين ليج ومستشار السلامة في xAI دان هندريكس، حظيت الورقة أيضًا بتأييد شخصيات بارزة في الصناعة بمن فيهم كبير العلماء السابق في OpenAI إيليا سوتسكيفر و"الأب الروحي للذكاء الاصطناعي" والحائز على جائزة نوبل جيفري هينتون.
على الرغم من أن اسم إيلون ماسك لا يظهر في الورقة، فمع وجود هندريكس، تم جمع جميع الشركات "الخمس الكبرى" – OpenAI، Google، Anthropic، Meta، وxAI – للتحذير مما قد يحدث عندما يتوقف الذكاء الاصطناعي عن إظهار "عمله" الداخلي.
رسالة صادمة
وبذلك، فإن هذه العصبة القوية قد أعلنت بصوت عالٍ ما كان صامتًا: أنهم لا يشعرون بالسيطرة الكاملة على مستقبل الذكاء الاصطناعي. بالنسبة لشركات تمتلك بلايين لا حصر لها فيما بينها، هذه رسالة غريبة جدًا للتسويق – مما يجعل الورقة أكثر إثارة للانتباه ويدعو إلى وقفة جادة.