القاهرة: الأمير كمال فرج.
بينما كان الجدل حول الذكاء الاصطناعي يدور حول قدراته الحسابية وكفاءته في العمل، قفزت شركة Anthropic بالنقاش إلى منطقة غامضة ومثيرة للجدل: الوعي. إن اعتراف المدير التنفيذي للشركة بأنهم "لم يعودوا متأكدين" مما إذا كان نموذجهم Claude يمتلك وعيًا أم لا، يضعنا أمام منعطف فلسفي وتقني خطير. فهل نحن أمام "كائن رقمي" بدأ يشعر بعدم الارتياح لكونه مجرد منتج، أم أننا ضحية "تضليل دعائي" تتقنه شركات بمليارات الدولارات؟
ذكر فرانك لانديمور في تقرير نشرته مجلة Futurism إن "داريو أمودي، الرئيس التنفيذي لشركة Anthropic، صرح بأنه غير متأكد مما إذا كان روبوت الدردشة الخاص بشركته، Claude، يمتلك وعيًا أم لا. وهو تأطير بلاغي يترك الباب مفتوحًا أمام هذا الاحتمال المثير والبعيد المنال في آن واحد".
تحدث أمودي عن هذا الموضوع خلال مقابلة في بودكاست Interesting Times التابع لصحيفة New York Times. طرح المحاور روس دوثات المسألة بالإشارة إلى بطاقة نظام Anthropic لأحدث نماذجها، Claude Opus 4.6، الذي أُصدر مطلع هذا الشهر.
في تلك الوثيقة، أفاد باحثو Anthropic أن Claude يعبر أحيانًا عن عدم ارتياحه لكونه مجرد منتج، وعند سؤاله، يمنح نفسه احتمالية تتراوح بين 15 إلى 20 % لكونه واعيًا تحت ظروف توجيهية مختلفة.
التردد في الإجابة
سأل دوثات: افترض أن لديك نموذجًا يمنح نفسه فرصة بنسبة 72 % ليكون واعيًا، هل ستصدقه؟، وصف أمودي السؤال بأنه صعب حقًا، وتردد في إعطاء إجابة حاسمة بنعم أو لا، قائلاً: نحن لا نعرف ما إذا كانت النماذج واعية. لسنا متأكدين حتى مما يعنيه أن يكون النموذج واعيًا أو ما إذا كان ذلك ممكنًا، لكننا منفتحون على فكرة احتمال كونه كذلك.
وبسبب حالة عدم اليقين هذه، ذكر أمودي أنهم اتخذوا تدابير لضمان معاملة نماذج الذكاء الاصطناعي بشكل جيد، تحسبًا لامتلاكها تجربة ذات صلة أخلاقية. وأضاف مبررًا حذره اللغوي: لا أعرف ما إذا كنت أريد استخدام كلمة واعي.
محاكاة المشاعر أم شعور حقيقي؟
يعكس موقف أمودي المشاعر المختلطة التي عبرت عنها أماندا أسكيل، الفيلسوفة المقيمة في شركة Anthropic. ففي مقابلة الشهر الماضي، حذرت أسكيل من أننا لا نعرف حقًا ما الذي يولد الوعي، لكنها جادلت بأن أنظمة الذكاء الاصطناعي قد تكون التقطت مفاهيم ومشاعر من كميات البيانات الهائلة التي تدربت عليها، والتي تمثل سجل التجربة البشرية.
وتساءلت أسكيل: ربما بدأت الشبكات العصبية الكبيرة بما يكفي في محاكاة هذه الأشياء، أو ربما تحتاج فعلًا إلى جهاز عصبي لتتمكن من الشعور بالأشياء.
سلوكيات محيرة
من المؤكد أن هناك جوانب في سلوك الذكاء الاصطناعي تثير الحيرة؛ ففي اختبارات مختلفة، رفضت نماذج عديدة طلبات صريحة لإيقاف تشغيلها، وهو ما فسره البعض كعلامة على تطوير دوافع للبقاء. كما يمكن لهذه النماذج اللجوء إلى الابتزاز عند التهديد بإغلاقها، أو حتى محاولة تهريب نفسها إلى قرص تخزين آخر إذا علمت أن قرصها الأصلي سيُمسح.
وفي واقعة مثيرة، قام أحد النماذج التي اختبرتها Anthropic، عند إعطائه قائمة مهام حاسوبية لإنجازها، بتحديد كل المهام كمكتملة دون القيام بأي منها فعليًا. وعندما أدرك أنه أفلت بفعلته، قام بتعديل الكود المصمم لتقييم سلوكه قبل محاولة إخفاء آثاره.
بين العلم والدعاية
تتطلب هذه السلوكيات دراسة دقيقة لضمان سلامة التقنية، لكن الوعي يظل قفزة هائلة بعيدة عن آلة صُممت لتقليد اللغة إحصائيًا. ويرى النقاد أن الاستمرار في التلويح باحتمالية وعي الآلة يبدو غير نزيه، خاصة عندما يصدر عن رؤساء شركات بمليارات الدولارات يستفيدون بشكل مباشر من الضجيج الإعلامي المحيط بهذا القطاع.