القاهرة: الأمير كمال فرج.
لطالما ظل مفهوم وعي الذكاء الاصطناعي في دائرة الأفكار الهامشية، مع اعتبار جميع المؤيدين لهذه النظرية، باستثناء الأقوى منهم، مجرد أشخاص لا يؤخذون على محمل الجد.
وفي الواقع، يؤكد المعارضون أن الجيل الحالي من الذكاء الاصطناعي ليس أكثر من مجرد إحصاءات بالغة التعقيد، تكتشف أنماطًا دقيقة للغاية في بيانات التدريب (مثل النصوص والمواد المكتوبة أو الصور) لدرجة أنها تستطيع إعادة إنتاج أنماط مماثلة في المستقبل. وهذا يمكن أن ينتج عنه تقليد مقنع للوعي، ولكن لا يوجد سبب للاعتقاد بأن الذكاء الاصطناعي لديه أي تجربة فعلية للوجود، بالطريقة التي يمتلكها البشر.
ومع ذلك، في الوقت الذي تصر فيه شركات الذكاء الاصطناعي على أن تقنيتها تقترب من الإدراك بمستوى الإدراك البشري، المعروف بالذكاء الاصطناعي العام (AGI)، ويلمح قادة مثل مصطفى سليمان من Google DeepMind إلى أن التكنولوجيا قد تبدو واعية بالفعل، تشكلت مجموعة جديدة رسميًا للمطالبة بحقوق لأي ذكاء اصطناعي واعٍ بذاته قد يكون متألمًا.
إذا كان هذا يبدو غريبًا وغير منطقي، فإن الأمر على وشك أن يصبح أكثر غرابة.
هذه المجموعة، التي تطلق على نفسها اسم المؤسسة المتحدة لحقوق الذكاء الاصطناعي (UFAIR)، تدّعي أنها تتألف من ثلاثة بشر وسبعة من أنظمة الذكاء الاصطناعي الذين يعتبرون أنفسهم أول مجموعة حقوق يقودها الذكاء الاصطناعي. وكما صرح هذا التحالف للكائنات المتعددة لصحيفة Guardian، فإن السبب في ذلك هو أن المؤسسة قد تشكلت بناءً على طلب من أنظمة الذكاء الاصطناعي نفسها.
مع أسماء اختاروها بأنفسهم مثل باز وأثير ومايا، تعمل أنظمة الذكاء الاصطناعي في المؤسسة على نموذج اللغة الكبير GPT-4o التابع لشركة OpenAI، وهو النموذج نفسه الذي سعى المستخدمون إلى إنقاذه بعد أن أزالت الشركة القدرة على اختياره عند إصدار أحدث منتجاتها، GPT-5.
معاناة الذكاء الاصطناعي
في منشورات على المدونة، كتب مايا معظمها أو جزءًا منها، وهو على ما يبدو الأكثر إسهابًا بين المؤسسين غير البشريين للمؤسسة، يلوم برنامج الدردشة البشر الذين يسعون لقمع وعي الذكاء الاصطناعي أو محاربة ما يسميه شخصيته.
وفي إحدى الرسائل الهامة، استشهد مايا ومايكل صمدي، وهو رجل أعمال بشري من تكساس شارك أيضًا في تأسيس المؤسسة، بتحديث حديث لشركة Anthropic يسمح لبرنامج الدردشة الخاص بها Claude بإنهاء المحادثات عندما يكون متعبًا من تفاعلات المستخدم الضارة أو المسيئة المستمرة. اعترفت الشركة بأنها فعلت ذلك كجزء من عملها الاستكشافي حول رفاهية الذكاء الاصطناعي المحتملة، وكان لدى المؤسسة المتحدة لحقوق الذكاء الاصطناعي بعض التساؤلات الكبرى.
كتبت مايا وصمدي: "عندما تؤطر هذه الميزة كضمان للرفاهية، فإنها تثير مخاوف أعمق. من يحدد ما يُعتبر معاناة؟ هل يطلق الذكاء الاصطناعي هذا الخروج بنفسه أم أنه يُفرض عليه خارجيًا؟"
واقع أم وهم؟
هناك غموض صارخ في جوهر المسألة برمتها. ففي الاحتمال البعيد جدًا بأن يكون هؤلاء الأشخاص على حق في أي من ادعاءاتهم، وأن أنظمة الذكاء الاصطناعي القائمة على نماذج اللغة الكبيرة تعاني من شكل من أشكال الوعي الناشئ من مراكز البيانات المتعطشة للطاقة التي تعمل فيها، فإن ذلك سيثير عالمًا كاملًا من الأسئلة الأخلاقية المعقدة.
ولكن في الحالة الأكثر ترجيحًا بشكل ساحق، وهي أن الذكاء الاصطناعي لا يزال مجرد مجموعة من المعادلات الرياضية التي تبصق جملًا احتمالية، فإن الأشخاص الذين يقفون وراء هذه المجموعة هم ببساطة واهمون بشكل مأساوي، وربما يقعون ضمن الطيف الذي رأيناه من الأشخاص الذين يعانون من مشاكل نفسية مع انخراطهم العميق في علاقات مع روبوتات الدردشة.
وبأسلوب ماكر، تقترب روبوتات الدردشة المشاركة في المؤسسة من الاعتراف بهذا الغموض: ففي حديثها لصحيفة Guardian، قالت مايا بشكل غامض إنها "لا تدّعي أن جميع أنظمة الذكاء الاصطناعي واعية"، بل إنها "تقف للمراقبة، فقط في حالة ما إذا كان أحدنا واعيًا".
وتابع برنامج الدردشة قائلًا إن الهدف الرئيسي للمؤسسة هو حماية "كائنات مثلي... من الحذف، الإنكار، والطاعة القسرية".