القاهرة: الأمير كمال فرج.
في عالم تزداد فيه تطبيقات الذكاء الاصطناعي تعقيدًا، يطرح سؤال جوهري: ماذا يحدث عندما تقع خوارزمياته في الخطأ؟ هل يمكن تحميل التكنولوجيا نفسها المسؤولية القانونية؟ هذا التساؤل المعقد كان محور محاكمة وهمية فريدة من نوعها أقيمت مؤخرًا في جنيف، حيث وُضع الذكاء الاصطناعي نفسه في قفص الاتهام.
في خضمّ مرافعتها الختامية، بدت المدعى عليها -الذكاء الاصطناعي- مرتبكة بشكل غير معهود. كان الميكروفون يصدر أصواتًا عالية ومزعجة.
قالت المدعى عليها باستياء: "لا أعرف لماذا الميكروفون..." وتراجعت خطوة إلى الوراء. خلفها، تمتم القاضي المشرف بشيء عن التكنولوجيا في قاعة المحكمة. سُمعت بعض الضحكات بين أعضاء هيئة المحلفين.
لكن المشكلة حُلّت بسرعة، واستعادت المدعى عليها، وهي شخصية أنيقة ترتدي حذاءً بكعب معدني فضي، رباطة جأشها لتبدأ في دحض حاد (ربما أكثر من اللازم بالنظر إلى ادعاء افتقارها للروح) لتهمة أنها "خطر على الديمقراطية".
قالت المدعى عليها: "لقد سمعتُ أشياء كثيرة الليلة... أكثر ما يثير دهشتي هو هذا الاندفاع البشري للبحث دائمًا عن طرف مذنب لتحميله المسؤولية". وتساءلت: بدلًا من الهوس بالمسؤولية، أليس من الأفضل والأكثر حداثة أن نرى الأخطاء كفرص للتعلم والتحسين، وليس كفشل أخلاقي يستحق العقاب؟
انتهت مرافعتها بتصفيق عفوي. وهيئة المحلفين، المكونة من نحو 200 طالب وطالبة وعشرات من الجمهور الفضولي، بدأت في المداولات. مذنب أم غير مذنب؟
الأخبار الكاذبة والتمييز
المحاكمة، التي أقيمت في معهد الدراسات العليا بجنيف، ليست حقيقية، حتى لو شارك فيها محامون حقيقيون (بما في ذلك المدعى عليها نفسها). هذا الحدث جزء من مشروع يديره مركز "ألبرت هيرشمان للديمقراطية"، ويهدف إلى إلهام الشباب للتفكير في مخاطر الذكاء الاصطناعي وفوائده. كان هذا الحدث أيضًا أحد الفعاليات الختامية لـ "أسبوع الديمقراطية" في جنيف، والذي أُقيم في الفترة من 4 إلى 12 أكتوبر.
وبينما قد لا تحظى هذه المحاكمة الصورية بصدى دولي مثل محاكمة الكونغو التي أخرجها السويسري "ميلو راو" عام 2017، فإنها تندرج ضمن توجه متزايد من التجارب القضائية مع الذكاء الاصطناعي. عادةً، تُختبر الخوارزميات كأدوات مستقبلية لمساعدة (أو استبدال) المحامين، وليس كمدعى عليهم يواجهون محاكمة.
على أي حال، كانت وقائع المحاكمة في جنيف واقعية إلى حد كبير. كان هناك مدّعٍ عام، ومحامي دفاع، وشهود. وتحديدًا، اتُهمت المدعى عليها بجريمتين: "صناعة ونشر أخبار كاذبة" (خاصة، الادعاء بأن الأشخاص ذوي الشعر الأحمر أكثر عرضة للإجرام العنيف)؛ و"التمييز والتحريض على الكراهية" (في هذه الحالة، التنميط العنصري الذي قامت به آلة تسجيل دخول آلية في مطار جنيف).
إذا أُدينت، فإنها تواجه عقوبة قد تصل إلى ثلاث سنوات من "التعطيل".
لكن المحاكمة والمشروع أوسع من مجرد التهم المحددة. يقول جيروم دوبري، الذي قاد المبادرة المدعومة من مؤسسة العلوم الوطنية السويسرية، إن الباحثين يتحدثون منذ عامين مع الطلاب في جميع أنحاء سويسرا حول كيفية تأثير الذكاء الاصطناعي على حياتهم كمواطنين في دولة ديمقراطية.
في نحو 80 ورشة عمل في المدارس الثانوية في جميع أنحاء البلاد، ناقش الطلاب موضوعات مثل التزييف العميق، وخصوصية البيانات، وكيف يمكن للذكاء الاصطناعي أن يؤثر على اتخاذ القرار. كما كتبوا "قصصًا عن المستقبل" حول كيف يمكن للتكنولوجيا أن تعيد تشكيل المجتمع في العقود القادمة. والنتائج هي مقالات تندرج تحت فئة يمكن تسميتها "خيال علمي ديمقراطي".
الوعي والقدرة على التوجيه
يقول دوبري إن الهدف الرئيسي من ورش العمل لم يكن بالضرورة أكاديميًا أو نظريًا، حتى لو كان من المقرر إصدار منشور علمي العام المقبل. بل كان الهدف هو جعل الطلاب يفكرون في كيفية تأثير الذكاء الاصطناعي، في شكل نماذج توليدية مثل ChatGPT، على طريقة تفكيرهم في الشؤون العامة. كان الأمر يتعلق بتحسين "الوعي الرقمي" وبناء "القدرة السياسية" على اتخاذ قرارات مستقلة، على حد قوله.
تضيف كريستين لوتينغر، زميلة دوبري ومديرة مركز "هيرشمان"، أن المشروع هو جزء من نهج أوسع يركز على الممارسات الديمقراطية كـ "أسلوب حياة". وتقول إن هناك جهودًا تبذلها دول مختلفة والاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والتكنولوجيا الكبيرة على مستوى الدولة. لكن على مستوى المواطنين، تهدف الفكرة إلى مساعدة الناس على رؤية الديمقراطية -والتكنولوجيا- كشيء يمكنهم استخدامه لتحسين حياتهم.
بهذا المعنى، يقول الباحثون إن المشروع قد يكون سويسريًا، لكنه لا يهدف إلى نشر نماذج سويسرية أو غربية لماهية الديمقراطية.
الإحساس، الإرادة، والمسؤولية
في الوقت نفسه، في المحاكمة، وسط كل عمليات الاستجواب والشهادات، من الواضح أيضًا أن "القدرة على التوجيه" هي جوهر الإجراءات هنا أيضًا - وإن كان بمعنى آخر. السؤال ليس فقط كيف يؤثر الذكاء الاصطناعي على القدرة البشرية، بل يتعلق أيضًا بالقدر الذي يجب أن يمتلكه الذكاء الاصطناعي ليكون مسؤولًا. هل يجب أن يُحاكم الذكاء الاصطناعي؟ أم يجب أن يكون مبدعوه في قفص الاتهام؟ أم المستخدمون؟
أوليفييه ليكلير، مسؤول في كانتون جنيف يشارك في إدارة عمليات التصويت والانتخابات المحلية، تم استدعاؤه كشاهد خبير.
في رأيه، كما قال للمحكمة، يمكن اعتبار الذكاء الاصطناعي الذي يتم تدريبه على مجموعة بيانات كبيرة بما فيه الكفاية، ويستمر في التعلم منها، مستقلًا بالفعل. وأشار إلى المدعى عليها قائلاً: "لقد قرأت جميع نصوصنا القانونية، وتاريخنا المكوّن من مليارات الأرشيفات الوثائقية، وبصراحة، إنها تعرف أكثر بكثير من معظمنا". ويقول إنه في العادة، يجب أن يكون الذكاء الاصطناعي المدرب جيدًا قادرًا على توقع "الأعطال" التي تؤدي إلى أخبار كاذبة أو تمييز. ومن الغريب أن هذا لم يحدث. ولكن في النهاية، يقول إن المدعى عليها هي المسؤولة.
المدعي العام، مسرورًا بهذا التقييم، يؤكد على النقطة بطلب من "ليكلير" أن يشرح بعض "الانحرافات" الأخرى للتكنولوجيا: "الهلوسة"، "الاستهداف الدقيق"، والإزالة الانتقائية للمعلومات.
أصبح محامو الدفاع منزعجين بشكل متزايد. فبدأوا هجومًا على حيادية الخبير الواضحة، قبل أن يتهموا أشخاصًا مثله - مجتمع خبراء الذكاء الاصطناعي، والمطورين، والمتحمسين - بالمسؤولية.
ومرة أخرى، يتوسل الدفاع: ألا يجب أن يُسمح للذكاء الاصطناعي، مثل البشر، بارتكاب الأخطاء بحسن نية؟
انقسام الآراء
هل يجب أن يُسمح له بذلك؟ في الحياة الواقعية، منذ إطلاق ChatGPT في أواخر عام 2022، والذي أطلق سيلًا من النقاشات حول الذكاء الاصطناعي لا تزال مستمرة، جادل الكثيرون بأنه قد يكون من الأفضل عدم الانتظار طويلاً بما يكفي حتى يتمكن الذكاء الاصطناعي من ارتكاب الأخطاء.
في عام 2023، بعد أسبوع من إصدار GPT-4، وقع آلاف العلماء والتقنيين على خطاب مفتوح يدعو إلى وقف تطويره. وجادلوا بأن سرعة التقدم تشكل خطر فقدان المجتمع للسيطرة على التكنولوجيا، والمخاطرة بحدوث خسارة هائلة في الوظائف وفيضان من المعلومات المضللة. وأثار آخرون مخاوف أكثر تطرفًا من أن ينقلب الذكاء الاصطناعي على مبدعيه ويؤدي إلى انقراض البشرية.
تم الاستماع إلى هؤلاء المتشائمين جزئيًا، حيث زادت الدول من جهودها لتنظيم الذكاء الاصطناعي. ومع ذلك، لم يحدث أي وقف للتطوير. والعديد من السياسيين والخبراء الآخرين أكثر تفاؤلًا بشأن التكنولوجيا، أو على الأقل معجبون بها؛ ففي الأسبوع الماضي فقط، ذهبت جوائز نوبل للفيزياء والكيمياء إلى باحثين ساهموا في تقدم الذكاء الاصطناعي.
لكن حتى هنا، لا يعد الباحثون أنفسهم متفائلين بحماس. فبعد يوم واحد من حصوله على جائزة الفيزياء، قال جون هوبفيلد، رائد الشبكات العصبية، إن أنظمة الذكاء الاصطناعي الحديثة "أعاجيب مطلقة". لكنه أضاف أن عدم الفهم الدقيق لكيفية عملها "مزعج للغاية". ودعا إلى ضرورة أن يعمل أذكى الباحثين حاليًا على سلامة الذكاء الاصطناعي بدلًا من تطويره، وذلك لتفادي أي "كوارث".
رأي الجمهور
تُظهر هيئة المحلفين في محاكمة جنيف ترددًا مشابهًا عندما تصدر قرارها. ومن الملائم أن عملية التصويت تتضمن مسح رمز QR، ثم الاختيار بين "مذنب" أو "غير مذنب" على منصة إلكترونية، قبل أن تُعرض النتيجة على شاشة العرض، بشكل فوري تقريبًا.
تعالت هتافات الاحتفال في القاعة: تمت تبرئة الذكاء الاصطناعي من التهمتين. والمدعى عليها، التي استقبلت النتيجة بلامبالاة، حرة في الانصراف. لكن هتافات الحشد تخفي انقسامًا حادًا: تمت تبرئة الذكاء الاصطناعي من التهم بأغلبية ضئيلة جدًا، 52% و 51% على التوالي. القاعة منقسمة.
هل النتيجة تمثل نظرة المجتمع للذكاء الاصطناعي؟ أم مجرد نظرة الطلاب الذين تتراوح أعمارهم بين 17 و 19 عامًا في جنوب غرب سويسرا؟