القاهرة: الأمير كمال فرج.
مع تتسارع وتيرة التطور التكنولوجي، أصبح استخدام أدوات الذكاء الاصطناعي شائعًا في العديد من المجالات، بما في ذلك مهنة المحاماة. ورغم ما تقدمه هذه الأدوات من مزايا محتملة في تبسيط المهام، إلا أنها تحمل مخاطر جسيمة عند استخدامها دون تدقيق، خاصة في سياق قانوني حساس. وقد شهدت المحاكم مؤخرًا حوادث مؤسفة كشفت عن الأوجه السلبية لهذا الاعتماد غير المدروس، حيث تصدى القضاة بحزم لهذه الممارسات التي تهدد نزاهة الإجراءات القانونية.
ذكر تقرير نشرته مجلة Futurism إن القاضي ديفيد هاردي، اكتشف خلال مراجعته لوثيقة قدمها محاميا دفاع من مكتب "كوزن أوكونور"، ما لا يقل عن 14 استشهادًا بقضايا قانونية بدت وهمية، بينما كانت استشهادات أخرى محرفة أو مضللة، حسبما ذكرت وكالة Reuters ".
بعد مواجهتهما، أقر المحاميان بذنبيهما، حيث اعترف أحدهما بأنه استخدم برنامج ChatGPT لصياغة الوثيقة وتحريرها.
وفي حين فرض قضاة آخرون عقوبات مالية على محامين ارتكبوا أخطاء مماثلة، عرض القاضي هاردي الأسبوع الماضي خيارًا مذلًا وقاسيًا للمحاميين.
إذ كان بإمكانهما دفع غرامة مالية قدرها 2,500 دولار لكل منهما، أو مواجهة إمكانية استبعادهما من القضية وإحالتهما إلى نقابة المحامين بالولاية.
أما الخيار البديل، فكان أن يبتلعا كبرياءهما ويكتبا رسائل إلى عمداء كلياتهما للقانون ومسؤولي النقابة يشرحان فيها خطأهما، بالإضافة إلى التطوع للتحدث في مواضيع مثل الذكاء الاصطناعي والسلوك المهني.
ويبدو أن المحاميين من "كوزن" كانا يمثلان شركة Uprise لخدمات الإنترنت. واعتذر مكتب المحاماة للقاضي وأوضح أن شريكهما دانييل مان قد قدم بالخطأ مسودة أولية وغير مصححة تم إعدادها بمساعدة برنامج ChatGPT. وأشارت التقارير إلى أن مان قد تم فصله، بينما يبدو أن المحامي الآخر، جان توماسيك، قد بقي في وظيفته.
وأبلغت شركة "كوزن" وكالة Reuters بأن لديها سياسة "صارمة وواضحة" بشأن الذكاء الاصطناعي تمنع استخدام الأدوات المتاحة للجمهور في عمل العملاء، رغم أنها لا تحظر الأدوات المتخصصة.
وقال المكتب: "نحن نأخذ هذه المسؤولية على محمل الجد، وانتهاكات سياستنا لها عواقب."
وربما كانت عقوبة القاضي هاردي غير تقليدية، لكنه ليس الوحيد الذي يتخذ إجراءات عقابية ضد المحامين الكسالى الذين لا يدققون في عملهم المعتمد على الذكاء الاصطناعي. فبعد أن اعتذر محامون من مكتب المحاماة الكبير Morgan & Morgan عن تقديم استشهادات قضائية مختلقة من الذكاء الاصطناعي في دعوى ضد شركة Walmart، فرض القاضي آلاف الدولارات من الغرامات، بعد أن قرر عدم ملاحقة عقوبة أشد. (لاحقًا، أرسل المكتب بريدًا إلكترونيًا عاجلًا إلى جميع الموظفين يحذر فيه من عيوب الذكاء الاصطناعي، ولكنه أثنى أيضًا على فائدته).
هناك قصص مشابهة لا حصر لها، حيث يستخدم المحامون نموذجًا لغويًا كبيرًا للمساعدة في الاستشهاد بقضايا قانونية ذات صلة. لكن الذكاء الاصطناعي، بحكم طبيعته، يختلق قضايا من العدم، أو يحرفها، أو يمزج بين قضايا حقيقية. ولأن المحامي من النوع الكسول أو المهمل الذي يترك الذكاء الاصطناعي يقوم بعمله، فإنه يهمل التحقق من العمل.
غالبًا ما يستخدم المحامون المذنبون برامج دردشة مثل ChatGPT، ولكن حتى الأدوات المخصصة للقانون قد تورطت في أخطاء. ولم تنج حتى المكاتب الكبيرة مثل Morgan & Morgan من هذه المشاكل.
ومن المفهوم أن بعض القضاة يتخذون موقفًا متشددًا للقضاء على هذه الممارسة قبل أن تتفاقم، كما حدث في قضية محاميي مكتب Butler Snow الثلاثة الذين تم استبعادهم من قضيتهم بعد أن اكتشف القاضي استشهاداتهم المزيفة بالذكاء الاصطناعي.
وقال جاري مارشانت من كلية القانون بجامعة ولاية أريزونا: "هناك إحباط متزايد من العديد من القضاة لأن هذه الحوادث مستمرة في الحدوث والانتشار."
وأضاف أن القضاة قد يبحثون عن "طرق إبداعية، ليس فقط لمعاقبة المحامين المتورطين، بل لإرسال رسالة قوية من شأنها أن تردع الآخرين عن أن يكونوا بهذا الإهمال."
وللإنصاف مع المحامين، أصبح الذكاء الاصطناعي يمثل قضية في كل جزء من المجال القانوني. في وقت سابق من هذا العام، اعترفت نقابة المحامين في ولاية كاليفورنيا بأن بعض أسئلة امتحان القبول الأخير تم إنشاؤها بمساعدة نموذج لغوي كبير. حتى أن قاضيًا في ولاية ميسيسيبي اتُهم باستخدام الذكاء الاصطناعي لإصدار حكم غامض، مما أثار دهشة المحامين.