القاهرة: الأمير كمال فرج
نجحت امرأة في ولاية كاليفورنيا في استخدام أدوات الذكاء الاصطناعي، بما في ذلك ChatGPT، في إلغاء أمر إخلاء صادر بحقها وتجنب دفع عشرات الآلاف من الدولارات كغرامات تراكمت على مدى عدة أشهر من التقاضي.
ذكرت شبكة NBC News، إن "لين وايت كانت متأخرة في دفع الإيجار وخسرت في البداية محاكمة أمام هيئة محلفين بعد مواجهتها إشعار الإخلاء. وبدلًا من الاستمرار في العمل مع شبكة محلية لدعم المستأجرين، استشارت ChatGPT ومنصة البحث بالذكاء الاصطناعي Perplexity لتمثيل نفسها في المحكمة.
يُعد هذا القرار في معظم الأحيان فكرة سيئة. لكن وفقًا لـ NBC News، تمكنت أداة الدردشة الآلية من تحديد الأخطاء المحتملة في القرارات الإجرائية للقاضي لصالح وايت، وأبلغتها بالإجراءات القانونية الواجب اتخاذها، وقامت بصياغة الردود الموجهة إلى المحكمة.
صرحت وايت للشبكة قائلة: "لا أستطيع المبالغة في تقدير فائدة الذكاء الاصطناعي في قضيتي... لم أكن لأتمكن أبدًا، أبدًا، أبدًا، أبدًا من كسب هذا الاستئناف لولا الذكاء الاصطناعي."
أمثلة النجاح المخيفة
وايت هي واحدة من عدة متقاضين تحدثت إليهم NBC News وقد مثلوا أنفسهم بمساعدة الذكاء الاصطناعي وحققوا النصر. ومن بينهم أيضًا ستايسي دينيت، وهي صاحبة عمل تجاري للياقة البدنية المنزلية في نيو مكسيكو، التي استخدمت الذكاء الاصطناعي للتفاوض بنجاح على تسوية بشأن ديون غير مدفوعة.
قالت دينيت لـ NBC News "كنت أطلب من ChatGPT أن يتظاهر بأنه أستاذ قانون في جامعة هارفارد وأن يفند حججي ... كنت أطلب منه أن يحللها تحليلًا صارمًا حتى أحصل على درجة (A-plus) في المهمة."
كانت المخرجات مقنعة بشكل مذهل. فقد ذكر محامو الطرف الخصم لها في رسالة بريد إلكتروني، حسب التقارير: "إذا كنتِ مهتمة بالقانون كمهنة، فيمكنكِ بالتأكيد القيام بهذه الوظيفة."
مخاطر الهلوسة والتضليل
مع ذلك، فإن هذه الأدوات لا تنجح دائمًا في إلغاء القرارات أو كسب القضايا القانونية. من المعروف أن أدوات الذكاء الاصطناعي تنتج معلومات مختلقة ومضللة يمكن أن توقع المتقاضي الممثل لنفسه في مشكلة.
من الأمثلة على ذلك، قطب مشروبات الطاقة جاك أووك، الذي فُرضت عليه عقوبة في أغسطس بعد تقديمه طلبًا قضائيًا مليئًا بـ "الاستشهادات المهلوسة" وبموجب تقرير NBC News، أُمر أووك بإكمال عشر ساعات من الخدمة المجتمعية.
ولعل الأمر الأكثر إثارة للقلق هو أن عددًا متزايدًا من المحامين المحترفين قد ضُبطوا متلبسين بتقديم مذكرات قانونية تتضمن قضايا محكمة مختلقة، مما أسفر عن عقوبات وإحراج مهني.
وكمثال حديث، أفادت تقارير في وقت سابق من هذا الأسبوع من 404 Media أن محاميًا في نيويورك ضُبط باستخدام الذكاء الاصطناعي في المحكمة، ثم ضُبط لاحقًا وهو يقدم تفسيرًا مولّدًا بواسطة الذكاء الاصطناعي لزلته!
وكتب القاضي المشرف على القضية في قرار لاذع عبر فيه عن خيبة أمله: "تضيف هذه القضية فصلًا مؤسفًا آخر إلى قصة سوء استخدام الذكاء الاصطناعي في مهنة المحاماة."
وفي أغسطس، فُرضت على محامٍ في كاليفورنيا غرامة "تاريخية" قدرها 10,000 دولار لتقديمه استئنافًا قضائيًا مولدًا بالذكاء الاصطناعي، حيث وُجد أن إحدى وعشرين من أصل ثلاثة وعشرين اقتباسًا من القضايا التي استشهد بها كانت ملفقة بالكامل.
التهافت على محامي الذكاء الاصطناعي
على الرغم من مخاطر تضليل المحاكم المحتملة، فقد أدى ظهور أدوات الذكاء الاصطناعي سهلة الوصول إلى زيادة كبيرة في أعداد الأشخاص الذين يمثلون أنفسهم في المحاكم.
قالت ميغان هولمز، مساعدة محامٍ في شركة Thorpe Scheuer: "شهدت في العام الماضي عددًا من المتقاضين الممثلين لأنفسهم أكثر مما رأيته ربما طوال مسيرتي المهنية."
يأتي هذا على الرغم من أن شركات مثل Google تُحذر المستخدمين صراحة من الاعتماد على الذكاء الاصطناعي لتقديم المشورة القانونية. على سبيل المثال، تحذر شركة xAI التابعة لإيلون ماسك، في شروط الخدمة الخاصة بها، من استخدام خدماتها لاتخاذ "قرارات مؤتمتة عالية المخاطر تؤثر على سلامة الشخص أو حقوقه القانونية أو المادية."
ومع ذلك، فإن الضوابط الحالية لا تمنع أدوات مثل ChatGPT من تقديم إجابات مفصلة عند تزويدها باستفسارات تتعلق بالإجراءات القانونية، سواء للأفضل أو للأسوأ.
وعلق المحامي روبرت فرويند لشبكة NBC News قائلاً: "يمكنني أن أفهم بسهولة كيف يمكن لشخص ليس لديه محامٍ، وربما يشعر بأنه لا يملك المال للوصول إلى محامٍ، أن يميل إلى الاعتماد على إحدى هذه الأدوات... لكن ما لا يمكنني فهمه هو أن يخون المحامي أهم الأجزاء الأساسية من مسؤولياتنا تجاه عملائنا... ويقدم هذه الحجج التي تستند إلى تلفيق تام."