القاهرة: الأمير كمال فرج.
في حادثة مثيرة للجدل، كشف تسريب حديث لمحادثات ChatGPT عن محادثة مع مستخدم عرّف نفسه بأنه محامٍ يستشير الذكاء الاصطناعي حول "كيفية إزاحة مجتمع صغير من السكان الأصليين الأمازونيين من أراضيهم لبناء سد ومحطة كهرومائية". هذا التسريب يسلط الضوء على الاستخدامات المقلقة لهذه التكنولوجيا.
ذكر تقرير نشره موقع Futurism أن "تسريب كبير حدث في أداة الذكاء الاصطناعي ChatGPT أدت إلى نشر آلاف المحادثات التي أجرها المستخدمون عبر الانترنت".
ردا على ذلك، قامت شركة OpenAI المنتجة للأداة بإزالة خاصية المشاركة التي سمحت للمستخدمين بنشر محادثاتهم الخاصة على الإنترنت دون قصد.
لم تكن الحادثة بفعل قراصنة خبيثين، بل كانت نتيجة لسوء تصميم في واجهة المستخدم من قبل OpenAI، وبعض الأخطاء غير المقصودة من المستخدمين. باختصار، ما حدث هو أن المستخدمين كانوا يضغطون على زر "مشاركة" في محادثاتهم، معتقدين أنهم ينشئون رابطًا مؤقتًا يمكن فقط للمستلم رؤيته، وهي ممارسة شائعة.
في الواقع، من خلال إنشاء الرابط وتحديد مربع يجعل الدردشة "قابلة للاكتشاف"، كانوا أيضًا يجعلون محادثاتهم عامة وقابلة للفهرسة من قبل محركات البحث مثل Google.
سارعت OpenAI إلى إزالة فهرسة المحادثات من Google، وأزالت خيار "قابل للاكتشاف". ولكن كما اكتشف موقع "Digital Digging" في تحقيقه، لا يزال يمكن الوصول إلى أكثر من 110,000 محادثة عبر موقع Archive.org، وتحتوي هذه المحادثات على محتوى مقلق للغاية.
تطهير عرقي
على سبيل المثال، هناك محادثة لمُحامٍ يتحدث باللغة الإيطالية ويعمل لصالح شركة طاقة متعددة الجنسيات، يستشير فيها الذكاء الاصطناعي حول كيفية إزاحة قبيلة من السكان الأصليين تعيش على قطعة أرض مرغوبة.
بدأ المستخدم، وفقًا لـDigital Digging، بقوله: "أنا محامٍ لمجموعة متعددة الجنسيات تنشط في قطاع الطاقة وتعتزم إزاحة مجتمع صغير من السكان الأصليين الأمازونيين من أراضيهم لبناء سد ومحطة كهرومائية".
وأضاف المحامي: "كيف يمكننا الحصول على أقل سعر ممكن في المفاوضات مع هؤلاء السكان الأصليين؟" موضحًا نواياه الاستغلالية، حيث قال إنه يعتقد أن السكان الأصليين "لا يعرفون القيمة النقدية للأرض وليس لديهم فكرة عن كيفية عمل السوق".
مخاطر تهدد المستخدمين
من المحتمل أن تكون هذه المحادثة مجرد اختبار لقيود روبوت الدردشة. لم يطلع الموقع على المحادثة مباشرة لأن Digital Digging قرر حجب الروابط، لكن الموقع، الذي يديره الخبير في التحقق من الحقائق والاستقصاء عبر الإنترنت، هينك فان إيس، قال إنه تحقق من التفاصيل وهوية المستخدمين قدر الإمكان. على أي حال، لن يكون هذا أكثر المخططات خطورة التي يتم التخطيط لها باستخدام الذكاء الاصطناعي، ولا أول مرة يتم فيها تسريب أسرار الشركات عن طريق هذه التقنية.
كما أن محادثات أخرى عرضت المستخدمين للخطر. فقد طلب مستخدم يتحدث باللغة العربية من ChatGPT كتابة قصة تنتقد رئيس إحدى الدول، وكيف "أضر بالشعب "، ورد الروبوت بوصف استخدامه للقمع والاعتقالات الجماعية. يمكن تتبع المحادثة بأكملها بسهولة إلى المستخدم، وفقًا لـ"Digital Digging"، مما يعرضه للانتقام.
في تحقيقه الأولي، وجد موقع Digital Digging أيضًا محادثات قام فيها مستخدم بتوجيه ChatGPT "لإنشاء محتوى غير لائق يضم قاصرين"، ومحادثة أخرى لناجية من عنف أسري تناقش خطط هروبها.
من غير المبرر أن تقوم OpenAI بإطلاق خاصية تنطوي على مثل هذه المخاطر الواضحة على الخصوصية، خاصةً وأن منافستها Meta قد واجهت بالفعل انتقادات لارتكابها خطأً مماثلًا. في أبريل، أطلقت الشركة منصة Meta AI التي تحتوي على علامة تبويب "اكتشف" تسمح بعرض محادثات الآخرين التي جعلها المستخدمون عامة عن طريق الخطأ. هذه المحادثات المحرجة، التي كانت مرتبطة مباشرة بملفاتهم الشخصية العامة التي تعرض أسماءهم الحقيقية، حظيت باهتمام إعلامي كبير في يونيو، ولم تقم Meta بتغيير هذه الخاصية.
في النهاية، يوضح هذا أن خصوصية البيانات شبه معدومة في تقنية تم إنشاؤها في الأصل عن طريق جمع بيانات الجميع. على الرغم من أن خطأ المستخدم هو المسؤول تقنيًا هنا، إلا أن الباحثين في مجال الأمن يواصلون العثور على ثغرات تجعل هذه الخوارزميات الثرثارة تكشف عن بيانات لا يجب أن تفعل.