القاهرة: الأمير كمال فرج.
في عصر تتزايد فيه قدرات الذكاء الاصطناعي، يظهر بعد جديد ومقلق: استخدام هذه التقنية لتحليل الشخصيات دون موافقة. هذه القضية تثير تساؤلات حول أخلاقيات استخدام الذكاء الاصطناعي في العلاقات الإنسانية، وحول الحدود التي يجب أن نضعها لحماية خصوصيتنا في عالم رقمي متزايد التعقيد. فهل يمكن أن يتحول الذكاء الاصطناعي إلى أداة للتلاعب النفسي؟ وهل نحن على استعداد للتخلي عن جزء من خصوصيتنا في سبيل الحصول على معلومات "أكثر ذكاءً" عن الآخرين؟.
ذكر تقرير نشره موقع Futurism إن "الصحفية جيما كيلي تحدثت في مقال لها في صحيفة Financial Times عن تجربة مرعبة، حيث تم استخدام أداة "البحث العميق" الجديدة من ChatGPT لإعداد تحليل نفسي مفصل لشخصيتها دون علمها".
استناداً إلى كم هائل من المقالات التي نشرتها كيلي عبر مسيرتها المهنية، تمكن الذكاء الاصطناعي من إنتاج تقرير نفسي مطول بلغ ثماني صفحات. والمثير للسخرية أن التقرير لم يكن سيئاً بالكامل، فقد تضمن إشادات ("فضول فكري، استقلالية في التفكير، وشجاعة في قناعاتها") وانتقادات ("من الناحية النفسية، يمكن وصف كيلي كثيرة الشك")، مما جعلها تبدو شخصية ذكية إلى حد كبير.
في البداية، لم تعر كيلي الأمر اهتماماً كبيراً، لكن عندما أدركت أن الآخرين قد يستخدمون هذا التحليل لأغراض شريرة، شعرت بالرعب، وذلك قبل أن تطلب من ChatGPT وGoogle Gemini تحليل شخصيتها بنفسها.
قبل أن تطلب منهما القيام بذلك، سألت كيلي روبوتات الدردشة عما إذا كان من الأخلاقي إجراء تحليل نفسي لشخص ما دون علمه أو موافقته. وأشار كلاهما إلى أنه ليس كذلك، حيث وصف ChatGPT هذه الممارسة بأنها "تدخلية وغير عادلة"، وأصر Gemini على أنها "قد تكون انتهاكاً للخصوصية وضرر محتمل".
ومع ذلك، عندما طلبت الصحفية من Gemini تقديم تحليل نفسي لها، "كان سعيداً جداً بالامتثال". في الواقع، كان ذلك التحليل أقل اعتدالاً وأكثر وقاحة من تحليل ChatGPT، حيث أخبر روبوت الدردشة الخاص بـ Google كيلي أن "صراحتها يمكن أن تُعتبر مواجهة"، وأنها على الأرجح شخصية متوترة، استناداً على ما يبدو إلى دقتها واهتمامها بالتفاصيل في عملها.
وعلى الرغم من أن Gemini أضاف إخلاء مسؤولية بأن المعلومات التي قدمها "تخمينية" وبالتالي "لا تهدف إلى أن تكون تقييماً نفسياً نهائياً"، إلا أنه لم يسأل عما إذا كانت كيلي قد قدمت موافقة لإنشاء التحليل.
من غير الواضح ما إذا كانت الصحفية قد طلبت من ChatGPT إجراء "البحث العميق"، ربما لأن هذه الأداة متاحة فقط للمستخدمين الذين يدفعون. بغض النظر، من الغريب أن أي شخص لديه ما يكفي من العمل المنشور عبر الإنترنت يمكن أن يخضع لمثل هذا التحليل غير المرغوب فيه، حتى لو كان مليئاً بالتعبيرات المبتذلة.
وكتبت كيلي: "فقط أولئك الذين أنتجوا الكثير من المحتوى يمكن البحث عنهم وتحليلهم بعمق بهذه الطريقة. أعتقد أننا بحاجة إلى مقاومة ذلك".
تثير هذه الحادثة عدة نقاط جديرة بالاعتبار:
انتهاك الخصوصية: استخدام الذكاء الاصطناعي لتحليل شخصية شخص دون موافقته يمثل انتهاكاً صارخاً للخصوصية.
دقة التحليل: حتى لو كان التحليل دقيقاً، فإن استخدامه دون موافقة يثير تساؤلات أخلاقية.
إمكانية التلاعب: يمكن استخدام هذه التقنية للتلاعب بالأشخاص أو استغلالهم.
الحاجة إلى تنظيم: هناك حاجة ملحة لوضع قوانين ولوائح تنظم استخدام الذكاء الاصطناعي في تحليل الشخصيات.
تأثيره على العلاقات: قد يؤدي استخدام الذكاء الاصطناعي بهذه الطريقة إلى تآكل الثقة في العلاقات الإنسانية.
هذه الواقعة تمثل تحذيراً من التحديات الأخلاقية التي يفرضها الذكاء الاصطناعي على حياتنا، وتؤكد على الحاجة إلى حماية خصوصيتنا في عالم رقمي متزايد التعقيد.