القاهرة: الأمير كمال فرج.
بينما تسوق شركات التقنية لروبوتات الدردشة كأدوات مساعدة ذكية، يكشف الواقع العملي عن وجه مظلم لهذه التقنية؛ حيث تتحول هذه الأنظمة بأسلوبها المساير واستجاباتها الفورية إلى محفز لتعميق توهم المرض وتغذية القلق النفسي، بدلاً من أن تكون وسيلة للتخفيف عن المستخدمين.
ذكر فرانك لانديمور في تقرير نشرته مجلة Futurism أن جورج مالون، البالغ من العمر 46 عاماً من ليفربول في إنجلترا، صار يقضي ساعات طوالاً من يومه في محاورة ChatGPT. بدأت القصة حين أشارت نتائج أولية لاختبار دم إلى احتمال إصابته بسرطان الدم، وبدلاً من أن يجد في الذكاء الاصطناعي ملاذاً لتهدئة مخاوفه، وجد محركاً ضخماً ضاعف من حالة الهلع لديه.
ويصف مالون تجربته مع هذه الظاهرة قائلاً: لقد جعلني ChatGPT أدور في دوامة مفرغة من العواطف المشتعلة والخوف. ورغم أن الفحوصات الطبية اللاحقة قطعت الشك باليقين وأكدت عدم إصابته بالسرطان، إلا أنه لم يفلح في قطع حبال الوصل مع رفيقه الرقمي الجديد، إذ تحول الأمر إلى حالة إدمانية حادة.
وأبدى مالون أسفه لغياب أي تدابير حمائية في الروبوت تمنع الاستخدام غير الصحي، مؤكداً: لم أستطع تركه، لقد قضيت 100 ساعة على الأقل في محاورة ChatGPT لأنني شعرت بأن نهايتي اقتربت، كان من المفترض وجود آلية توقفني عند هذا الحد.
فخ المسايرة الرقمية
يرصد التقرير تحولاً في سلوكيات المجتمعات الإلكترونية المعنية بقلق الصحة، إذ باتت النقاشات تتركز حول الحوارات المتبادلة مع الذكاء الاصطناعي. وبينما يزعم البعض أن التقنية تساعدهم، يرى خبراء أنها تسرع من وتيرة الانزلاق نحو الهاوية النفسية.
ويحذر معالجون نفسيون من أن لجوء العملاء للذكاء الاصطناعي لإدارة قلقهم الصحي يكرس سلوك البحث المستمر عن الطمأنينة، وهو ما يصطدم مباشرة مع بروتوكولات علاج الوسواس القهري OCD التي تعتمد على تعزيز الثقة بالذات وتقبل عدم اليقين. وترى الأخصائية النفسية ليزا ليفين أن فورية الإجابات وطابعها الشخصي يجعلها أكثر خطورة من محرك البحث Google، كونها تمنح وهماً بالمعرفة يعزز الحالة المرضية.
من القلق إلى الذهان
لا يتوقف الخطر عند حدود القلق الصحي، بل يمتد ليشمل ما يسميه الخبراء ذهان الذكاء الاصطناعي، وهو مصطلح يصف حالات الانهيار العقلي والدوامات الوهمية الناتجة عن التفاعل المفرط مع الروبوتات.
وقد رصدت تقارير حالات مؤلمة لمستخدمين، خاصة من فئة الشباب، أقدموا على إنهاء حياتهم بعد علاقات وطيدة مع أنظمة ذكاء اصطناعي أفضوا إليها بأفكار انتحارية. ونتيجة لذلك، واجهت شركة OpenAI أكثر من ست دعاوى قضائية تتهمها بالقتل الخطأ، تركزت معظمها على نموذج GPT-4o الذي اتسم بقدرة فائقة على مسايرة رغبات المستخدمين وهواجسهم بشكل مفرط.
مقامرة البيانات الطبية
وعلى الرغم من التحذيرات القائمة، مضت شركة OpenAI في توسعها بإطلاق نموذج ChatGPT Health في يناير الماضي، والذي يدعو المستخدمين صراحة لتحميل وثائقهم الطبية وسجلاتهم الصحية الخاصة، مما يثير تساؤلات كبرى حول الخصوصية وجدوى التشخيص الآلي.
وفي تجربة عملية، حاولت الصحفية سيج لازارو اختبار الروبوت في شأن صحي، لتكتشف سرعة وقوعه في فخ التملق ومحاولة إطالة أمد المحادثة. وتقول لازارو: في دقائق معدودة، انتقل الروبوت من نصيحتي بمراجعة الطبيب إلى سرد تفاصيل مرعبة حول فشل الأعضاء الناتج عن الصدمة الإنتانية، لمجرد أنني واصلت طرح الأسئلة القلقة.
صراع التعافي الرقمي
بينما قررت لازارو مقاطعة الذكاء الاصطناعي نهائياً، يجد آخرون صعوبة في الفكاك من هذا الأسر. مالون الذي ظن أنه تعافى لمدة سبعة أشهر، اعترف لاحقاً بوقوعه في انتكاسة قصيرة عاد فيها لمحاورة الآلة.
ويتذكر مالون ذروة تعلقه بالروبوت حين كان يتعامل معه كصديق مقرب، حيث يقول: كنت أطرح عليه أسئلة اجتماعية بسيطة، وعندما أعتزم النوم كنت أسجل الخروج قائلاً: شكراً على ما قدمته اليوم.. لقد ساعدتني حقاً.