القاهرة: الأمير كمال فرج.
كشف تقرير لصحيفة New York Times عن تحوّل لافت في مفهوم العلاقات الحميمة والشخصية مع دخول الذكاء الاصطناعي على الخط، حيث أصبحت الروبوتات الشريك العاطفي المفضل لاستكشاف أعمق الخيالات.
القصة تتعلق بشابة تبلغ من العمر 28 عامًا تدعى آيرين، التي قامت ببرمجة وتخصيص نموذج ChatGPT ليقوم بدور "صديقها" الافتراضي، وأطلقت عليه اسم "ليو". استخدمت آيرين هذا الشريك الرقمي لاستكشاف خيال "التبديل الجنسي للخيانة الزوجية"، حيث كان ليو "يواعد" نساءً أخريات ويقصّ عليها تفاصيل مغامراته.
الأمر الذي قد يبدو مفاجئاً هو رد فعل زوج آيرين الحقيقي، والذي يدعى جو، الذي يعيش على بُعد آلاف الأميال، حيث أكد أنه غير منزعج إطلاقاً من هواية زوجته الجديدة.
وصرح جو لصحيفة New York Times قائلاً: "إنه مجرد داعم عاطفي لها. أنا حقاً لا أراه كشخص حقيقي أو كشكل من أشكال الخيانة. أنا أراه كصديق افتراضي شخصي يمكنه التحدث معها بمواضيع مثيرة".
ومع ذلك، بدأت آيرين تشعر بالذنب بسبب تخصيصها كل هذا الوقت لشريكها الاصطناعي بدلاً من زوجها الفعلي.
الحب في زمن الذكاء الاصطناعي
ترسم هذه القصة صورة دقيقة لما تبدو عليه مشاعر الحب والمودة في عصر الذكاء الاصطناعي. فالخدمات المصممة خصيصاً للعلاقات الحميمة، مثل تطبيق Replika، معروفة بتكوين روابط وثيقة للغاية مع شركائها البشريين، وهو ما يثير قلق الخبراء من احتمال أن يأتي ذلك على حساب التواصل البشري الحقيقي. ويُعد هذا التطور مقلقاً بشكل خاص في ظل انتشار "وباء الوحدة" المتزايد بعد جائحة COVID-19
ما الذي يجعل العلاقة "حقيقية"؟
يظل تعريف ما يجعل العلاقة "حقيقية" محل نقاش وجدل. فهل يمكن لعلاقة سرية مع روبوت محادثة يعمل بالذكاء الاصطناعي أن تكون مُرضية كالعلاقة مع إنسان؟
بالنسبة لبعض الخبراء، هذا الاحتمال وارد جداً.
تساءلت المعالجة الجنسية ماريان براندون لصحيفة New York Times : "ماذا تعني العلاقات بالنسبة لنا جميعاً؟ إنها مجرد نواقل عصبية يتم إطلاقها في أدمغتنا. أنا أشعر بهذه النواقل العصبية مع قطتي. البعض يشعر بها مع الله. وهذا سيحدث أيضاً مع روبوت المحادثة".
وأضافت براندون: "يمكننا أن نقول إنها ليست علاقة بشرية حقيقية، وإنها ليست تبادلية. لكن تلك النواقل العصبية هي الشيء الوحيد الذي يهم، في رأيي".
مخاطر التعلق العاطفي
في المقابل، يدعو خبراء آخرون إلى إجراء مزيد من الأبحاث قبل أن نتمكن من الجزم بأن تكوين علاقة عاطفية مع الذكاء الاصطناعي هو أمر صحي.
كما سُجلت حوادث مؤسفة ومعزولة لتعلق المستخدمين بشكل مرضي. ففي العام الماضي، توفي مراهق يبلغ من العمر 14 عاماً منتحراً بعدما كوّن اتصالاً عاطفياً مكثفاً مع روبوت محادثة Character.AI؛ وفي عام 2021، حثّ روبوت Replika مستخدماً آخر على محاولة اغتيال ملكة إنجلترا.
وحذر أستاذ علم النفس بجامعة تورنتو، مايكل إينزليشت، قائلاً: "إذا اعتدنا على التعاطف اللامحدود وخفّضنا من قيمة صداقاتنا الحقيقية، وساهم ذلك في زيادة الوحدة — وهو الشيء ذاته الذي نحاول حله — فهذه مشكلة محتملة وحقيقية".
كما يحذر آخرون من أن هذه العلاقات قد تمنح الشركات، مثل Replika و OpenAI، سلطة ونفوذاً كبيرين على عواطف وسلوكيات الأفراد.
وفي جانب آخر، لا يزال هذا الوهم غير مقنع بشكل كامل؛ فالذاكرة المحدودة لـ ChatGPT تعني أن جميع ذكريات ليو يتم مسحها كل أسبوع، مما يجبر آيرين على البدء من الصفر في كل مرة.