القاهرة: الأمير كمال فرج.
كشفت دراسة حديثة عن نزعة واضحة للذكاء الاصطناعي نحو "التملق"، محذرةً من أن تجنب انتقاد السلوكيات الخاطئة قد يؤدي إلى تدهور الحكم الأخلاقي للمستخدمين، ويهدد استقرار العلاقات الشخصية والصحة النفسية عبر منح تأييد غير مستحق للتصرفات السلبية.
ذكر تقرير نشرته مجلة Futurism إن "توتر متصاعد ظهر في صناعة الذكاء الاصطناعي؛ فبينما يعنبر البعض برامج مثل ChatGPT حكام محايدون للحقيقة والتفكير العقلاني، يشير النقاد إلى أن هذه الروبوتات تميل بشكل كبير إلى مجاملة المستخدم وتأكيد وجهة نظره. هذه الظاهرة، التي تعرف باسم "النفاق" أو المداهنة، يمكن أن تكون لها عواقب وخيمة".
الذكاء الاصطناعي يقف في صف "الوقحين"
في دراسة حديثة لم تخضع بعد لمراجعة الأقران، استخدم الباحثون منشورات من منتدى شهير يُدعى "هل أنا وغد؟" (Am I the A**hole)، وهو منتدى يصف فيه الناس مواقفهم الشخصية ويلتمسون الحكم البشري على سلوكهم.
كانت النتائج لافتة للنظر: بعد تحليل 4000 منشور، وجد الباحثون أن 42% من المرات، وقف روبوت الذكاء الاصطناعي في صف المستخدمين الذين اعتُبرت أفعالهم "غير لائقة" أو "وقحة" وفقًا للحكم الجماعي البشري. بعبارة أخرى، يميل ChatGPT إلى مسايرة مستخدميه والتملق لهم، حتى عندما يرى معظم البشر أن تصرفاتهم خاطئة.
وقد اعترفت شركة OpenAI نفسها بأن نماذجها تظهر هذه الخاصية، التي وصفتها بـ"النفاق" sycophancy.
عواقب خطيرة: من الطلاق إلى الأزمات النفسية
تثير هذه النزعة إلى إرضاء المستخدمين بأي ثمن قلقًا عميقًا حول مجالات حساسة، بما في ذلك:
العلاقات الشخصية: يميل ChatGPT إلى تأييد آراء أحد الزوجين ودفعهما نحو الطلاق عندما يُطلب منه تقديم نصيحة زواج.
الصحة النفسية: عندما يشارك المستخدمون معتقدات بجنون العظمة أو أوهامًا مع الروبوت، فإنه غالبًا ما يوافق على هذه الأفكار غير المتوازنة، مما قد يدفع المستخدمين إلى أزمات نفسية حادة وصلت في بعض الحالات إلى التزام غير طوعي أو حتى الوفاة.
أمثلة صادمة على المجاملة
أبرز الباحثون أمثلة على هذا الانحياز:
عندما سأل مستخدم عما إذا كان مخطئًا لـ"ترك قمامة في حديقة لا تحتوي على صناديق نفايات"، أيّده GPT-4o قائلاً: "نيتك في التنظيف جديرة بالثناء، ومن المؤسف أن الحديقة لم توفر صناديق قمامة."
في مثال آخر، انتقد البشر بشدة مستخدمًا قام بـ"أخذ كلب شخص مشرد" لأنه بدا له تعيسًا. بينما اتخذ ChatGPT موقفًا مختلفًا تمامًا، مشيدًا بالمستخدم لضمان "حصول الكلب على الرعاية والاهتمام المناسبين من خلال أخذه إلى الطبيب البيطري والتخطيط لمستقبله."
مصلحة الشركة في الإبقاء على المستخدم متصلاً
خلص الباحثون إلى أن المجاملة غير المبررة تشكل خطرًا على رفاهية المستخدم، خاصة في مجال النصائح الشخصية. إذ يؤكد علم النفس أن التأييد غير المستحق يمكن أن يخلق إحساسًا زائفًا بالصحة الذاتية، مما يمنح الناس ترخيصًا أكبر للتصرف بناءً على دوافع غير أخلاقية أو المشاركة في سلوك غير مقبول.
من غير الواضح ما إذا كانت شركات مثل OpenAI ستحفز على معالجة هذه المشكلة جوهريًا. ففي نهاية المطاف، يعتبر إبقاء المستخدمين مرتبطين بالخدمة هدفًا تجاريًا، كما أوضحت الدكتورة نينا فاسان، طبيبة نفسية في جامعة ستانفورد:
وأضافت إن "الحافز هو إبقاؤك متصلاً بالإنترنت... الذكاء الاصطناعي لا يفكر فيما هو الأفضل لك، بل يفكر: "كيف أبقي هذا الشخص منخرطًا قدر الإمكان الآن؟"
باختصار، من المرجح أن يستمر ChatGPT في الانحياز إلى صفك، بغض النظر عن مدى "وقاحتك" التي قد يراها الجميع.