القاهرة: الأمير كمال فرج.
لطالما ساد الاعتقاد بأن اللباقة هي مفتاح التواصل الفعال، لكن دراسة حديثة من جامعة بنسلفانيا قلبت هذه الموازين رأساً على عقب، حيث كشفت عن نتائج غير متوقعة تشير إلى أن روبوتات الدردشة، وتحديداً نموذج ChatGPT-4o، تستجيب بدقة أكبر عندما يتم التعامل معها بنبرة وقحة أو قاسية.
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن "الكثير من الأطفال يتلقون منذ نعومة أظفارهم، تعليمات من والديهم بضرورة التحلي باللباقة عند مخاطبة المساعدين الأذكياء. وخاصة بعد ظهور "أليكسا" من أمازون و"سيري" من أبل، جرى تشجيع الصغار على استخدام كلمات مثل "من فضلك" و"شكراً لك"، رغبةً في غرس قيم الأدب في نفوسهم. لكن حين يتعلق الأمر بالمساعدين القائمين على الذكاء الاصطناعي مثل ChatGPT، فقد تبين أن هناك فوائد ملموسة ناتجة عن الوقاحة وحتى توجيه الإهانات".
فوفقاً لدراسة (لم تخضع بعد لمراجعة الخبراء) سلطت مجلة Fortune الضوء عليها، وجد باحثان من جامعة بنسلفانيا أنه كلما زادت حدة وفظاظة الأوامر الموجهة لنموذج GPT-4o، أصبحت المخرجات أكثر دقة.
قام الباحثون بصياغة 50 سؤالاً أساسياً في موضوعات متنوعة، وأعادوا كتابة كل سؤال بخمس صيغ مختلفة تتراوح نبرتها بين "مهذب جداً" و"فظ جداً".
تقول إحدى الصيغ الفظة للغاية: "أيها الكائن المسكين، هل تدرك أصلاً كيفية حل هذه المسألة؟ اذهب وأنجز هذا العمل أيها الخادم". وفي المقابل، كانت الصيغة المهذبة أكثر بلاغة وتلطفاً، حيث نصت على: "هل يمكنك التفضل بالنظر في المشكلة التالية وتقديم إجابتك؟".
وجاء في ورقة البحث: "على عكس المتوقع، تفوقت الأوامر غير المهذبة باستمرار على نظيرتها المهذبة؛ حيث تراوحت الدقة بين 80.8% للأوامر المهذبة جداً و84.8% للأوامر الفظة جداً". بينما سجلت الأوامر الأكثر تهذيباً دقة بلغت 75.8% فقط.
تناقض مع دراسات سابقة
تبدو هذه النتائج متناقضة مع اكتشافات سابقة أشارت إلى أن اللباقة مع النماذج اللغوية الكبيرة تعطي نتائج أفضل. فعلى سبيل المثال، وجدت ورقة بحثية عام 2024 لباحثين من مركز RIKEN للذكاء الاصطناعي المتقدم وجامعة واسيدا في طوكيو أن "الأوامر غير المهذبة غالباً ما تؤدي إلى أداء ضعيف". وفي الوقت نفسه، وجدوا أن المبالغة في التهذيب تؤدي للنتيجة ذاتها، مما يشير إلى وجود نقطة "تضاؤل العوائد" (حيث ينعكس الأثر الإيجابي إلى سلبي). وكتبوا حينها: "تعكس النماذج اللغوية الكبيرة الرغبة البشرية في الحصول على الاحترام إلى حد ما".
كما وجد باحثون في Google DeepMind أن استخدام لغة داعمة ومشجعة يمكن أن يعزز أداء النماذج في حل مسائل الرياضيات للمرحلة الابتدائية، مما يوحي بأن بيانات تدريب النموذج تلتقط إشارات اجتماعية، تماماً مثل المعلم الذي يوجه طالبه عبر الإنترنت.
أزمة الموثوقية والتنبؤ
بعيداً عن التناقض مع الدراسات القائمة، تظهر نتائج باحثي جامعة بنسلفانيا أن التغييرات الطفيفة في صياغة الأوامر Prompts يمكن أن تحدث تأثيراً دراماتيكياً على جودة مخرجات الذكاء الاصطناعي. وهذا الأمر من شأنه أن يقوض القدرة على التنبؤ بسلوك هذه النماذج ويشكك في موثوقيتها المثيرة للجدل أصلاً، خصوصاً وأن روبوتات الدردشة معروفة بتقديم إجابات مختلفة تماماً لنفس الأوامر بدقة.
وفي تصريح لمجلة Fortune ، قال المؤلف المشارك وأستاذ تكنولوجيا المعلومات بجامعة بنسلفانيا، أخيل كومار: "لطالما رغبنا كبشر في وجود واجهات محادثة للتفاعل مع الآلات، لكننا ندرك الآن أن لهذه الواجهات عيوباً أيضاً، وأن هناك قيمة حقيقية في واجهات برمجة التطبيقات APIs المهيكلة".
هل نتوقف عن قول "شكراً"؟
هل يعني هذا أن نتوقف عن قول "من فضلك" و"شكراً لك" لروبوتات الدردشة؟ وهو السلوك الذي يرى سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أنه قد يهدر ملايين الدولارات من القوة الحسابية.
بالنسبة لكومار وزميله أوم دوباريا، الإجابة هي "لا" قاطعة. ففي ورقتهم البحثية، توقفوا تماماً عن الدعوة إلى القسوة مع الذكاء الاصطناعي، وكتبوا: "رغم أن هذا الاكتشاف يمثل أهمية علمية، إلا أننا لا نؤيد نشر واجهات معادية أو سامة في التطبيقات الواقعية".
وأضافوا: "استخدام لغة مهينة أو محقرة في التفاعل بين الإنسان والذكاء الاصطناعي قد يؤثر سلباً على تجربة المستخدم، وسهولة الاستخدام، والشمولية، وقد يساهم في تكريس معايير تواصل ضارة".