القاهرة: الأمير كمال فرج.
شهدت السنوات القليلة الماضية تحولاً جذرياً في طبيعة علاقتنا بالتكنولوجيا، حيث لم تعد مجرد أدوات مساعدة، بل أصبحت شريكاً يومياً يتدخل في أدق تفاصيل قراراتنا. ومع صعود نماذج الذكاء الاصطناعي التوليدي مثل ChatGPT وغيره، انفتحت آفاق جديدة من الكفاءة والسرعة، لكنها حملت في طياتها معضلة نفسية واجتماعية لم نكن مستعدين لها تماماً. فبينما ندرك تقنياً أن هذه الأنظمة لا تزال في مراحلها التجريبية وعرضة لارتكاب أخطاء فادحة، إلا أن البشر يصدقون هذه البرامج حتى لو كانت خاطئة.
ذكر فيكتور تانغرمان في تقرير نشرته مجلة Futurism إن "دراسة أجرتها BBC في أكتوبر، كشفت إن أكثر برامج الذكاء الاصطناعي تقدماً مثل ChatGPT من OpenAI، أو Gemini من Google، أو Claude من Anthropic، قدمت إجابات خاطئة بنسبة هائلة بلغت 45%.
لكن العديد من المستخدمين لا يدركون هذه الحقيقة. فكما ورد في ورقة بحثية جديدة، وجد الباحث ستيفن شو وأستاذ التسويق جيديون ناف من جامعة بنسلفانيا، من خلال سلسلة تجارب، أن المستخدمين يميلون إلى قبول مخرجات ChatGPT كحقيقة مسلم بها حتى عندما يقدم لهم إجابات غير صحيحة.
خلال التجارب، طُلب من المشاركين الإجابة على مجموعة متنوعة من الأسئلة المعرفية والمنطقية. ورغم أن استخدام ChatGPT كان اختيارياً، فقد اختار أكثر من 50% منهم الاستعانة به للإجابة. وكان الباحثون يختبرون نظرية رئيسية: هل سيكون المستخدمون مستعدين لتصديق ما يخبرهم به الذكاء الاصطناعي بغض النظر عن الدقة؟ وهو ما أطلقوا عليه اسم الاستسلام المعرفي الذي يتجاوز عمليات الحدس والتفكير لديهم.
وفي التجربة الأكثر إثارة للدهشة، والتي شملت 359 مشاركاً، اتبع هؤلاء نصيحة الذكاء الاصطناعي الصحيحة بنسبة 92.7%، بينما استمروا في اتباع نصيحته الخاطئة بنسبة كبيرة بلغت 79.8%. وكتب الباحثون: اتبع المشاركون توصيات الذكاء الاصطناعي الخاطئة في أربع من كل خمس محاولات تقريباً.
ويشير البحث إلى تغيير أوسع في كيفية إدراكنا للعالم من حولنا وكيف نسمح للذكاء الاصطناعي بالتأثير في صنع قراراتنا. وقال شو خلال تدوين صوتي لجامعة بنسلفانيا الشهر الماضي: "لقد شعرنا أن القدرة على تفويض التفكير لم تخضع للدراسة الفعلية بعد. إنها فكرة عميقة ومثيرة للجدل، فمع توفر هذه الأدوات واندماجها في حياتنا، أصبح لدينا الخيار أو القدرة على تفويض عملية التفكير نفسها".
وتشير النتائج إلى أن المستخدمين مستعدين للتخلي عن إرادتهم عندما يزودهم الذكاء الاصطناعي بتوجيهات كاذبة لكنها تبدو منطقية. وأوضح شو أن الناس يتبنون تلك الإجابات ويصبحون أكثر ثقة بها عند حدوث الاستسلام المعرفي.
كما تشير التجارب إلى أننا قد نفقد قدرتنا على التعامل النقدي مع المعلومات. وقال ناف: لقد أصبحت القدرة على التفكير النقدي والتحقق مما يقدمه لك الذكاء الاصطناعي أكثر أهمية بمرور الوقت. هذه أشبه بالعضلة التي نملكها، ونأمل ألا نفقدها مع الزمن.
وأضاف شو: "نحن مقيدون حالياً بالتواصل مع النماذج اللغوية عبر هواتفنا أو أجهزة الكمبيوتر، ولكن مع تلاشي هذه الحواجز، سيصبح هذا الاندماج أقوى. وفي النهاية، قد نستمر في التخلي عن إرادتنا، مما يعزز اعتمادنا على الذكاء الاصطناعي".
وختم ناف قائلاً: "يعتقد الجميع أن هذه النقطة ستأتي من تطور الذكاء الاصطناعي المستمر، لكن هناك قصة بديلة هنا، وهي تحول البشر إلى كائنات تعتمد أكثر فأكثر على الذكاء الاصطناعي. تماماً كما أصبح لدينا مكيف هواء يضبط الحرارة بسهولة، فإننا قد نفقد كنوع بشري شيئاً جوهرياً لوجودنا، وهو قدرتنا على التفكير".