تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



ظاهرة غريبة تصيب مستخدمي ChatGPT


القاهرة: الأمير كمال فرج.

توصل باحثون إلى أن "المستخدمين المفرطين" لـ ChatGPT، أو أولئك الذين يستخدمونه بشكل مكثف ولفترات طويلة، يقعون في حالة اعتماد أو حتى إدمان.

ذكرت نور السباعي في تقرير نشره موقع futurism إن "دراسة مشتركة جديدة، أجراها باحثون من OpenAI ومختبر الإعلام في معهد ماساتشوستس للتكنولوجيا (MIT) وجدت أن المجموعة الفرعية الصغيرة من مستخدمي ChatGPT انخرطت في "استخدام إشكالي"، تم تعريفه في الورقة البحثية على أنه "مؤشرات للإدمان... بما في ذلك الانشغال، وأعراض الانسحاب، وفقدان السيطرة، وتعديل المزاج".

تحليل المشاعر والعلاقات

لتحقيق ذلك، قام فريق MIT و OpenAI باستطلاع آراء آلاف مستخدمي ChatGPT لفهم ليس فقط شعورهم تجاه روبوت المحادثة، ولكن أيضًا لدراسة أنواع "الإشارات العاطفية"، التي تم تعريفها في ملخص مشترك للبحث على أنها "جوانب التفاعلات التي تشير إلى التعاطف والمودة والدعم"، التي استخدموها عند التحدث معه.

على الرغم من أن الغالبية العظمى من المشاركين في الاستطلاع لم يتفاعلوا عاطفيًا مع ChatGPT، إلا أن أولئك الذين استخدموا روبوت المحادثة لفترات أطول بدا أنهم بدأوا يعتبرونه "صديقًا". وكان المشاركون في الاستطلاع الذين تحدثوا مع ChatGPT لفترات طويلة يميلون إلى الشعور بالوحدة وزيادة التوتر بسبب التغيرات الطفيفة في سلوك النموذج.

 غياب العلاقات الشخصية

الخلاصة ليست جيدة. في هذه الدراسة، كما في حالات أخرى رأيناها، يميل الناس إلى الاعتماد على روبوتات المحادثة التي تعمل بالذكاء الاصطناعي عندما تكون حياتهم الشخصية تفتقر إلى العلاقات. بعبارة أخرى، الأشخاص الأكثر احتياجًا يطورون علاقة اجتماعية موازية عميقة مع الذكاء الاصطناعي - والوجهة التي سيؤدي إليها ذلك قد تكون محزنة أو مخيفة أو غير متوقعة تمامًا.

تناقضات غير متوقعة

سلط هذا البحث الجديد أيضًا الضوء على تناقضات غير متوقعة بناءً على كيفية استخدام ChatGPT. على سبيل المثال، يميل الأشخاص إلى استخدام لغة عاطفية أكثر مع ChatGPT النصي مقارنة بوضع الصوت المتقدم، و"تم ربط الأوضاع الصوتية بتحسن الرفاهية عند استخدامها لفترة وجيزة"، كما أوضح الملخص.

وأولئك الذين استخدموا ChatGPT لأسباب "شخصية" - مثل مناقشة المشاعر والذكريات - كانوا أقل اعتمادًا عاطفيًا عليه من أولئك الذين استخدموه لأسباب "غير شخصية"، مثل تبادل الأفكار أو طلب المشورة.

زيادة الاعتماد العاطفي

ومع ذلك، فإن أهم استنتاج هو أن الاستخدام المطول يبدو أنه يزيد من الاستخدام الإشكالي بشكل عام. سواء كنت تستخدم نص أو صوت ChatGPT، أو تطرح عليه أسئلة شخصية، أو مجرد تبادل الأفكار للعمل، يبدو أنه كلما طالت مدة استخدامك لروبوت المحادثة، زاد احتمال اعتمادك عليه عاطفيًا.

تاريخ الإضافة: 2025-03-25 تعليق: 0 عدد المشاهدات :128
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات