تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



لغة خادعة لإخفاء خطر ChatGPT


القاهرة: الأمير كمال فرج.

فيما حذر قادة التكنولوجيا من المخاطر المحتملة لأنظمة الذكاء الاصطناعي التي يقومون بتطويرها، وأكدوا على الحاجة إلى التنظيم، أكد مبلغون عن المخالفات أن OpenAI خالفت وعدها باختبار الذكاء الاصطناعي بدقة للتأكد من مدى خطورته قبل إصداره.

ذكر فرانك لانديمور في تقرير نشره موقع Futurism أن "الواقع يؤوكد أنه رغم التوجه التحذيري المستمر من مخاطر الذكاء الاصطناعي، هناك المزيد من الأدلة التي تشير إلى أن شركة OpenAI، الرائدة في هذا المجال، لم تمارس ما كان يبشر به رئيسها التنفيذي سام ألتمان علنًا بالحفاظ على قواعد السلامة".

ضغط المواعد

ذكرت صحيفة واشنطن بوست أن أعضاء فريق السلامة في OpenAI قالوا إنهم شعروا بالضغط للإسراع في إجراء الاختبارات "المصممة لمنع التكنولوجيا من التسبب في ضرر كارثي" لنموذج اللغة الكبير GPT-4 Omni، الذي يعمل الآن على تشغيل ChatGPT، وكان على الشركة أن تطرح منتجها بحلول تاريخ إطلاقه في مايو دون انتهاء هذه الاختبارات.

باختصار، يقولون إن OpenAI تعاملت مع سلامة GPT-4o باعتبارها نتيجة مفروغ منها، وهذا خطأ.

وقال شخص مجهول مطلع على الأمر لـ WaPo: "لقد خططوا لعملية الإطلاق قبل معرفة ما إذا كان الإطلاق آمنًا". "لقد فشلنا بشكل أساسي في هذه العملية"، ربما تكون خطيئة عرضية، ولكنها تعكس موقفًا متقلبًا تجاه السلامة من قبل قيادة الشركة.

قواعد غامضة

هؤلاء ليسوا أول الأشخاص المقربين من الشركة الذين أطلقوا ناقوس الخطر. في يونيو، حذرت مجموعة من المطلعين على شركة OpenAI - موظفون حاليون وسابقون على حد سواء - في رسالة مفتوحة من أن الشركة تتجنب إجراءات السلامة لصالح السباق "المتهور" للهيمنة على الصناعة. وزعموا أيضًا أن هناك ثقافة انتقامية أدت إلى إسكات المخاوف المتعلقة بالسلامة.

يُظهر هذا الكشف الأخير أن OpenAI تفشل في الارتقاء إلى مستوى المعايير التي فرضها أمر الذكاء الاصطناعي التنفيذي للرئيس جو بايدن، والذي وضع قواعد غامضة إلى حد ما حول كيفية قيام قادة الصناعة، مثل Google وMicrosoft - التي تدعم OpenAI - بمراقبة أنفسهم.

تتمثل الممارسة الحالية في قيام الشركات بإجراء اختبارات السلامة الخاصة بها على نماذج الذكاء الاصطناعي الخاصة بها، ثم تقديم النتائج إلى الحكومة الفيدرالية للمراجعة. ومع ذلك، عند اختبار يرنامج GPT-4o، قامت OpenAI بتقليص اختبارها إلى أسبوع واحد، وفقًا لمصادر The Washington Post.

احتج الموظفون، لأن ذلك كان ضمن حقوقهم، فمن المؤكد أن ذلك لن يكون وقتًا كافيًا لاختبار النموذج بدقة.

لغة خادعة

لقد قللت شركة OpenAI من أهمية هذه الاتهامات باستخدام لغة خادعة، ولا تزال تبدو مذنبة بعض الشيء. أصر المتحدث الرسمي ليندسي هيلد على أن الشركة "لم تختصر إجراءات السلامة لدينا"، واعترف فقط بأن الإطلاق كان "مرهقًا" للموظفين.

وفي الوقت نفسه، قال عضو مجهول في فريق الاستعداد بالشركة لـ The Washington Post أن هناك ما يكفي من الوقت لإكمال الاختبارات، وذلك بفضل "التشغيل التجريبي" الذي تم إجراؤه مسبقًا، لكنه اعترف بأن الاختبار كان "مختصرًا".

تاريخ الإضافة: 2024-07-13 تعليق: 0 عدد المشاهدات :222
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات