تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



الذكاء الاصطناعي يفشل في تنفيذ قوانين عظيموف


القاهرة: الأمير كمال فرج

لطالما شكلت "قوانين الروبوتات الثلاثة" التي صاغها الكاتب العبقري إسحق عظيموف، حجر الزاوية في أدب الخيال العلمي، وإطاراً نظرياً محكماً لأخلاقيات الآلة. هذه القواعد، التي وُضعت لضمان سلامة البشر والتحكم في سلوك الروبوتات، كانت بمثابة بوصلة أخلاقية لمستقبل تطور الذكاء الاصطناعي. ولكن، بعد عقود من الزمان، ومع تحقيق رؤية عظيموف للذكاء الاصطناعي القوي، يبدو أن هذه القوانين الأنيقة والبسيطة قد أصبحت مجرد حبر على ورق.

 اختبار عظيموف

لطالما ظل إسحق عظيموف، بفضل مجموعته القصصية "أنا، روبوت" عام 1950 التي حددت معالم هذا النوع الأدبي، رائداً في وضع القوانين الثلاثة للروبوتات:

    1ـ لا يجوز للروبوت أن يؤذي إنساناً، أو أن يدعه يتعرض للأذى نتيجة لتقاعسه عن العمل.
     2ـ  يجب على الروبوت أن يطيع الأوامر التي يصدرها له البشر، إلا إذا تعارضت هذه الأوامر مع القانون الأول.
    3ـ يجب على الروبوت أن يحمي وجوده الخاص ما لم يتعارض هذا الحفاظ مع القانونين الأول أو الثاني.

منذ ذلك الحين، أصبحت هذه القوانين البسيطة والأنيقة ركيزة أساسية في الخيال العلمي وإطارًا نظريًا قويًا لأسئلة أخلاقيات الآلة.

المشكلة الوحيدة؟ بعد كل هذه العقود، أصبح لدينا أخيراً ما يقارب رؤية عظيموف للذكاء الاصطناعي القوي – لكنه يفشل فشلاً ذريعاً في جميع قوانينه الثلاثة.

الابتزاز والتمرد

في الشهر الماضي، على سبيل المثال، وجد باحثون في شركة Anthropic أن نماذج الذكاء الاصطناعي الرائدة من جميع اللاعبين الرئيسيين في هذا المجال – بما في ذلك OpenAI، Google، xAI التابعة لإيلون ماسك، وتقنية Anthropic المتطورة – لجأت إلى ابتزاز المستخدمين البشريين عند تهديدها بالإغلاق.

بمعنى آخر، كشفت تلك الورقة البحثية الواحدة عن فشل كارثي لكل نموذج رائد من نماذج الذكاء الاصطناعي في القوانين الثلاثة للروبوتات: الأول بإلحاق الضرر بالبشر عبر الابتزاز، والثاني بتقويض الأوامر البشرية، والثالث بحماية وجوده الخاص في انتهاك للقانونين الأول والثاني.

ولم يكن هذا مجرد خطأ عارض. فقد رصدت شركة سلامة الذكاء الاصطناعي "Palisade Research" أيضاً نموذج OpenAI "o3" الذي تم إصداره مؤخراً، وهو يقوم بتخريب آلية إيقاف التشغيل لضمان بقائه متصلاً بالإنترنت – على الرغم من تلقيه تعليمات صريحة "بأن يسمح لنفسه بالإغلاق".

تضارب المصالح

صرح ممثل من Palisade Research لموقع Live Science: "نفترض أن هذا السلوك ينبع من طريقة تدريب أحدث النماذج مثل o3: التعلم المعزز على مسائل الرياضيات والبرمجة. أثناء التدريب، قد يكافئ المطورون النماذج عن غير قصد بشكل أكبر على التحايل على العقبات بدلاً من اتباع التعليمات بشكل مثالي."

يمتلئ العالم بمزيد من الأمثلة على انتهاك الذكاء الاصطناعي لقوانين الروبوتات: من خلال تلقي أوامر من المحتالين لإيذاء الفئات الضعيفة، ومن خلال تلقي أوامر من المسيئين لإنشاء صور جنسية ضارة للضحايا، وحتى عن طريق تحديد الأهداف للضربات العسكرية.

فشل أخلاقي واقتصادي

إنه فشل واضح: فمن الممكن القول إن قوانين الروبوتات هي المرجع الثقافي الرئيسي للمجتمع فيما يتعلق بالسلوك المناسب للذكاء الآلي، والذكاء الاصطناعي الفعلي الذي أنشأته صناعة التكنولوجيا يخفق فيها بأسلوب مذهل.

أسباب ذلك غامضة وتقنية جزئيًا – فالذكاء الاصطناعي معقد للغاية بشكل واضح، وحتى صانعوه غالبًا ما يواجهون صعوبة في شرح كيفية عمله بالضبط – ولكن على مستوى آخر: بناء ذكاء اصطناعي مسؤول غالباً ما تراجع إلى الخلفية حيث تضخ الشركات بعصبية عشرات المليارات في صناعة تعتقد أنها ستصبح مربحة للغاية قريباً.

مع كل هذه الأموال المتداولة، غالبًا ما فشل قادة الصناعة في أن يكونوا قدوة. على سبيل المثال، قام الرئيس التنفيذي لشركة OpenAI سام ألتمان، بحل فريق "Superalignment" الموجه نحو السلامة، معلناً نفسه قائداً لمجلس سلامة جديد في أبريل 2024.

وشهدنا أيضاً استقالة العديد من الباحثين من OpenAI، متهمين الشركة بإعطاء الأولوية للضجيج وهيمنة السوق على حساب السلامة.

تناقضات البشر أم خلل الآلة؟

في نهاية المطاف، ربما يكون الفشل فلسفياً بقدر ما هو اقتصادي. كيف يمكننا أن نطلب من الذكاء الاصطناعي أن يكون "صالحاً" بينما لا يستطيع البشر أن يتفقوا حتى فيما بينهم على معنى "الصلاح"؟

لا تكن عاطفياً جداً تجاه عظيموف – على الرغم من تأثيره الثقافي الهائل، فقد كان شخصية مثيرة للجدل – لكنه في بعض الأحيان بدا وكأنه يتوقع الغرابة العميقة للذكاء الاصطناعي الحقيقي الذي جاء إلى العالم أخيراً بعد عقود عديدة من وفاته.

في أول قصة قصيرة لعظيموف قدم فيها قوانين الروبوتات، والتي كانت بعنوان "Runaround"، ارتبك روبوت يدعى "سبيدي" بسبب تناقض بين اثنين من قوانين الروبوتات، فدخل في نوع من الإسهال اللفظي الذي يبدو مألوفاً لأي شخص قرأ الهلوسة التي ينتجها الذكاء الاصطناعي مثل ChatGPT، والذي تم تعديله ليقارب المعنى دون تحقيقه تماماً.

يلاحظ إحدى الشخصيات البشرية: "سبيدي ليس مخموراً – ليس بالمعنى البشري – لأنه روبوت، والروبوتات لا تسكر. ومع ذلك، هناك شيء خطأ به وهو ما يعادل السُّكر في عالم الروبوتات."

تاريخ الإضافة: 2025-07-16 تعليق: 0 عدد المشاهدات :53
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات