تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



المعضلة الأخلاقية: كيف يتعلم الروبوت قول: لا؟


القاهرة" الأمير كمال فرج.

في عالم تزداد فيه الروبوتات اندماجًا في حياتنا اليومية، قد يبدو تعليمها "الرفض" أو التشكيك في التوجيهات أمرًا غريبًا. لكن هذه القدرة لا تقل أهمية، إن لم تزد، عن تعليمها اتباع الأوامر. ففي ظل المواقف المعقدة والمليئة بالمعضلات الأخلاقية، قد يصبح "التمرد الأخلاقي" للروبوت ضرورة حتمية لحماية الأرواح والممتلكات.

يقول ماتياس شويتز، أستاذ علوم الحاسوب في جامعة Tufts : "ستصبح هذه قدرة حاسمة يجب أن تمتلكها جميع الروبوتات القابلة للبرمجة."

يقود شويتز مشروعًا ممولًا من وزارة الدفاع الأمريكية يركز على "الكفاءة الأخلاقية في البنى الحاسوبية للروبوتات"، بالتعاون مع جامعتي Brown  وRensselaer Polytechnic.

الوعي الأخلاقي للآلة

يسعى الباحثون إلى تزويد الروبوتات بأدوات الاستدلال، وحس الصواب والخطأ، وقدرة على فهم عواقب أفعالها عند مواجهة معضلات العالم الحقيقي، مثل القرارات المصيرية المتعلقة بالحياة والموت.

يوضح شويتز: "في المواقف المشحونة أخلاقيًا، حيث يوجد تعارض محتمل بين المبادئ، نريد أن نفهم ما إذا كان المجتمع يحاسب الروبوتات بنفس المعايير التي يحاسب بها البشر، وما يتوقعه الناس من الروبوتات."

الهدف النهائي هو تصميم بنية حاسوبية تسمح للروبوتات بالتفكير والتصرف أخلاقيًا. ومع ذلك، يشدد شويتز على أن هذا مجرد بداية ويقول: "هذا ليس مشروعًا سيحل المشكلة في نهايته."

تحديات أخلاقية 

يمكن أن تُعطى الروبوتات اليوم تعليمات خاطئة، عمدًا أو دون قصد، قد تؤدي إلى نتائج ضارة للبشر أو الحيوانات أو الممتلكات. ولذا، تحتاج هذه الأنظمة إلى خوارزميات تأخذ في الحسبان القيم الأخلاقية وتحدد متى قد تنتهك التعليمات هذه القيم.

يشير شويتز إلى مثال القيادة الذاتية: "أصبح هذا المفهوم بارزًا للغاية في سياق القيادة الذاتية عندما يتعين على السيارة ذاتية القيادة اتخاذ قرارات مصيرية بشأن من يجب دهسه."

تخيل سيارة ذاتية القيادة ترى طفلًا يركض أمامها ولا يمكنها الفرملة في الوقت المناسب. هل يجب أن تواصل التقدم، أم تنحرف وتصطدم بسيارات متوقفة مما قد يعرض حياة راكبها للخطر، ولكنه قد يقلل من خطر قتل الطفل؟

يقول شويتز "هذا النوع من اتخاذ القرار غير متاح الآن، ففي السيارات ذاتية القيادة، لا يزال تجنب الاصطدامات هو الهدف الأسمى."

مثال آخر: سيارة متوقفة عند إشارة حمراء، لا توجد حركة مرور عرضية، وتقترب منها سيارة من الخلف بسرعة عالية جدًا لا يمكنها التوقف. السائق البشري في هذه الحالة قد يخالف القانون ويمر بالإشارة الحمراء لتجنب الحادث. ولكن شويتز يؤكد: "لا توجد سيارة ذاتية القيادة الآن يمكنها أن تخالف القانون عمدًا لتجنب حادث."

فهم السلوك البشري 

توضح النتائج الأولية للباحثين بعض الآثار النفسية لقرارات وكلاء الذكاء الاصطناعي المستقلين. على سبيل المثال، في معضلة عربة القطار (هل من الصواب إنقاذ عدد أكبر من الأرواح بقتل عدد أقل؟)، يميل الناس إلى لوم الشخص أكثر إذا اتخذ قرارًا بإنقاذ عدد أكبر بقتل عدد أقل. لكن في نفس الموقف، يُلام الروبوت بشكل أكبر إذا لم يتخذ أي إجراء.

يعمل الباحثون على فهم هذا الاختلاف. لقد وجدوا أن اللوم يتساوى إذا بدا الروبوت شبيهًا جدًا بالبشر، أو إذا قيل للمُقيّمين إن الروبوت عانى حقًا لاتخاذ القرار. يفسر شويتز: "فرضيتنا هي أن الناس يمكنهم لا شعوريًا محاكاة معضلة اتخاذ قرار الروبوت بشكل أفضل عندما يكون له مظهر شبيه بالبشر أو عندما يُقال لهم إنه كان يكافح كإنسان."

تحديات الهندسة واللغة الطبيعية

التعامل مع عدم اليقين يمثل تحديًا هندسيًا كبيرًا في الروبوتات، مثل تحديد ما إذا كان النظام يتلقى معلومات صحيحة من مستشعراته. يجب أيضًا أخذ عدم اليقين هذا في الاعتبار عند التفكير الأخلاقي واتخاذ القرارات. يقول شويتز: "ليس لدينا حتى الآن طريقة جيدة لإدخال عدم اليقين في التفكير المعياري الشامل."

كما أن معالجة اللغة الطبيعية تشكل تحديًا آخر. فالبشر يعبرون عن أحكامهم الأخلاقية ويلومون الآخرين ويردون على اللوم بطرق لا تستطيع الروبوتات فهمها بعد.

يقول شويتز "من المرجح جدًا أن يتم لوم الروبوتات لأنها ستخطئ، وهي بحاجة إلى أن تكون قادرة على التفاعل وتقديم مبرراتها للناس،"  "لا نعرف كيف نفعل ذلك بعد."

الهدف هو بناء أساس معماري في نظام التحكم الروبوتي ليأخذ في الحسبان مجموعة كاملة من الأسئلة الأخلاقية التي تنطبق عليها المعايير البشرية. "الآلات الحالية ليس لديها مثل هذا المفهوم، ومع ذلك يتم نشرها بشكل متزايد في المجتمع البشري وفي سياقات اجتماعية حيث نُدخل في التفاعل كل هذه التوقعات."

تاريخ الإضافة: 2025-07-13 تعليق: 0 عدد المشاهدات :75
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات