تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



روبوتات قاتلة تعمل بالذكاء الإصطناعي


القاهرة : الروبوت .

دعت مجموعة من العلماء إلى حظر تطوير أسلحة يتم التحكم بها بواسطة الذكاء الصناعي، ويقول العلماء إن الأسلحة ذاتية العمل قد يصيبها عطب بطريقة غير متوقعة، فتقتل أبرياء.

وذكر تقرير نشره موقع BBC ان "المختصون في مجال "الأخلاق" يقوبون إن منح إنسان آلي حرية القتل بدون أي تدخل بشري خطوة مبالغ بها من الناحية الأخلاقية، وأدلى الخبراء بهذه المواقف خلال اجتماع الرابطة الأمريكية لتقدم العلوم في واشنطن".

وكانت منظمة هيومان رايتس ووتش لحقوق الإنسان واحدة من 89 منظمة غير حكومية من 50 بلدا ساهمت في تنظيم حملات تدعو إلى وقف إنتاج "الإنسان الآلي القاتل" والضغط من أجل إبرام معاهدة دولية بهذا الخصوص.

وقالت وارينهام لبي بي سي: "نحن لا نتحدث عن إنسان آلي يمشي أو يتحدث على وشك السيطرة على العالم، لكن ما يقلقنا هو شيء وشيك الحدوث، أسلحة تقليدية ذاتية العمل، تتسلل إلى الاستعمال الفعلي. الطائرات بدون طيار مثال واضح على ذلك، لكن هناك طائرات مقاتلة بدون طيار تقلع، تنفذ مهمتها وتعود لقواعدها. هذا يمهد السبيل أمام الأسلحة التي تعمل ذاتيا".

وقد انضم رايان غاريبي كبير المسؤولين التقنيين في شركة كليرباث روبوتكس إلى الدعوة لحظر استخدام الإنسان الآلي في المجال العسكري. وتتلقى شركته عقودا عسكرية، لكنها أدانت استخدام أنظمة الإنسان الآلي لاغراض عسكرية.

وقال غاريبي لـ BBC "عندما تخطىء الأنظمة التي تعمل بالذكاء الاصطناعي لايمكن توقع كيفية تصرفها، قدرة الإنسان على التعرف على الهدف تتم عبر الصورة فقط ، لكن هذا لا يكفي لاتخاذ قرار مسؤول وتقدير الظروف المحيطة. المبرمج أو العالم الموجود على بعد آلاف الأميال هو من اتخذ القرار، لكنه ليس على دراية بالأوضاع الفعلية التي يتم استخدام السلاح فيها".

ويرى بيتر أزارو من جامعة نيو سكول في نيويورك أن سيناريو كالذي يخشى منه يثير إشكالية المسؤولية في حالة القتل غير القانوني، وقال "إن منح مسؤولية القتل لآلة فيه انتهاك لحقوق الإنسان، لأن الآلة لا تملك حسا أخلاقيا ولا تتحمل المسؤولية عن قراراتها المتعلقة بالحياة والموت، لذلك فمن صمموها سيكونون هم المسؤولون".

تاريخ الإضافة: 2019-02-16 تعليق: 0 عدد المشاهدات :1497
1      0
التعليقات

إستطلاع

هل سينجح العالم في احتواء فيروس كورونا ؟
 نعم
68%
 لا
21%
 لا أعرف
12%
      المزيد
خدمات