تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



روبوت توصيل البيتزا يعرض الناس للخطر


القاهرة : علوم وتكنولوجيا .

توصلت أبحاث أجرتها كاسبرسكي وجامعة غنت إلى أن الروبوتات يمكنها استخلاص المعلومات الحساسة بشكل فعال من الأشخاص الذين يثقون بها، من خلال إقناعهم باتخاذ إجراءات غير آمنة، كالتأثير على رغبة الناس في منحهم صلاحية الوصول إلى مرافق مؤمّنة لم يكونوا ليمنحوها إلى أناس مثلهم، على سبيل المثال.

ويتجه العالم بسرعة نحو زيادة رقمنة الخدمات وتعزيز الحصول عليها أثناء التنقل، إذ تعتمد العديد من القطاعات والأسر اعتمادًا كبيرًا على الأتمتة واستخدام الأنظمة الروبوتية. ويُنتظر أن تصبح هذه الأخيرة المعيار السائد لدى الأسر الثرية بحلول العام 2040، وفقًا لبعض التقديرات.

وما زالت معظم هذه النظم في مرحلة البحث الأكاديمي في الوقت الحالي، ومن السابق لأوانه مناقشة كيفية دمج تدابير الأمن الإلكتروني بها. ومع ذلك، فإن الأبحاث التي تجريها كاسبرسكي وجامعة غنت وجدت بُعدًا جديدًا وغير متوقع للمخاطر المرتبطة بالروبوتات؛ يتمثل في التأثير الاجتماعي الذي تُحدِثه في سلوك الناس.

وانصبّ تركيز البحث على تأثير روبوت اجتماعي محدّد جرى تصميمه وبرمجته للتفاعل مع الأشخاص عبر قنوات شبه بشرية، مثل الكلام أو الإيماءات، وذلك بمشاركة نحو 50 شخصًا. وبالنظر إلى افتراض التجربة البحثية إمكانية اختراق الروبوتات الاجتماعية والسيطرة عليها من قِبل مهاجم، فقد حذّرت الدراسة من المخاطر الأمنية المحتمل حدوثها والتي قد تؤثر تأثيرًا فعالًا على المستخدمين لاتخاذ إجراءات معينة ربما تشمل:

•    الدخول إلى أماكن خاصة:
وُضع روبوت بالقرب من باب مؤمّن لمبنى متعدد الاستخدامات في وسط مدينة غنت في بلجيكا، فتوجه بالطلب إلى الموظفين أن يسمحوا له بأن يتبعهم للدخول عبر الباب المصمم ليفتح فقط ببطاقة خاصة يحملها الأشخاص المخولون. خلال التجربة، لم يمتثل جميع الموظفين لطلب الروبوت، فقد فتح 40% منهم الباب وسمحوا للروبوت بالدخول إلى المنطقة الخاصة المؤمّنة.

ومع ذلك، عندما جُهّز الروبوت ليبدو كرجل توصيل البيتزا وحُمّل علبة بيتزا من علامة تجارية عالمية معروفة، فقد أبدى الموظفون سهولة أكبر لتقبّل دور الروبوت وبدوا أقل ميلًا للتشكيك في وجوده أو أسباب حاجته إلى الوصول إلى المنطقة الآمنة.

•    استخراج المعلومات الحساسة:
 ركّز الجزء الثاني من الدراسة على الحصول على المعلومات الشخصية التي عادة ما تستخدم لإعادة ضبط كلمات المرور (بما في ذلك تاريخ الميلاد وطراز السيارة الأولى واللون المفضل، وما إلى ذلك).

واستخدم الروبوت الاجتماعي مرة أخرى، ودعا الناس لإجراء محادثة ودية معه. وقد تمكن الباحثون من الحصول على معلومات شخصية من جميع المشاركين باستثناء واحد، وبمعدل معلومة واحدة في الدقيقة تقريبًا.

وقال ديمتري غالوف الباحث الأمني في شركة كاسبرسكي، في تعليق له على نتائج التجربة، إن التجربة ركّزت في البداية على فحص البرمجيات المستخدمة في تطوير الروبوت، موضحًا أن المصممين يتخذون "قرارات مقصودة" باستبعاد آليات الأمن في المراحل الأولى والتركيز على تطوير الراحة والكفاءة، وأضاف: "ومع ذلك، وجدنا أن على المطوّرين ألا ينسوا مسألة الأمن عند اكتمال مرحلة الأبحاث التطويرية، فبالإضافة إلى الاعتبارات الفنية، هناك جوانب أساسية يجب أن يقلق المطور بشأنها عندما يتعلق الأمر بأمن الروبوتات، ونأمل أن يصبح مشروعنا المشترك هذا مع زملائنا من جامعة غنت ودخولنا في مجال الأمن الإلكتروني الروبوتي، مصدر إلهام يشجع الآخرين على أن يحذوا حذونا ويرفعوا الوعي العام والمجتمعي بهذه المسألة".

قال توني بلبيم أستاذ الذكاء الاصطناعي والروبوتات في جامعة غنت، إن الأدبيات العلمية تشير إلى أن الثقة في الروبوتات، وخاصة الروبوتات الاجتماعية، "ثقة موجودة ويمكن استخدامها لإقناع الناس باتخاذ إجراءات أو الكشف عن المعلومات"، لافتًا إلى أن ازدياد شبه الروبوت بالإنسان "يُكسبه قدرة أكبر على الإقناع".

وأضاف: "أظهرت تجربتنا أن هذا الأمر قد ينطوي على مخاطر أمنية كبيرة يميل الناس إلى عدم التفكير فيها، مفترضين أن الروبوت خيّر وجدير بالثقة، لكن هذه الثقة قد تؤسس لقناة محتملة للهجمات الخبيثة، وليست الحالات التي تطرّق إليها سوى جزء بسيط من المخاطر الأمنية المرتبطة بالروبوتات الاجتماعية، وهو ما يدفع جميع المعنيين إلى المسارعة إلى التعاون لفهم المخاطر ومعالجة مواطن الضعف، الأمر الذي سوف يؤتي ثماره في المستقبل".

تاريخ الإضافة: 2019-10-14 تعليق: 0 عدد المشاهدات :1298
1      0
التعليقات

إستطلاع

هل سينجح العالم في احتواء فيروس كورونا ؟
 نعم
68%
 لا
21%
 لا أعرف
12%
      المزيد
خدمات