القاهرة" الأمير كمال فرج.
في عالم تزداد فيه الروبوتات اندماجًا في حياتنا اليومية، قد يبدو تعليمها "الرفض" أو التشكيك في التوجيهات أمرًا غريبًا. لكن هذه القدرة لا تقل أهمية، إن لم تزد، عن تعليمها اتباع الأوامر. ففي ظل المواقف المعقدة والمليئة بالمعضلات الأخلاقية، قد يصبح "التمرد الأخلاقي" للروبوت ضرورة حتمية لحماية الأرواح والممتلكات.
يقول ماتياس شويتز، أستاذ علوم الحاسوب في جامعة Tufts : "ستصبح هذه قدرة حاسمة يجب أن تمتلكها جميع الروبوتات القابلة للبرمجة."
يقود شويتز مشروعًا ممولًا من وزارة الدفاع الأمريكية يركز على "الكفاءة الأخلاقية في البنى الحاسوبية للروبوتات"، بالتعاون مع جامعتي Brown وRensselaer Polytechnic.
الوعي الأخلاقي للآلة
يسعى الباحثون إلى تزويد الروبوتات بأدوات الاستدلال، وحس الصواب والخطأ، وقدرة على فهم عواقب أفعالها عند مواجهة معضلات العالم الحقيقي، مثل القرارات المصيرية المتعلقة بالحياة والموت.
يوضح شويتز: "في المواقف المشحونة أخلاقيًا، حيث يوجد تعارض محتمل بين المبادئ، نريد أن نفهم ما إذا كان المجتمع يحاسب الروبوتات بنفس المعايير التي يحاسب بها البشر، وما يتوقعه الناس من الروبوتات."
الهدف النهائي هو تصميم بنية حاسوبية تسمح للروبوتات بالتفكير والتصرف أخلاقيًا. ومع ذلك، يشدد شويتز على أن هذا مجرد بداية ويقول: "هذا ليس مشروعًا سيحل المشكلة في نهايته."
تحديات أخلاقية
يمكن أن تُعطى الروبوتات اليوم تعليمات خاطئة، عمدًا أو دون قصد، قد تؤدي إلى نتائج ضارة للبشر أو الحيوانات أو الممتلكات. ولذا، تحتاج هذه الأنظمة إلى خوارزميات تأخذ في الحسبان القيم الأخلاقية وتحدد متى قد تنتهك التعليمات هذه القيم.
يشير شويتز إلى مثال القيادة الذاتية: "أصبح هذا المفهوم بارزًا للغاية في سياق القيادة الذاتية عندما يتعين على السيارة ذاتية القيادة اتخاذ قرارات مصيرية بشأن من يجب دهسه."
تخيل سيارة ذاتية القيادة ترى طفلًا يركض أمامها ولا يمكنها الفرملة في الوقت المناسب. هل يجب أن تواصل التقدم، أم تنحرف وتصطدم بسيارات متوقفة مما قد يعرض حياة راكبها للخطر، ولكنه قد يقلل من خطر قتل الطفل؟
يقول شويتز "هذا النوع من اتخاذ القرار غير متاح الآن، ففي السيارات ذاتية القيادة، لا يزال تجنب الاصطدامات هو الهدف الأسمى."
مثال آخر: سيارة متوقفة عند إشارة حمراء، لا توجد حركة مرور عرضية، وتقترب منها سيارة من الخلف بسرعة عالية جدًا لا يمكنها التوقف. السائق البشري في هذه الحالة قد يخالف القانون ويمر بالإشارة الحمراء لتجنب الحادث. ولكن شويتز يؤكد: "لا توجد سيارة ذاتية القيادة الآن يمكنها أن تخالف القانون عمدًا لتجنب حادث."
فهم السلوك البشري
توضح النتائج الأولية للباحثين بعض الآثار النفسية لقرارات وكلاء الذكاء الاصطناعي المستقلين. على سبيل المثال، في معضلة عربة القطار (هل من الصواب إنقاذ عدد أكبر من الأرواح بقتل عدد أقل؟)، يميل الناس إلى لوم الشخص أكثر إذا اتخذ قرارًا بإنقاذ عدد أكبر بقتل عدد أقل. لكن في نفس الموقف، يُلام الروبوت بشكل أكبر إذا لم يتخذ أي إجراء.
يعمل الباحثون على فهم هذا الاختلاف. لقد وجدوا أن اللوم يتساوى إذا بدا الروبوت شبيهًا جدًا بالبشر، أو إذا قيل للمُقيّمين إن الروبوت عانى حقًا لاتخاذ القرار. يفسر شويتز: "فرضيتنا هي أن الناس يمكنهم لا شعوريًا محاكاة معضلة اتخاذ قرار الروبوت بشكل أفضل عندما يكون له مظهر شبيه بالبشر أو عندما يُقال لهم إنه كان يكافح كإنسان."
تحديات الهندسة واللغة الطبيعية
التعامل مع عدم اليقين يمثل تحديًا هندسيًا كبيرًا في الروبوتات، مثل تحديد ما إذا كان النظام يتلقى معلومات صحيحة من مستشعراته. يجب أيضًا أخذ عدم اليقين هذا في الاعتبار عند التفكير الأخلاقي واتخاذ القرارات. يقول شويتز: "ليس لدينا حتى الآن طريقة جيدة لإدخال عدم اليقين في التفكير المعياري الشامل."
كما أن معالجة اللغة الطبيعية تشكل تحديًا آخر. فالبشر يعبرون عن أحكامهم الأخلاقية ويلومون الآخرين ويردون على اللوم بطرق لا تستطيع الروبوتات فهمها بعد.
يقول شويتز "من المرجح جدًا أن يتم لوم الروبوتات لأنها ستخطئ، وهي بحاجة إلى أن تكون قادرة على التفاعل وتقديم مبرراتها للناس،" "لا نعرف كيف نفعل ذلك بعد."
الهدف هو بناء أساس معماري في نظام التحكم الروبوتي ليأخذ في الحسبان مجموعة كاملة من الأسئلة الأخلاقية التي تنطبق عليها المعايير البشرية. "الآلات الحالية ليس لديها مثل هذا المفهوم، ومع ذلك يتم نشرها بشكل متزايد في المجتمع البشري وفي سياقات اجتماعية حيث نُدخل في التفاعل كل هذه التوقعات."