القاهرة : الأمير كمال فرج.
كشف تحقيق داخلي أن موقع فيسبوك يعرف منذ وقت طويل أن منصته تشجع المحتوى المتطرف والاستقطابي ، وأن عدم اهتمام الشركة بإجراء تغييرات لحل هذه المشاكل يذهب إلى المدير التنفيذي مارك زوكربيرج.
ذكرت صحيفة Wall Street Journal أن "البحث الذي أجراه فيسبوك داخليًا في 2016 و 2018 أظهر أن خوارزمية المنصة ساهمت في انتشار المحتوى الاستقطابي".
عندما عرض الخبراء على زوكربيرج تغييرات مقترحة على النظام الأساسي لعرقلة انتشار المحتوى المتطرف، طلب الرئيس التنفيذي لشركة فيسبوك من الموظفين عدم إحضار أي تعديلات خوارزمية مقترحة أخرى "باسم الصالح الاجتماعي".
يأتي التقرير عن تقاعس فيسبوك في الوقت الذي تكون فيه المنصة في دائرة الضوء ، مرة أخرى بسبب عدم قدرتها على وقف انتشار المعلومات الخاطئة الضارة - هذه المرة ، بشأن جائحة الفيروس التاجي.
لطالما أصر فيسبوك وزوكربيرج على أن النظام الأساسي لا يتساهل مع المحتوى الاستقطابي ، لكن تقارير وول ستريت جورنال تظهر أن الخبراء أبلغوا المديرين التنفيذيين للشركة بتأثير هذه الآراء منذ عام 2016.
على الصعيد الداخلي، أفيد أن فيسبوك شكل فرقة عمل عام 2017 ، تسمى "أرضية مشتركة Common Ground" ، تتكون من المهندسين والباحثين و "فرق النزاهة"، للنظر في كيفية التعامل مع المحتوى المثير للانقسام ، وإضافة ذلك إلى النظام الأساسي.
وفقًا للعرض التقديمي لعام 2018 الذي حصلت عليه صحيفة وول ستريت جورنال ، وجد الخبراء أن خوارزمية فيسبوك - التي تعطي أولوية لمشاركة المستخدم والوقت الذي يقضيه على المنصة - شجعت المحتوى الاستقطابي من خلال استغلال "انجذاب الدماغ البشري إلى الانقسام".
على الرغم من النتائج ، رفض كبار المسؤولين أو خففوا من التغييرات المقترحة للتأكد من أنه لم يظهر أن فيسبوك كان يحاول تشكيل آراء المستخدمين أو اتخاذ موقف أخلاقي. كان المسؤولون التنفيذيون في فيسبوك أكثر قسوة في إيقاف الجهود التي يمكن أن تجعلها تبدو وكأن المنصة لديها تحيز سياسي.
وبحسب ما ورد أخبر مديرو فيسبوك الموظفين في 2018 أن المنصة تحول الأولويات "بعيداً عن الخير المجتمعي" و"القيمة الفردية". منذ ذلك الحين فصاعدًا ، روّج فيسوك وزوكربيرج لنهج "عدم التدخل" في المحتوى ، ولم يتخذوا إجراءات إلا إذا "انتهك المستخدمون قواعد الشركة على وجه التحديد".
قال المتحدث باسم فيسبوك في تصريح لصحيفة وول ستريت جورنال تم إرساله أيضًا إلى Business Insider ، : "تعلمنا الكثير منذ عام 2016 ولسنا نفس الشركة اليوم. لقد أنشأنا فريقًا قويًا للنزاهة، عزز سياساتنا والممارسات للحد من المحتوى الضار ، واستخدمت الأبحاث لفهم تأثير منصتنا على المجتمع حتى نواصل التحسين ".