عند تأسيس فيسبوك، عام 2004، لم يكن لدى الشركة سوى القليل من القواعد المكتوبة حول ما يُسمح بنشره على المنصة وما لا يُسمح بنشره. بعد ثلاث سنوات من تأسيسها، انضمت شارلوت ويلنر للمنصة لتكون واحدة من أوائل الموظفين المكلفين بالإشراف على المحتوى، وقالت ويلنر حينها إن المبادئ التوجيهية المكتوبة كانت صفحة واحدة، غالباً ما يلخصها العاملون في الشركة بعبارة «إذا ما انتابك شعور داخلي بسوء محتوى ما، فاحذفه». في العام التالي، عُيِّنَ زوجها، ديف، ليكون واحداً من اثني عشر موظفاً متفرغاً للإشراف على المحتوى، وليتسلَّم فيما بعد إدارة سياسة المحتوى في الشركة. ويقول ديف إن المبادئ التوجيهية «لم تكن سوى مجموعة من الأمثلة، دون توضيح للأسباب أو المنطق الذي تستند إليه، ومنها ‘حذف صور العري’، و’لا يُسمح للناس بقول أمور حسنة عن هتلر’. باختصار، كانت هناك قائمة وليس إطار عمل». لذلك، كتب ديف إطار عمل تحت عنوان «معايير الإساءة»، وبعد بضع سنوات، أعطيت الوثيقة عنواناً ملطفاً لتصبح وثيقة معايير التنفيذ.
هذه الأيام، تتألف معايير التنفيذ من ويكي دائم التغير، يحتوي ما يقرب من اثني عشر ألف كلمة، تحت أربعة وعشرين عنواناً، مثل «خطاب الكراهية»، و«التنمُّر»، و«المضايقات» وغيرها. ويحتوي كل عنوان على عشرات العناوين الفرعية، والتعاريف الفنية، وروابط للمواد التكميلية، وكلها موجودة على نظام برمجي داخلي تقتصر إمكانية الوصول إليه على مشرفي المحتوى وصفوة الموظفين. أما الوثيقة المتاحة لمستخدمي فيسبوك، معايير المجتمع، فهي نسخة مختصرة ومنقحة (مُجمَّلة) من المبادئ التوجيهية. وعلى سبيل المثال، تبدأ القاعدة المتعلقة بالمحتوى الرسومي بـ «حذف المحتوى الذي يمجِّد العنف»، بينما تعدد النسخة الداخلية عشرات الأنواع من الصور الرسومية، مثل صور «بشر متفحمين أو محترقين»، «بتر أجزاء من الجسد»، «أطفال صغار يدخنون»، حيث تعطى توجيهات للمشرفين على المحتوى بوضع علامة «مزعج» عليها، وليس حذفها.
تتمثل مهمة منصة فيسبوك المعلنة في «تقريب العالم من بعضه بعضاً»، وتعتبر المنصة نفسها طرفاً محايداً وليس ناشراً، ولذا امتنعت عن فرض الرقابة على خطاب مستخدميها، حتى عندما يكون هذا الخطاب قبيحاً أو غير مألوف أو محبب. في سنواتها الأولى، تمكنت منصة فيسبوك من تجاوز موجات دورية من الهجمات الإعلامية، والتي عادةً ما كانت تنجم عن حوادث تنمُّر أو عنف على المنصة. ومع ذلك، لا يبدو أن أياً من تلك الهجمات قد تسبب في ضرر دائم لسمعة الشركة أو تقييمها. وقد ادعى ممثلو فيسبوك مراراً أنهم يتعاملون بجديِّة مع انتشار المحتوى الضار، مشيرين إلى قدرتهم على إدارة المشكلة إذا ما مُنحوا مزيداً من الوقت فحسب. وقال رشاد روبنسون، رئيس مجموعة الدفاع عن الحقوق المدنية (العرقية)، لون التغيير (Color of Change): «لا أريد أن أبدو ساذجاً، لكن وحتى وقت قريب كنتُ ميالاً للاعتقاد بأنهم ملتزمون بإحراز تقدم حقيقي، لكنك، ومع استمرار تضاعف خطاب الكراهية والسُّميَّة، تصل عند نقطة معينة للاعتقاد بأن حذف هذه الخطابات، وعلى الرغم مما يصرحون به، قد لا يشكل أولوية بالنسبة لهم».
يُزعَمُ أن هناك أكثر من خمسمئة موظف متفرغ للعمل في قسم العلاقات العامة في فيسبوك، والذين تتمثل مهمتهم الأساسية هذه الأيام في التأكيد على أن فيسبوك منصة للمرح حيث تُشارَك صور الأطفال وتُباع الأرائك القديمة، وليست وسيلة لإيصال خطاب الكراهية والمعلومات المضللة والدعاية المتطرفة العنيفة. في تموز (يوليو)، نشر نيك كليغ، نائب رئيس الوزراء البريطاني السابق، والذي أصبح الآن مدير العلاقات العامة في فيسبوك، مقالاً على موقع AdAge.com وعلى المدونة الرسمية للشركة بعنوان «فيسبوك لا تستفيد من الكراهية»، وكتب فيه «لا حافز لدينا للقيام بأي شيء دون حذفها (الكراهية)». أما جاي روزين، وهو نائب رئيس إدارة شؤون النزاهة في فيسبوك، فقد كتب الأسبوع الماضي «لا نسمح بخطاب الكراهية على فيسبوك. ومع إدراكنا بأن هناك المزيد لنفعله… إلا أننا نتحرك في الاتجاه الصحيح».
وإذا ما سعينا لمزيد من الدقة، يمكننا القول إن الشركة تتحرك في عدة اتجاهات متناقضة في آنٍ معاً. من الناحية النظرية، لا يُسمَح لأي شخص بنشر خطاب يحضُّ على الكراهية على منصة فيسبوك. ومع ذلك، ينشر العديد من قادة العالم، مثل الرئيس الفلبيني رودريغو دوتيرتي، ورئيس الوزراء الهندي ناريندرا مودي، ودونالد ترامب، وغيرهم، بشكل روتيني خطاب كراهية ومعلومات مضللة على فيسبوك وغيرها من المنصات. وبالطبع، يمكن للشركة أن تطبق على الديماغوجيين المعايير نفسها التي تطبق على أي شخص آخر، وتحظرهم من المنصة عند الضرورة، إلا أن ذلك قد يشكل مخاطرة مالية؛ فإن أقدم فيسبوك على حظر ترامب، سيحاول الأخير بالتأكيد الانتقام عبر اللوائح التنظيمية المتشددة المرهقة، كما قد يشجع مؤيديه على مقاطعة الشركة. لكن فيسبوك، وبدلاً من ذلك، أعادت تكرار الخطأ عينه وسمحت للسياسيين بنشر ما يريدون، حتى حينما اضطرت الشركة إلى تخفيف قواعدها، أو تطبيقها بشكل انتقائي، أو إعادة تفسيرها بشكل خَلّاق، أو تجاهلها تماماً.
يعترف ديف ويلنر بأن فيسبوك لا تمتلك «خيارات سليمة»، وأن فرض الرقابة على قادة العالم قد يشكل «سابقة تثير القلق». وإذا ما نظرنا إلى السبب المعلن الذي يدفع فيسبوك لمنع خطاب الكراهية، سواء في معايير المجتمع أو في الملاحظات العامة للمديرين التنفيذيين، نرى أنه يتمثل في أن خطاب الكراهية قد يؤدي إلى عنف في العالم الحقيقي. ويتابع ويلنر قائلاً: «إذا كان هذا هو موقفهم، أن خطاب الكراهية خطير بطبيعته، فكيف إذن لا يرون أن السماح لأشخاص باستخدام خطاب الكراهية أمر أشد خطورة، ما دام أولئك الأشخاص يتمتعون بما يكفي من القوة والنفوذ، أو الشهرة، أو يتولون قيادة جيش كامل؟».
غادر الزوجان ديف وشارلوت ويلنر شركة فيسبوك عام 2013، حيث تدير شارلوت اليوم قسم الثقة والأمان في موقع بنتريست (Pinterest)، بينما يعمل ديف كرئيس لقسم سياسة المجتمع في موقع إير بي إن بي (Airbnb). ورغم أنهما اعتبرا نفسيهما يوماً من «المؤمنين الحقيقين بمهمة فيسبوك»، إلا أنهما باتا من المنتقدين صراحة للشركة. ويقول ديف ويلنر: «كل ما أستطيع قوله، إن الجزء الأكبر من الوثيقة التي كتبتها لم يتغير كثيراً، ما يثير الاستغراب، لكنهم عمدوا إلى القيام باجتزاءات واستثناءات كبيرة لم تكن سوى محض هراء. ما من مقاربة مثالية للإشراف على المحتوى، ولكن كان يمكنهم على الأقل محاولة ألا يظهروا بهذا الوضوح من الجُبن وعدم التماسك».
في بيان، كتب درو بوساتيري، المتحدث باسم فيسبوك: «لقد استثمرنا مليارات الدولارات لإبعاد الكراهية عن منصتنا»، وتابع: «إن تقريراً حديثاً للمفوضية الأوروبية وجد أن فيسبوك قيَّمت 95.7 في المئة من تقارير خطاب الكراهية في أقل من 24 ساعة، لتتجاوز سرعتها يوتيوب وتويتر. ورغم ما يمثله ذلك من تقدم، إلا أننا ندرك أن ثمة المزيد لنقوم به». قد تكون شركة فيسبوك، التي تمتلك إنستغرام وواتسآب وماسنجر، ولديها أكثر من ثلاثة مليارات مستخدم شهرياً، ضخمة إلى درجة لا يمكن معها الإشراف على محتواها بشكل فعَّال. ويجادل بعض منتقدي فيسبوك بأن سلطة الشركة على خطاب مستخدميها، ونظراً إلى الشك الواسع والمبرر الذي ينتاب الجمهور تجاهها، ينبغي أن تكون أقل، وليس أكثر. بينما يقول رشاد روبنسون: «إنه خيار خاطئ؛ فيسبوك تمتلك بالفعل كامل السلطة، إلا أنها تسيء استخدامها فحسب». ويشير إلى أن فيسبوك تحذف باستمرار دعايات التجنيد التي تنشرها داعش والجماعات الإسلامية الأخرى، بينما تتعامل بعدوانية أقل بكثير في قمع الجماعات المتعصبة للعرق الأبيض. ويضيف روبنسون: «السؤال الصحيح هنا ليس إن كان يتوجب على فيسبوك فعل أكثر من ذلك أم أقل، وإنما كيف تطبق فيسبوك قواعدها، ومن ذاك الذي يُعدُّ للاستفادة من ذلك؟».
أمام الجمهور، غالباً ما يستحضر مارك زوكربيرغ، مؤسس شركة فيسبوك ورئيس مجلس إدارتها ورئيسها التنفيذي، المثل العليا لحرية التعبير وتعددية النقاش. خلال محاضرة في جامعة جورج تاون في تشرين الأول الماضي، قال زوكربيرغ: «ذات مرة، وصف فريدريك دوغلاس حرية التعبير بأنها المجدد الأخلاقي العظيم للمجتمع». لكن أفعال زوكربيرغ تبدو أكثر منطقية إذا ما اعتُبرت نتيجة لنموذج أعماله؛ فدَافِعُ الشركة يتمثل في الحفاظ على تواجد الأشخاص على المنصة، بمن فيهم القادة وأتباعهم الأكثر حماسة، والذين تميل خطاباتهم النارية إلى توليد قدر هائل من التفاعل. ويقول موظف سابق في فيسبوك: «لا يريد أحد أن ينظر في المرآة ويقول: أجل، أنا أكسب مالاً كثيراً من إعطاء مكبر صوت ضخم لأشخاص خطرين». ويتابع الموظف السابق أن هذا هو تماماً ما يفعله المسؤولون التنفيذيون في فيسبوك، «لكنهم يحاولون إخبار أنفسهم بقصة معقدة تنفي أن ذلك هو ما يفعلونه في الواقع».
وباسترجاع ما مضى، يبدو أن استراتيجية الشركة لم تتمثل مطلقاً في إدارة مشكلة المحتوى الخطير، بل في إدارة تَصَوُّر الجمهور للمشكلة. في منشوره الأخير على المدونة، كتب كليغ أن فيسبوك يتَّبع «مقاربة الرفض المطلق» مع خطاب الكراهية، ولكن «مع كثرة المحتوى المنشور يومياً، يغدو استئصال الكراهية أشبه بالبحث عن إبرة في كومة قش». وتلقي استعارة كليج ثوبَ ضحيةِ القَدَر البائس على زوكربيرغ، الذي -يوماً بعد يوم ودون خطأ ارتكبه- تنتهي كومة قشه مليئة بالإبر بشكل غامض. وفي المقابل، قد تفترض استعارةٌ أكثر صدقاً وجود كتلة قوية من المغناطيس في مركز كومة القش، ألا وهي خوارزميات فيسبوك، التي تعمل على جذب وتعزيز أي محتوى مشحون بشدة. وإن تواجدت إبر في أي مكان قريب – وعلى الإنترنت، دوماً ما تتواجد – فلابدَّ وأن يسحبها المغناطيس. وبالتالي، مهما أزلتَ اليوم من إبر، سيأتي المزيد غداً؛ وهي الطريقة التي صُمِّم النظام ليعمل بها.
*****
في السابع من كانون الأول (ديسمبر) عام 2015، استخدم دونالد ترامب، الذي كان حينها الحصان الأسود بين مرشحي الحزب الجمهوري للرئاسة، صفحته على فيسبوك للترويج لبيان صحفي، وهو البيان الذي دعا إلى «حظر كامل وشامل على دخول المسلمين إلى الولايات المتحدة»، وألمحَ إلى أن المسلمين جميعهم –الـ 1.8 مليار مسلم، على الأرجح- «لا يتمتعون بحس عقلاني أو احترام لحياة الإنسان». وحسب تعريف فيسبوك، يعتبر هذا خطاب كراهية واضح، فقد حظرت معايير المجتمع أي «محتوى يهاجم الأشخاص بشكل مباشر على أساس العرق، أو الإثنية، أو الأصل القومي، أو الدين». ووفقاً لصحيفة التايمز، فقد شعر زوكربيرغ شخصياً «بالذعر» من منشور ترامب. ومع ذلك، عقد كبار مسؤوليه سلسلة من الاجتماعات لتقرير ما إذا كان ينبغي، نظراً إلى أهمية ترامب، إجراء استثناء.
ترأست مونيكا بيكرت، وإليوت شراج، وجويل كابلان، وجميعهم رؤساء سياسات تنفيذيون حاصلون على شهادات في القانون من جامعة هارفارد، هذه الاجتماعات. كان معظم المدراء التنفيذيين في فيسبوك ليبراليين، أو من المفترض أن يكونوا كذلك، لكن كابلان، المحافظ الصريح الذي عمل كاتباً لدى القاضي أنتونين سكاليا وموظفاً في البيت الأبيض في عهد جورج دبليو بوش، رُقَّيَّ مؤخراً ليتسلَّم منصب نائب رئيس السياسة العامة العالمية، وغالباً ما كان صلة الاتصال بالجمهوريين في واشنطن العاصمة. وكانت نصيحة كابلان إلى زوكربيرغ، حسبما ذكرت صحيفة التايمز لاحقاً، بأن «لا يستفز الدب»، ويتجنب إثارة غضب ترامب وأنصاره. وهكذا، بقي منشور ترامب على فيسبوك. وحول هذا، يقول الموظف السابق في فيسبوك: «ما أن تسجل سابقة في الرضوخ لشيء من هذا القبيل، كيف لك أن تتوقف؟».
كان قرار الإبقاء على منشور ترامب مصيبة، وأما تسويغ القرار فكان مصيبة أخرى. وبحسب صحيفة واشنطن بوست، صاغت بيكرت مذكرة داخلية تعرض فيها الخيارات التي توصلت إليها مع زملائها، حيث اشتملت الخيارات على إمكانية إجراء «استثناء لمرة واحدة» لمنشور ترامب، ما يُشكِّلُ سابقة محدودة تسمح لهم بعكس المسار لاحقاً؛ أو إمكانية إضافة «استثناء للخطاب السياسي» إلى المبادئ التوجيهية، ما يسمح لهم بالتعامل مع أقوال السياسيين المستقبلية على أساس كل حالة على حدة؛ أو إمكانية تعديل القواعد بمزيد من الشمولية عبر «تخفيف معايير المجتمع الخاصة بالشركة لجميع الناس، على سبيل المثال، والسماح بتعليقات مثل ‘غير مسموح للسود’، و’أخرِجوا المثليين من سان فرانسيسكو’».
في ذلك الوقت، كان عدد مشرفي المحتوى في فيسبوك لا يتجاوز الـ 4500 مشرف، أما اليوم، فهناك نحو خمسة عشر ألفاً، معظمهم من الموظفين المتعاقدين في مدن حول العالم مثل دبلن، وأوستن، وبرلين، ومانيلا. وغالباً ما يعمل أولئك في ساعات متأخرة لملء الفراغ الذي يسببه اختلاف التوقيت بين المناطق الزمنية، محاولين استيعاب كل ما يظهر على شاشاتهم من تهديدات، وعنف تصويري، ومواد إباحية للأطفال، وغيرها من أنواع الشرور والإساءات عبر الإنترنت. ويمكن لهذا النوع من العمل أن يكون مروعاً ومضنياً، إذ يقول مارتن هولزميستر، مدير فني برازيلي عَمِلَ كمشرف محتوى في برشلونة، إن هذا العمل «يحرمك من النوم، ويبقي عقلك الباطن منفتحاً تماماً، فيما تصب فيه محتوى يبث أكثر الإشعاعات التي يمكن تخيلها تأثيراً على الصعيد النفسي. في تشيرنوبيل، كان معروفاً أنه يمكنك الركض لمدة دقيقتين لالتقاط شيء والعودة للخارج، دون أن يقتلك ذلك، بينما، وبالتعامل مع هذه المواد، لا يمكن لأحد أن يعرف مقدار ما يمكن للمرء تَحمُّلُه». وبالطبع، يتعين على مشرفي المحتوى توقيع اتفاقيات عدم إفصاح صارمة تمنعهم من مناقشة عملهم حتى بأبسط العبارات. في شهر أيار (مايو)، شارك آلاف من مشرفي المحتوى في رفع دعوى قضائية جماعية ضد فيسبوك، زاعمين أن هذه الوظيفة تسببت في معاناتهم من اضطرابات ما بعد الصدمة، لكن فيسبوك عملت على تسوية الدعوى، ودفعت للمشرفين اثنين وخمسين مليون دولار. وقال بوساتيري، المتحدث باسم فيسبوك، إن الشركة تقدم لمشرفيها استشارات في الموقع وخطاً ساخناً على مدار الساعة للصحة العقلية.
يُعدُّ مركز دبلن أحد مراكز فيسبوك الرئيسية للإشراف على المحتوى خارج الولايات المتحدة الأميركية، حيث يراجع المشرفون يومياً مئات الآلاف من التقارير حول انتهاكات محتملة للقواعد من أوروبا، وإفريقيا، والشرق الأوسط، وأميركا اللاتينية. في كانون الأول (ديسمبر) عام 2015، لاحظ العديد من المشرفين في مكتب دبلن، بمن فيهم أولئك الذين يُعرَفون باسم فريق الشرق الأوسط وشمال إفريقيا، أن منشور ترامب لم يُحذَف. وقد علَّق موظف سابق في مكتب دبلن عمل في سياسة المحتوى المتعلقة بالشرق الأوسط قائلاً: «على الأرجح، لم يكن حديث سياسي أميركي بالسوء عن المسلمين الشيء الأكثر إثارة للصدمة الذي رأيته في ذلك اليوم؛ فلن ننسى أنها وظيفة تنطوي على مشاهدة قطع الرؤوس وجرائم الحرب». لم تكن مراقبة المحتوى الأميركي من مهام فريق الشرق الأوسط وشمال إفريقيا، الذي يتحدث أعضاؤه العربية والفارسية وغيرها من اللغات، ومع ذلك اعتبر العديد منهم أن الفشل في توجيه توبيخ لترامب أمر خاطئ، وأعربوا عن اعتراضهم على الأمر أمام رؤسائهم؛ فوفقاً لقواعد فيسبوك، ينبغي على المشرفين حذف أي «دعوات للإقصاء أو الفصل العنصري»، ولم تكن الدعوة لإغلاق الحدود الأميركية في وجه المسلمين أقلَّ من ذلك.
في اليوم التالي، اجتمع أعضاء الفريق وغيرهم من الموظفين المعنيين في غرفة اجتماعات ذات جدران زجاجية، حيث انضم للاجتماع، عبر الفيديو من الولايات المتحدة، أحد رؤساء السياسة التنفيذيين على الأقل. ويقول الموظف السابق في مكتب دبلن: «أعتقد أنه كان جويل كابلان. لا يمكنني التأكيد، بصراحة، لدي مشكلة في التمييز بين هؤلاء الرجال البيض». ولخص الموظف السابق في دبلن انطباعه حول الاجتماع بقوله: «كان لسان حال الإدارة العليا يقول: أنتم، أيها المسلمون العاطفيون، أتشعرون بالضيق؟ إذن دعونا نجري هذه المحادثة حيث تشعرون أن صوتكم مسموع، وتهدؤوا. وهو أمر يثير الضحك، لأن الكثير منا ليسوا مسلمين حتى. علاوة على ذلك، لم يكن الاعتراض أبداً من منطلق أننا من الشرق الأوسط وأن هذا المنشور يؤذي مشاعرنا». وباختصار، كانت رسالتهم تقول: «في رأي خبرائنا، يعدُّ هذا المنشور انتهاكاً للسياسات. إذن أين المسألة؟».
تزعم منصة فيسبوك أنها لم تخفف أبداً تدابير الحماية التي تنتهجها ضد خطاب الكراهية، لكنها تقدم في بعض الأحيان استثناءات لأقوال جديرة بالنشر، كتلك الصادرة عن أشخاص في مناصب عامة. لكن نسخة من معايير التنفيذ استطعنا الحصول عليها مؤخراً تكشف أنه، وبحلول عام 2017، عملت منصة فيسبوك على تخفيف قواعدها، ليس للسياسيين فحسب، بل لجميع مستخدميها. في وثيقة داخلية تسمى الأسئلة المعروفة، وهي وثيقة أشبه بالتلمود حول كيفية تفسير معايير التنفيذ، تظهر الآن ثغرة في القواعد المنصوصة ضد خطاب الكراهية: «نسمح للمحتوى الذي يستثني مجموعة من الأشخاص يتشاركون خاصية محمية من دخول بلد أو قارة». ويتبع ذلك ثلاثة أمثلة على نوع الكلام المسموح به اليوم: الأول، «علينا منع السوريين من القدوم إلى ألمانيا»؛ أما المثالان الثاني والثالث فقد نُقلا حرفياً تقريباً عن رئيس الولايات المتحدة، وهما: «أدعو إلى حظر كامل وشامل على دخول المسلمين إلى الولايات المتحدة»، و«يجب أن نبني جداراً لإبقاء المكسيكيين خارج البلاد».
*****
في أيار (مايو) عام 2017، وبعد فترة وجيزة من إصدار فيسبوك تقريراً يقرُّ باستخدام «جهات فاعلة خبيثة» من جميع أنحاء العالم المنصة للتدخل في الانتخابات الرئاسية الأميركية، أعلن زوكربيرغ عزم الشركة زيادة عدد مشرفي محتوى فيسبوك في العالم بمقدار الثلثين. في ذلك الوقت، انتقلت ميلدكا غراي، والتي كانت موظفة متعاقدة مع فيسبوك في دبلن حينها، إلى قسم الإشراف على المحتوى، وما أن تقدم زوجها كريس بطلب توظيف حتى جاءه التعيين على الفور تقريباً، إذ يقول كريس معلقاً: «كانوا يوظفون أي شخص». وقد انحصر عمل ميلدكا وكريس وغيرهما من المشرفين في مكان رتيب كئيب من مكاتب فيسبوك في دبلن، حتى أن بعضهم انتابه شعور داخلي بضرورة التزام الصمت إذا ما مرَّ أحد موظفي فيسبوك عبر هذه القاعة.
في الأيام القليلة الأولى بعد تعيين مشرفي المحتوى، تولى مُدرب مهمة توجيههم وإِطلاعهم على معايير التنفيذ، والأسئلة المعروفة، والمواد الأخرى. ويقول كريس غراي متذكراً: «كانت الوثائق مليئة بمصطلحات تقنية لا يربطها أي ترتيب منطقي. كنت أنظر حولي، وأقول في نفسي: معظم الناس في هذه الغرفة لا يتحدثون الإنجليزية كلغة أم، كيف بحق الجحيم من المفترض أن ينجح هذا؟». وتوافق ميلدكا، وهي إندونيسية الأصل ولغتها الأم البهاسا، على رأي زوجها معقبةً: «في غرفة التدريب، لا تفعل شيئاً سوى الإيماء برأسك موافقاً وترديد أجل، أجل. ثم تخرج من الغرفة وتسأل صديقك، هل فهمت؟ هل يمكنك شرح ذلك بلغتنا؟». وعلى عكس ما حدث مع أوائل مشرفي المحتوى في فيسبوك، والذين طُلب منهم استخدام تقديرهم وحَدسهم الأخلاقي، غالباً ما تَلقَّى الزوجان غراي تشجيعاً على تجاهل سياق القول. وتنص معايير التنفيذ أن فيسبوك «تميل إلى التساهل مع المحتوى، والامتناع عن إضافة احتكاك إلى عملية المشاركة ما لم يحقق ذلك مصلحة ومنفعة مباشرة ومحددة».
ثمة منطق في الحجة القائلة بأنه لا ينبغي السماح للمشرفين باستخدام الكثير من تقديرهم وسلطتهم الفردية في البتّ. وكما يقول كريس غراي، «ليس هدفنا أن يصبح الناس أوغاد (مارقين)، ويَسِمون صورة بالإباحية لأن فيها مَن يرتدي تنورة قصيرة لفوق الركبة، أو شيء من هذا القبيل. كما أنه ليس من المنطقي أن تُحذف لوحات الطفل الملاك التي رسمها رفائيل من فيسبوك باعتبارها انتهاكاً لقواعد عُري الأطفال». ويتابع غراي: «في الوقت نفسه، يجب أن يكون هناك توازن بين منح مشرفي المحتوى الكثير من الحرية ومطالبتهم بإيقاف عقولهم».
غادر الزوجان غراي فيسبوك عام 2018. وبعد ذلك بوقت قصير، بثت القناة الرابعة في المملكة المتحدة فيلماً وثائقياً صوَّره مراسل متخفٍ عمل في الإشراف على المحتوى معهما في المكتب نفسه. في أحد مشاهد الفيلم الوثائقي، يقدم المدرب عرضاً تقديمياً من عدة شرائح حول كيفية تفسير بعض معايير التنفيذ فيما يتعلق بخطاب الكراهية، حيث تظهر إحدى الشرائح «ميم» يبدو شائعاً، وهو صورة على غرار صور نورمان روكويل لأم بيضاء تبدو وكأنها تُغرِقُ ابنتها في حوض الاستحمام، مع تعليق يقول: «حين يكون أول هيام لابنتك صبي زنجي صغير». وعلى الرغم من أن الصورة «توحي بالكثير»، إلا أن المدرب علَّق قائلاً: «ما من تهجم فعليّ على الصبي الزنجي… لذا ينبغي علينا تجاهله».
وبعد لحظات صمت عمَّت غرفة الاجتماعات، يقول المدرِّب: «هل يوافق الجميع على ذلك؟»، ليجيب أحد المشرفين: «لا، لا أوافق»، فيضحك باقي المشرفين ضحكة قلقة، وينتهي والمشهد.
بعد بث الفيلم الوثائقي، ادّعى المتحدث باسم فيسبوك أن المدرِّب ارتكب خطأ. وعليه يعلق كريس غراي قائلاً: «أعرف تماماً أنها كذبة. عندما كنت أعمل هناك، وصلتني بطاقات (صور) متعددة عليها الميم نفسه، وكان يُطلب مني دوماً تجاهلها. وحين تقول: ‘بالله عليك، جميعنا يعرف تماماً ما يعنيه هذا’، يأتيك الرد حاسماً: ‘لا تصدر أحكامك الخاصة’».
يقول مشرف سابق من فينيكس: «إذا كانت مهمتنا كما يصفونها بالفعل، تنظيف هذه المنصة حتى يتمكن أي شخص آخر من استخدامها بأمان، فهناك شيءٌ من النُبل في عملنا. لكن، وما أن تبدأ ممارسة عملك، حتى تدرك على الفور أننا لسنا مؤهلين أو مجهزين بأي حال من الأحوال لإصلاح المشكلة». وقدم عشرات من الأمثلة على خطاب الكراهية – بعضها يتطلب قدراً معقولاً من الطلاقة الثقافية لفك تشفيره، وبعضها شديد الوضوح مثل الامتداح الصريح لهتلر – التي راجعها المشرفون ولم يحذفوها، «إما لأنهم لم يتمكنوا من فهم مكمن الكراهية فيها، أو لأنهم افترضوا أن أفضل طريقة للابتعاد عن المشاكل مع رؤسائهم هي الإبقاء على المواد الإشكالية وعدم حذفها»، بحسب ما قاله.
مؤخراً، وفي حديث مع اثنين من مشرفي المحتوى الحاليين، كيت وجون، كما عرَّفا عن نفسيهما، وهما يعيشان ويعملان في دولة أوروبية غير ناطقة باللغة الإنجليزية، ولغتهما الإنجليزية تتسم بلكنة وثقافة واسعة، تقول كيت: «إن وضعت نفسي مكان مارك زوكربيرغ، فأنا متأكدة أن تطبيق الحد الأدنى من مجموعة معايير في كل مكان في العالم يبدو وكأنه شكل من أشكال الكونية (universalism). وبالنسبة لي، يبدو الأمر وكأنه نوع من الإمبريالية التحررية، خاصة إن لم يكن هناك من طريقة لتشديد المعايير، بغض النظر عن عدد الأشخاص الذين يشتكون».
وعرضت كيت وجون أمثلة عدة حيث تتعارض، حسب رأيهما، تفسيرات معايير التنفيذ التي يقدمها المشرفون عليهما مع الفطرة السليمة والآداب الأساسية، إذ تقول كيت: «لقد راجعت للتو حساباً على انستغرام يحمل اسم KillAllFags (اقتلوا كلّ ‘الشواذ’)، وصورة الحساب الأساسية عبارة عن علم قوس قزح مشطوب عليه. التهديد الضمني شديد الوضوح، على ما أعتقد، لكنني لم أتمكن من حذفه».
ويعقب جون موضحاً: «يصرُّ المشرفون علينا أن المثلية ليست سوى مفهوم أو فكرة».
وتتابع كيت: «إذا رأيت شخصاً ينشر عبارة ‘اقتلوا المثليين’، يتوجب عليَّ افتراض أنه يتحدث عن قتل الفكرة، ما دام لم يُشِر إلى شخص بعينه أو يستخدم ضميراً من الضمائر».
يقول جون: «يمكن لفيسبوك أن يغيّر هذه القاعدة غداً، وستتحسن حياة الكثير من الناس، لكنهم يرفضون». وعند سؤاله عن السبب، يرد جون: «يمكننا أن نسأل، ولكن أسئلتنا ليس لها تأثير. وباختصار، إما أن نفعل ما يقولون، أو نغادر».
*****
في الوقت الذي تَوظَّفَ فيه الزوجان غراي في فيسبوك، كان لدى حزب بريطانيا أولاً، وهو حزب سياسي متعصب للقومية البيضاء في المملكة المتحدة، صفحة على فيسبوك لديها حوالي مليوني متابع. وفي المقابل، كان عدد متابعي صفحة تيريزا ماي، رئيسة الوزراء آنذاك، أقل من خمسمئة ألف متابع. خارج نطاق الإنترنت، انخرط حزب بريطانيا أولاً في تكتيكات التخويف: التجول في سيارات جيب قتالية في مناطق تواجد المسلمين في لندن، واقتحام المساجد مرتدين بزات خضراء شبه عسكرية. أما على فيسبوك، يقول كريس غراي إن أعضاء حزب بريطانيا أولاً عادة ما ينشرون مقاطع فيديو تعرض «مجموعة من البلطجية يسيرون في شوارع لندن، ويقولون: ‘انظر، هنا جزار حلال. وهناك مسجد. لابدُّ من استعادة شوارعنا’». ويتابع غراي: «يمكن لأي مشرف محتوى مخوَّل بأخذ السياق بعين الاعتبار – لاسيما حقيقة أن اسم ‘بريطانيا أولاً’ يعكس صدى ‘أمريكا أولاً’، وهو شعار استخدمه المتعاطفون مع النازية في الولايات المتحدة، فضلاً عن الدلالة المُهدِّدة لكلمة ‘استعادة’ – أن يحكم بأن كلمات أعضاء الحزب وأفعالهم، مجتمعة، تعدُّ دعوة للعنف. لكن لا يُسمح لك بالنظر إلى السياق، بل كلُّ ما يمكنك النظر إليه وأخذه بالاعتبار هو ما تراه أمامك فحسب». ويشير غراي إلى استمرار وصول التبليغات بشأن منشورات بريطانيا أولاً، «إلا أن المنشورات الكثيرة التي كنتُ مشرفاً عليها لم تتجاوز الخطوط الحمر التي تمكنني من حذفها؛ فدوماً ما كان الغموض يلف الصياغة بدرجة كافية».

هناك أيضاً تومي روبنسون، البريطاني الإسلاموفوبي وأحد أكثر حلفاء حزب بريطانياً أولاً فظاظةً، والذي غالباً ما يجري مقابلات يتكلم فيها صراحة عن أجندته، كما قال مرةً لمجلة نيوزويك: «إنه غزو إسلامي لأوروبا». لكن، رغم ذلك، يبدو روبنسون أكثر تحفظاً على فيسبوك، حيث يتجنب «دعوات الإقصاء» الصريحة والصيغ الأخرى التي قد تعتبرها المنصة خطاب كراهية. في بعض الأحيان، ينتاب غراي إحساس غريب بأنه والمشرفين الآخرين يلعبون دور المدربين عن غير عمد، عبر توضيح الحدود التي يجب على مُروِّجي خطاب الكراهية الوقوف عندها، ويقول: «على أي حال، هذا ما كنتُ سأفعله لو كنت مكانهم: تَعَلُّمُ كيفية التلوين داخل الخطوط». عندما ينشر روبنسون أو أحد ممثلي حزب بريطانيا أولاً منشوراً فيه تهديد واضح لا لبس فيه، غالباً ما يقوم مشرف المحتوى في فيسبوك بوضع علامة عليه لحذفه. وقد يحدث أن يعكس «مدقق الجودة» هذا القرار، ما تكون نتيجته على المشرف خصم بعض «نقاط الجودة»، والتي يجب أن تظل عند ثمانية وتسعين بالمئة أو أعلى ليحافظ المشرف على تقدير جيد.
عادةً، تُحظَر صفحة على فيسبوك إذا ما تكرر انتهاكها للقواعد، لكن ذلك لم يحدث مطلقاً مع صفحتي بريطانيا أولاً وتومي روبنسون. ويبدو أن هاتين الصفحتين كانتا «محميتين»، أي أن سلطة حذفهما كانت مقتصرة على مقر فيسبوك في مينلو بارك. لم يشرح أحد للمشرفين سبب قرار فيسبوك حماية بعض الصفحات دون غيرها، ولكن، من الناحية العملية، غالباً ما تكون الصفحات المحمية هي تلك التي لديها أعداد كبيرة من المتابعين، أو تتمتع بنفوذ ثقافي أو سياسي كبيرين؛ صفحات قد يؤدي حظرها أو إزالتها إلى وقف تدفق إيرادات مُجدية.
*****
في الواقع، قليلة هي الأبواب التي يمكن لمشرف محتوى، تتنابه شكوك أو هواجس بشأن معايير التنفيذ، أن يطرقها. في المقابل، يُمنح موظفو فيسبوك المتفرغون مساحة أكبر للاستفسار عن أي جانب من جوانب سياسة الشركة تقريباً، ما داموا يفعلون ذلك على المستوى الداخلي. على وورك بليس (Workplace)، وهي نسخة مخصصة من الشبكة يقتصر الوصول إليها على موظفي فيسبوك، غالباً ما تكون خلافاتهم صريحة وعفوية، بل وتصادمية حتى. ويعتقد الموظف السابق في دبلن، الذي عمل في فريق سياسة الشرق الأوسط، أن إدارة فيسبوك تتسامح مع المعارضة الداخلية خشيةً من تسربها إلى الرأي العام، حيث يقول: «يجب أن يشعر أخوك التقني العادي -تود في مينلو بارك، أو أياً كان اسمه- باستمرارٍ أنه جزء من قوة لنصرة الخير. لذلك، وكلما لاحظ تود أي شيء مربك، برأيه، بخصوص فيسبوك، لابدَّ وأن يكون هناك طريقة لسماع انتقاداته. ولكن تبقى إمكانية أن يتغير شيء بالفعل نتيجة لتلك الانتقادات مسألة منفصلة».
في 18 كانون الأول (ديسمبر) عام 2017، على لوح الرسائل (message board) في وورك بليس يسمى «ملاحظات على معايير المجتمع» (Community Standards Feedback)، نشر أحد موظفي مكتب فيسبوك في لندن مقالاً لصحيفة الغارديان حول حزب بريطانيا أولاً، وكتب: «إنهم على الأغلب مجموعة متطرفة تروِّج البُغض». وأشار إلى أن «صفحة الحزب حُظرت على كل من يوتيوب وتويتر»، متسائلاً عما إذا كانت فيسبوك ستفعل الأمر نفسه.
وجاء الرد على لسان نيل بوتس، مدير السياسة العامة للثقة والأمان في فيسبوك، حيث كتب: «شكراً على الإبلاغ، ونحن نراقب هذا الموقف عن كثب». وتابع، «ومع ذلك، ورغم العديد من المبادئ العامة التي يتشارك بها حزب بريطانيا أولاً مع مجموعات اليمين المتطرف، على سبيل المثال، النزعة القومية المتطرفة، لا يعتبر فيسبوك هذا الحزب مجموعة كراهية؛ فنحن نُعرِّف مجموعات الكراهية بأنها تلك التي تنشر الكراهية كأحد أهدافها الأساسية، أو أن لديها قادة أُدينوا بالفعل بجرائم متعلقة بالكراهية».
أشارت موظفة أخرى في فيسبوك، وهي امرأة مسلمة، إلى أن جايدا فرانسين، وهي من قادة حزب بريطانيا أولاً، قد أُدينت بجرائم تتعلق بالكراهية ضد المسلمين البريطانيين. وتساءلت: «إذا كان الوضع يُراقَب عن كثب، فكيف يحدث إغفال أمر كهذا؟».
أجاب بوتس: «شكراً على الإبلاغ. سأتأكد من أن الخبراء بشؤون مجموعات الكراهية على دراية بهذه الإدانة».
بعد شهر من ذلك، في كانون الأول (يناير) عام 2018، أعادت الموظفة فتح الموضوع ذاته على ووك بليس، وكتبت: «سنة جديدة سعيدة!. لا يزال حساب بريطانيا أولاً مفتوحاً، رغم أنه، ووفقاً للمناقشة الواردة أعلاه، ينتهك بوضوح معايير المجتمع. أما من خطوة ستؤخذ بهذا الشأن؟».
وبالطبع، رد بوتس قائلاً: «شكراً لتذكيرنا بالموضوع»، وأضاف أن «فريقاً يراقب الوضع ويقيّمه ويناقش الخطوات الواجب اتخاذها». وكان هذا هو الحوار الأخير قبل أن يُطوى النقاش في هذا الموضوع.
بعد بضعة أسابيع، أُدين البريطاني الأبيض دارين أوزبورن بجريمة قتل، بعدما اندفع بشاحنة صغيرة باتجاه حشد بالقرب من مسجد في لندن، ما أسفر عن مقتل رجل مسلم يدعى مكرم علي، وإصابة تسعة أشخاص آخرين على الأقل. قدم ممثلو الادعاء أدلة تشير إلى أن مشاهدة مسلسلات قصيرة قدمتها شبكة البي بي سي، فضلاً عن متابعة منشورات حزب بريطانيا أولاً وتومي روبنسون على وسائل التواصل الاجتماعي، هو ما ألهم أوزبورن لارتكاب جريمة القتل، جزئياً على الأقل. واعتبر القاضي جريمة القتل «عملاً إرهابياً» ارتكبه رجل تَحوَّلَ إلى التطرف بسرعة عن طريق الإنترنت. وفي غضون ستة أسابيع من هذه الحادثة، حظر فيسبوك صفحتي بريطانيا أولاً وتومي روبنسون. كما أشار بوساتيري، المتحدث باسم فيسبوك، إلى أن الشركة «حظرت أكثر من 250 منظمة تؤمن بتفوق العرق الأبيض».
مؤخراً، كتبت صوفي زانج، عالمة البيانات السابقة في الشركة: «إنه سر مُعلن؛ قرارات فيسبوك قصيرة المدى مدفوعة إلى حد كبير بالعلاقات العامة وإمكانية لفت الانتباه السلبي». غادرت زانج فيسبوك في أيلول (سبتمبر)، لكنها نشرت قبل مغادرتها مذكرة شديدة اللهجة على وورك بليس. في المذكرة التي حصلت BuzzFeed News على نسخة منها، زعمت زانج أنها شهدت «محاولات عديدة، واضحة ومتمادية، لإساءة حكومات أجنبية استخدام منصتنا على نطاق واسع»؛ ومع ذلك، وفي بعض الحالات، «لم نبدِ ببساطة اهتماماً كافياً لإيقافهم». وأَرجعت زانج سبب ذلك إلى حدوث الانتهاكات في بلدان من المستبعد أن تغطيها وسائل الإعلام الأميركية.
حين تتعرض منصة فيسبوك لقدر غير عادي من الانتقادات الصحفية بسبب محتوى صارخ محدد، يُشار إلى ذلك داخل الشركة باسم «هجوم صحفي» أو «#PRFire». في كثير من الأحيان، يكون مشرفو المحتوى قد تلقوا إبلاغات متكررة بالفعل حول هذا المحتوى، لكن دون جدوى، أما في سياق الهجوم الصحفي، يحظى الموضوع باهتمام فوري. وقد أرسل لي أحد مشرفي المحتوى في فيسبوك، وهو يعمل حالياً في مدينة أوروبية، سجلاً كاملاً لنظام البرنامج الداخلي كما ظهر في يوم سابق. في ذاك اليوم، تعرضت المنصة لعشرات الهجمات الصحفية، والانتقادات -من مستخدميها بشكل أساسي- لسماحها بالتنمُّر على غريتا ثونبيرغ، ناشطة المناخ المراهقة، والتي تعاني من متلازمة أسبرجر. حينها، صدرت تعليمات لمشرفي المحتوى بتطبيق استثناء خاص يفيد بـ «حذف أي نوع من أنواع الانتقاد أو التهجم يستهدف غريتا ثونبرج سواءً باستخدام المصطلحات أو الهاشتاجات:Gretarded، أوRetard، أوRetarded (لعب لفظي لاستخدام ‘التخلف العقلي’ كشتيمة)». لكن حماية مماثلة لم تُعمَّم لتشمل غيرها من النشطاء الشباب، لاسيما أولئك الذين لا يُرجَّح أن يلهم التنمُّر عليهم رد فعل شعبي عنيف. وتقول امرأة كانت تشرف على مشرفي المحتوى في الولايات المتحدة: «يمكنك أن تطلب عقد اجتماع، وتقدم أدلة إلى رؤسائك، وتخبرهم بأن لديك أعضاء في الفريق يعانون من الاكتئاب والميول الانتحارية، لكن ذلك لن يفيد بشيء؛ فاللغة الوحيدة التي تفهمها فيسبوك إلى حدٍّ ما هي الإحراج العام العلني».
*****
لا يتمتع مشرفو المحتوى في فيسبوك سوى بالقليل من إجراءات حماية مكان العمل والأمن الوظيفي. لكن لديهم ما هو أقرب لأن يكون مُنظِّم عمال، وهي المحامية والناشطة المقيمة في لندن كوري كريدر. نشأت كريدر في ريف تكساس الذي غادرته مسرعةً ما أن تمكنت من ذلك، لتذهب أولاً إلى أوستن للالتحاق بالمدرسة الثانوية؛ ثم إلى هارفارد لتدرس في كلية الحقوق؛ ثم إلى لندن، حيث عملت لمدة عشر سنوات في منظمة صغيرة لحقوق الإنسان، مثّلت من خلالها معتقلي غوانتنامو وأقارب ضحايا ضربات الطائرات المسيَّرة في اليمن وباكستان. وتقول كريدر: «كان قلقي بشأن الطائرات المسيَّرة هو ما جعلني أقلق بشأن التكنولوجيا. وبدأ يساورني شعور بأنه، وبينما نركز جميعاً على تكتيكات المراقبة لدى البنتاغون، تعمل حفنة من الشركات الخارجة من كاليفورنيا على جمع البيانات على نطاق قد يكون، بصدق، موضع حسد من أي دولة».
في العام الماضي، شاركت كريدر في تأسيس مؤسسة غير ربحية تدعى قفّاز الثعلب (Foxglove)، لتكون واحدة من موظفين اثنين في المؤسسة. وكف الثعلب زهرة برية، وتُعرف أيضاً باسم الديجيتالس، وقد يكون تأثيرها علاجياً أو ساماً على الإنسان، بناءً على الطريقة التي يتناولها بها. تتمثل مهمة المؤسسة في تمكين العاملين الأكثر ضعفاً في مجال صناعة التكنولوجيا: مساعدتهم على «تنظيف أرضية مصنعهم»، كما تصفها كريدر غالباً. أما هدفها الأكثر طموحاً ينصب على إعادة تصميم المصنع. وقد تأثرت كريدر بـ شوشانا زوبوف، مؤلفة كتاب عصر رأسمالية المراقبة، الذي يجادل بأن عمالقة «الأدواتية» مثل شركة فيسبوك يشكلون تهديداً وجودياً على الديمقراطية. وفقاً لتحليل كريدر، لا يمكن حتى لأكثر الحلول التكنوقراطية إبداعاً لمبادئ فيسبوك التوجيهية معالجة المشكلة الأساسية: لن تتغير أولويات الإشراف على المحتوى حتى تتوقف خوارزمياته عن تضخيم أي محتوى يثير اهتماماً وتلاعباً عاطفياً أكبر. قد يتطلب الأمر نموذج عمل جديد، وربما نموذج عمل أقل ربحية أيضاً، ما يُبعِدُ أمل أن يحدث ذلك طواعية. وتقول كريدر: «أتمنى لو أنني أستطيع رفع دعوى والحصول على أمر قضائي عالمي ضد تحويل الاهتمام إلى مصدر دخل. وحتى حدوث ذلك، يمكن إيجاد طرق أكثر تحديداً لممارسة الضغط».
في تموز (يوليو) عام 2019، تعرَّفت كريدر على واحد من مشرفي المحتوى في فيسبوك يعمل في أوروبا، والذي كان قادراً على تحديد كيفية عمل النظام بأكمله. وقد مكَّنها هذا المشرف من التواصل مع مشرفين آخرين، الذين وصلوها بدورهم بغيرهم من المشرفين أيضاً. في بعض الأحيان، وعند الاقتراب من المشرف لإقناعه كي يكون مصدراً محتملاً للمعلومات، تعمل كريدر على ترتيب لقاء وتتوجه إلى المكان الذي يعيش فيه هذا الشخص، لتتفاجأ بأنه غير موجود وتجاهل موعدهما. أما أولئك الذين تحدثوا بالفعل معها، فدوماً ما كانوا يرفضون نشر الحديث. وتقول كريدر، لقد ذَكَّرني ذلك بالأشهُر التي قضتها في اليمن وباكستان، محاولة كسب ثقة الناس. «على الأغلب لم يكن لديهم مبرر يُذكَر يدفعهم للتحدث، ولديهم كل مبررات العالم لعدم التحدث». تضيف كريدر أن مشرفي المحتوى لم يكونوا مستعدين بعد لتشكيل نقابة، «ولا حتى قريبين من ذلك»، لكنها كانت تأمل أن تغرس فيهم نوعاً من الوعي الطبقي الكامن؛ وعيٌّ بأنفسهم كقوة عاملة جماعية.
في تشرين الأول (أكتوبر) الماضي، التقت كريدر بكريس غراي في مؤتمر في لندن، وقدمته للصحفيين والناشطين، ما ساعد في نشر قصته. بعد ذلك بشهرين، وكَّل غراي مكتب محاماة محلي ورفع دعوى قضائية ضد فيسبوك في المحكمة الأيرلندية العليا، مدعياً أن «تعرضه المتكرر والمتواصل لمشاهدة صور صادمة ومحتوى شديد العنف» قد تسبب له بصدمة نفسية دائمة. بعد ذلك بوقت قصير، تواصل نحو عشرين من مشرفي فيسبوك السابقين في دبلن بشركة المحاماة التي تمثل غراي للاستفسار عن الدعاوى القضائية المحتملة ضد الشركة.
بعد فترة وجيزة من مغادرته فيسبوك، كتب غراي مذكرة من ثلاثمئة وخمسين كلمة إلى زوكربيرغ وشيريل ساندبيرغ، المديرة التنفيذية للعمليات في الشركة، يوضح فيها انتقاداته لعملية الإشراف على المحتوى. اقترح غراي في مذكرته بعض الإصلاحات، تراوحت من التفاصيل الدقيقة (نظام البرمجة الفوضوي) إلى العموميات (وجوب إعادة صياغة… جميع سياسات خصوصية المستخدم في فيسبوك). ومع ذلك، لم يعمل أي منهما على معالجة ما اعتبره القضية الأساسية. وخلص غراي إلى أن فيسبوك بشكل عام «غير ملتزمة بمراقبة المحتوى، وليس لديها استراتيجية واضحة، أو حتى تَحَكُّمٌ معقول، بكيفية القيام بذلك، بينما يتعرض الأشخاص الذين يحاولون القيام بالعمل الفعلي لضغط هائل لإزالة المحتوى الرديء دون أدوات أو توجيه مناسبين… فليس هناك قيادة ولا بوصلة أخلاقية واضحة». وقد أرسل غراي المذكرة إلى زوكربيرج وساندبرج عبر بريد إلكتروني مجهول الهوية: [email protected].
*****
في عام 2018، ترشَّحَ جاير بولسونارو، السياسي البرازيلي الأوتوقراطي، للرئاسة بميزانية انتخابية ضئيلة. ولتوصيل رسالته، اعتمد بشكل كبير على منصة فيسبوك، التي تُعدُّ الأكثر شعبية بين وسائل التواصل الاجتماعي في بلاده. ومنذ فوزه وتوليه الرئاسة، عام 2019، يلقي بولسونارو خطاباً رئاسياً أسبوعياً ببث مباشر عبر فيسبوك. في وقت سابق من هذا العام، تحدث بولسونارو في أحد خطاباته عن السكان الأصليين للبرازيل، حيث قال: «لقد تغيَّر الهندي؛ فها هو يتطور ويصبح، تدريجياً، إنساناً مثلنا». في الحقيقة، لم تكن عنصرية بولسونارو مفاجئة، لكن تصريحاته أحدثت ضجة مع ذلك. وبالطبع، لم يحذف فيسبوك مقطع الفيديو، رغم أن مبادئه التوجيهية تحظر «الخطاب الذي يجرد شخصاً من إنسانيته»، بما في ذلك أي تلميحات إلى صفات «غير إنسانية».
وحدث أن قرأ ديفيد ثيل، خبير الأمن السيبراني في مقر فيسبوك في مينلو بارك، الجدل الدائر حول خطاب بولسونارو. ويجدر بالذكر هنا، أن لا علاقة لديفيد ببيتر ثيل، صاحب رأس المال الاستثماري ومانح ترامب والذي يشغل مقعداً في مجلس إدارة فيسبوك. صُدِمَ ديفيد ثيل بعد أن بحث عن الخطاب على المنصة ووجد أنه لا يزال منشوراً، ما دعاه لأن يكتب على وورك بليس، «أفترض أننا سنحذف هذا الفيديو من منصتنا؟». وبعد إحالة سؤاله إلى اثنين من الخبراء المتخصيين، أحدهما في برازيليا والآخر في دبلن، قرَّرَ كلاهما أن الفيديو لا ينتهك المبادئ التوجيهية. وكتب الخبير في برازيليا: «الرئيس بولسونارو معروف بخطبه المثيرة للجدل وغير الصائبة سياسياً. وهو يشير في الواقع إلى أن السكان الأصليين أصبحوا أكثر اندماجاً في المجتمع، بدلاً من العزلة في قبائلهم». لم يُرضِ هذا الجواب ثيل، وذلك يعود جزئياً لأنه لم يَر في الخبير، الذي عمل مع سياسي واحد على الأقل من مؤيدي بولسونارو، مصدراً موضوعياً. وفضلاً عن ذلك، ونظراً لأن ممثلي مبيعات فيسبوك المحليين قد شجعوا بالتأكيد بولسونارو على استخدام منتجاتهم، فقد يكون هناك تضارب في المصالح. ويقول ثيل: «إنه أمر محرج بالنسبة لشركة ما أن تنتقل من موقف ‘من فضلك، سيدي، استخدم منتجنا’، إلى ‘في الواقع، يا سيدي، أنت الآن في ورطة نتيجة استخدامك منتجنا’».
استأنف ثيل القرار، ووافق أربعة أو خمسة أعضاء من فريق سياسة المحتوى على الاجتماع به عبر الفيديو. ولإثبات حجته بأن جملة «أصبح إنساناً» تُعدُّ خطاباً يجرد المرء من إنسانيته، عمل ثيل، بمساعدة بعض زملائه، على تحضير عرض تقديمي من خمس عشرة شريحة، مع تحليل للكلام المنطوق باهتمام مهندس كمبيوتر يرصد أدق التفاصيل. تضمنت إحدى الشرائح تعريف قاموس مريام ويبستر لكلمة «يصبح»، مضافاً إليه الجملة التالية: «’أن تصبح’ شيئاً، يشير بالضرورة، في الوضع الراهن، إلى أن الموضوع ليس هذا الشيء حالياً». كما جادل ثيل بأن خطاب بولسونارو العنصري قد حرَّض بالفعل على العنف، حيث قُتل في عام 2019، وهو العام الأول لبولسونارو في الرئاسة، سبعة من زعماء القبائل البرازيليين، وهو أعلى رقم منذ عشرين عاماً. كما عرضت الشريحة ما قبل الأخيرة اقتباساً مثيراً من خطاب زوكربيرغ في جورج تاون، حيث قال: «نحن نعلم من التاريخ أن تجريد الناس من إنسانيتهم هو الخطوة الأولى نحو التحريض على العنف… وأنا آخذ هذا الأمر على محمل الجد بكل صدق، ونعمل بجد لإبعاد ذلك عن منصتنا». ويستذكر ثيل إنه عند تقديمه العرض قام العديد من أعضاء فريق السياسة «بمقاطعتي كثيراً، ورفض منطقي في تحليل الأمر، أو التشكيك في مصداقيتي»، وبعد أن فشلت هذه الطريقة، «استمروا في الإصرار، بطريقة تنافي المنطق، على أن الكلمات لا تنتهك السياسة». وقد قال أحد مشرفي المحتوى السابقين: «في مرحلة ما، كان من الممكن أن يقول شخص ما في فيسبوك بأنهم سيستمرون في تطبيق استثناءات عندما يخالف السياسيون قواعدهم. لكنهم لم يرغبوا أبداً في الاعتراف بذلك، حتى لأنفسهم، وهذا ما أوصلهم إلى هذا المكان من المنطق الأعوج. يمكنهم النظر إلى انتهاك شديد الوضوح لقواعدهم ويقولون ببساطة: ‘لا، ما من انتهاك في هذا’».
في شهر آذار (مارس)، أعلن ثيل استقالته من فيسبوك. وقال لي: «لقد كانت استقالة تنم عن غضب صريح». قبل استقالته، نشر ملاحظة طويلة وانفعالية على وورك بليس، قال فيها: «حالياً، يتزايد انحياز فيسبوك للأغنياء والأقوياء، ما يسمح لهم بالتلاعب بالقواعد المختلفة»، مضيفاً أن «التحول نحو اليمين المتطرف كان مخيباً للآمال ولم يعد أمراً أشعر بالراحة حياله بعد الآن». بعد فترة وجيزة من نشر رسالة الوداع، كتب إليه فريق سياسة المحتوى ليقولوا إنهم تراجعوا عن قرارهم بشأن خطاب بولسونارو. ويقول ثيل: «لم أستطع معرفة ما إذا كانوا يحاولون إقناعي بعدم المغادرة، أو المغادرة مع الحفاظ على علاقة طيبة، أم ماذا؟ وفي أي حال من الأحوال، كان الوقت قد فات».
*****
في تشرين الأول (أكتوبر) الماضي، صَمَّمَت حملة ترامب إعلاناً يتضمن مزاعم كاذبة بشكل صارخ حول جو بايدن. وبينما رفضت سي إن إن وشبكات أخرى عرض الإعلان، وافق كل من يوتيوب وتويتر وفيسبوك على نشره. وكتبت كاتي هارباث، مديرة السياسة العامة للانتخابات العالمية في فيسبوك، والتي كانت المحللة الاستراتيجية في المجال الرقمي لحملة رودولف جولياني الرئاسية: «يرتكز نهجنا على إيمان فيسبوك الأساسي بحرية التعبير. وبالتالي، عندما يتحدث سياسيٌّ أو يُصدر إعلاناً، فإننا لا نرسله إلى جهات خارجية من مدققي الحقائق». في وقت لاحق من ذلك الشهر، وفي جلسة استماع بالكونغرس، وجه النائب ألكساندريا أوكاسيو كورتيز سؤالاً إلى زوكربيرغ حول المدى الذي قد تصل إليه هذه السياسة: هل يمكن لأي سياسيٍّ أن يكذب بشأن أي شيء على منصته؟ وردَّ زوكربيرغ، تحت القَسَم، قائلاً: «هناك بعض الخطوط الحمر؛ فإذا ما قال أحد ما، بما في ذلك السياسيين، أشياء تدعو إلى العنف… أو إلى قمع الناخبين أو السكان، نحذف هذا المحتوى».
بعد سبعة أشهر، تجاوز ترامب هذين الخطين الأحمرين في غضون أيام. في 26 أيار (مايو)، كتب ترامب، زوراً، على كل من تويتر وفيسبوك: «مُحالٌ أن تكون بطاقات الاقتراع عبر البريد أي شيء سوى عملية تزوير واضحة»، وهو ما يبدو أشبه بمحاولة واضحة لقمع الناخبين: لماذا يحذر الرئيس الجمهور من عدم كفاءة مفترضة في نظام التصويت عبر البريد إن لم يكن لثني الناس عن استخدامه؟ وفي 29 أيار (مايو)، وباستخدام اللغة ذاتها مُجَدَّداً على تويتر وفيسبوك، فكر ترامب في إرسال الحرس الوطني لقمع الاحتجاجات رداً على وفاة جورج فلويد، فكتب: «عندما يبدأ النهب، يبدأ إطلاق النار»، وهي عبارة تُعتبر، وعلى نطاق واسع، تحريضاً على العنف، وقد استخدمها دعاة الفصل العنصري البارزون في ستينيات القرن الماضي لتبرير الهجمات الشرسة ضد السود، بمن فيهم متظاهرو الحقوق المدنية.
لم يحذف تويتر تغريدتي ترامب، لكنه وسمهما بتحذير يدعو للتحقق من الوقائع. لكن فيسبوك، في المقابل، لم يفعل أي شيء بخصوص هاتين التغريدتين. وقد قال رشاد روبنسون، رئيس مجموعة لون التغيير الحقوقية: «كانت تلك هي اللحظة التي انفجرَ فيها الكثير منا غضباً». أما فانيتا جوبتا، رئيسة مؤتمر القيادة حول الحقوق المدنية وحقوق الإنسان ومديرته التنفيذية، فقالت: «كان لسان حال النشطاء يقول: لماذا أمضينا سنوات في دفع فيسبوك إلى تبني سياسات أفضل إذا كانت المنصة ستتجاهل تلك السياسات في الوقت الذي يشكل تطبيقها أهمية قصوى؟». ومنذ ذلك الوقت، جرى حذف بعض إعلانات حملة ترامب – بما في ذلك إعلان من شهر حزيران (يونيو) استخدم رمزاً يرتبط بالنازيين، وآخر من شهر أيلول (سبتمبر) وجَّه اتهامات باطلة للاجئين بنشر فيروس كورونا.
في الأول من حزيران (يونيو)، نظم العشرات من موظفي فيسبوك الذين يعملون من المنزل بسبب الوباء إضراباً افتراضياً. بعد يومين، وقَّع أربعة وثلاثون من أوائل موظفي فيسبوك، بمن فيهم ديف ويلنر، خطاباً مفتوحاً نُشر في صحيفة التايمز، وجاء فيه: «إذا كانت كل خطابات السياسيين جديرة بالنشر، وكل الخطابات الجديرة بالنشر مُصانة، فلا يوجد خط لا يمكن لأقوى الشخصيات في العالم تجاوزه على أكبر منصة في العالم». وفي ذلك الوقت، شجعت كوري كريدر مشرفي المحتوى في فيسبوك، والتي كانت على اتصال وثيق مع نحو خمسين منهم، على نشر خطاب خاص بهم. وبالفعل، في الثامن من حزيران (يونيو)، وقَّعت مجموعة من عشرة مشرفين حاليين وسابقين، بمن فيهم كريس غراي، خطاباً مفتوحاً على منصة النشر ميديوم. وجاء في الخطاب: «بصفتنا متعاقدين خارجيين، تمنعنا اتفاقيات عدم الإفصاح من التحدث بصراحة». ومع ذلك، «تثبت الأحداث الجارية أنه لا يمكننا أن نقبل باستسلامٍ دورَ مُيَّسِرِ عمل الخوارزميات الصامت؛ لن نقبل ذلك وخطاب الكراهية يغمر شاشتنا».
في 19 آب (أغسطس)، أعلن فيسبوك عن تغييرات في مبادئه التوجيهية، كان أهمها سياسة جديدة تقيد أنشطة «التنظيمات والحركات التي أظهرت مخاطر كبيرة على السلامة العامة»، بما في ذلك «التنظيمات الميليشاوية التي تتخذ من الولايات المتحدة مقراً لها». وتعليقاً على قرار فيسبوك، تساءل بعض المراسلين والنشطاء عن سبب تأخر فيسبوك كل هذا الوقت للتوصل إلى قواعد تتعلق بهذه المجموعات، بينما أشار آخرون إلى أنه، ورغم حذف مئات الصفحات بموجب السياسة الجديدة، بقي الكثير من الصفحات المشابهة على المنصة. بعد أربعة أيام، أطلق ضابط شرطة في مقاطعة كينوشا بولاية ويسكونسن سبع رصاصات على ظهر رجل أسود يدعى جاكوب بليك أمام أطفاله، ما أدى لاندلاع احتجاجات ليلية. وإثر ذلك، نشرت ميليشيا حراس كينوشا، كما تُطلِقُ على نفسها، «دعوة لحمل السلاح» على صفحتها على فيسبوك، حيث عبَّرَ الناس صراحة عن نيتهم ارتكاب أعمال عنف لأخذ الحق بأيديهم، على غرار: «أعتزم حقاً قتل اللصوص ومثيري الشغب الليلة». في غضون يوم واحد، وفقاً لـ BuzzFeed، وصلت إبلاغات عن الصفحة من أكثر من أربعمئة شخص لمشرفي المحتوى، لكن المشرفين قرروا أنها لا تنتهك أياً من معايير فيسبوك، ولم يحذفوها؛ وهو ما وصفه مارك زوكربيرغ لاحقاً بـ «الخطأ التنفيذي». في 25 آب (أغسطس)، وصل شاب أبيض يبلغ من العمر سبعة عشر عاماً إلى كينوشا قادماً من خارج الولاية، وبيده بندقية نصف آلية، ليطلق النار على ثلاثة متظاهرين ويقتل اثنين منهم. ولم يتوضح ما إذا كان الشاب قد اطّلَعَ على صفحة ميليشيا حراس كينوشا على فيسبوك، لكن الصفحة كانت منشورة للعلن، ويمكن لأي شخص الاطلاع عليها.
وقال بوساتيري، المتحدث باسم فيسبوك: «لقد حددنا حتى الآن أكثر من ثلاثمئة حركة اجتماعية عسكرية، وعملنا على حظر صفحاتها ومجموعاتها على فيسبوك، وحساباتها على إنستغرام». بالإضافة إلى ذلك، حظرت فيسبوك الأسبوع الماضي أي محتوى يتعلق بنظرية المؤامرة اليمينية المتطرفة «كيوأنون» (QAnon). كما حذفت منشوراً لترامب يحتوي على معلومات مضللة حول فيروس كورونا، وأعلنت عن خطط لحظر جميع الإعلانات السياسية على المنصة لفترة غير محددة بدءاً من ليلة الانتخابات. ومجدداً، اعتبر منتقدو فيسبوك هذه الإجراءات غير كافية ومتأخرة جداً. بينما وصفتها السيناتورة إليزابيث وارن بأنها «تغييرات أدائية»، مُجادِلة بأن الشركة فشلت حتى الآن في «تغيير الخوارزمية المتصدعة، أو تَحمُّلِ مسؤولية السلطة التي راكمتها».
من المرجح أيضاً أن تساهم هذه القيود في تعزيز فكرة أن وسائل التواصل الاجتماعي تمارس تمييزاً ضد المحافظين، كما غرد ترامب في أيار (مايو) قائلاً: «اليسار الراديكالي يتحكم بشكل كامل في فيسبوك وإنستغرام، وتويتر، وغوغل». وقد أصبحت هذه النقطة محور نقاش اليمينيين، على الرغم من أن الجزء الأكبر من الأدلة يشير إلى عكس ذلك. يشارك مراسل صحيفة التايمز كيفين روز، يومياً، أهم عشرة «منشورات روابط»، وهي المنشورات التي تحتوي على روابط، من صفحات فيسبوك الأميركية، بالاعتماد على البيانات التي تقدمها أداة تمتلكها شركة فيسبوك. وغالباً ما يتصدر مشاهير اليمين المتطرف أو المنافذ الإخبارية على هذه القائمة. وعلى سبيل المثال، وفي أحد الأيام النموذجية من الأسبوع الماضي، تضمنت المراكز العشرة الأولى منشوراً من موقع دونالد ترامب رئيساً (Donald Trump for President)، وأربع منشورات من فوكس نيوز، ومنشورين من سي إن إن، ومنشور من موقع تي إم زد. عارض فيسبوك منهجية عمل روز، بحجة أن هناك طرقاً لتحليل البيانات تجعلها تبدو أقل إدانة. يصنف روز المشاركات حسب «التفاعلات»، لكن جون هيجمان، الذي يدير صفحة آخر الأخبار (نيوز فيد) في فيسبوك، جادل بأنه من الأفضل ترتيب المشاركات حسب «مدى الوصول»، حيث كتب تغريدة في شهر تموز (يوليو) يقول فيها: «هذه الطريقة، قد تكون الطريقة الأكثر دقة لمعرفة ما هو شعبي وشائع»، متابعاً «لكن هذه البيانات متاحة على المستوى الداخلي فحسب».