ما هي سياسات الإشراف على المحتوى في المنصّات الكبرى التي تؤثّر بشكلٍ كبيرٍ على المحتوى السياسيّ في منطقة الشرق الأوسط وشمال إفريقيا؟
تشمل السياسات التي تترك أثراً كبيراً على المنطقة سياسات المنصّات الكبرى مثل “ميتا”، و”تيك توك”، و”تويتر” (إكس)، و”يوتيوب”، المتعلّقة بالمحتوى العنيف، وخطاب الكراهية، والمحتوى المصنّف على أنّه إرهابيّ أو محرِّض على العنف، وأحياناً المعلومات الخاطئة. كما أنّ سياسات الإعلانات والحسابات التجاريّة قد يكون لها تأثير أيضاً.
تشير تقارير صادرة عن منظّمات مثل حملة – المركز العربي لتطوير الإعلام الاجتماعي، ومنصّة دعم السلامة الرقميّة التابعة لـ “سمكس”، وتجارب عدد من أعضاء تحالف الحقوق الرقمية في منطقة الشرق الأوسط وشمال إفريقيا، إلى أنّ “إنستغرام” يُعتبر منصّةً رئيسيّةً للمحتوى السياسيّ، على الرغم من أنّ “فيسبوك” لا يزال يحظى بشعبيّةٍ كبيرة، ولا يزال “تويتر/ إكس” و”يوتيوب” يستقطبان بعض المستخدمين/ات. ويكتسب “تيك توك” أهميّةً متزايدةً عرّضته للحظر في بعض الدول في المنطقة. يجيب هذا الدليل على الأسئلة المتكرّرة التي تُطرح ويركّز على “ميتا” نظراً لدورها البارز في المنطقة، ولأنّ منصّاتها هي التي تشهد أكثر الإخفاقات في مجال الإشراف على المحتوى. وقد وفّرت التسريبات المتعدّدة، ومجلس الإشراف التابع لشركة “ميتا”، وحتّى ممارسات الشفافيّة الخاصّة بها، بعض المعلومات حول آليّات الإشراف على المحتوى التي تعتمدها الشركة. مع ذلك، إذا توفّرت معلوماتٌ إضافيّةٌ حول الإشراف على المحتوى في “تيك توك”، فسيُحدَّث دليل الأسئلة المتكرّرة هذا إذا أمكن.
ونودّ أن نؤكّد أنّ تركيزنا على “ميتا” لا يعني أنّ المنصات الأخرى لا تمارس سياساتٍ لها تأثيرٌ سلبيٌّ مماثلٌ على حقوق الإنسان في المنطقة وأماكن أخرى. ومن بين المجالات التي غالباً ما تؤثّر على المنطقة، سياسات منصّات الدفع مثل “ پايپال” (PayPal) ومنصّات جمع التبرّعات مثل “غو فند مي” (GoFundMe). ففي الكثير من الأحيان، تُؤخَّر المدفوعات أو تُلغى حتّى إن لم تنتهك بشكلٍ واضحٍ شروط الخدمة. وعلى الرمن أنّ هذه المشاكل تتعلّق بالإشراف على المحتوى ولها أحياناً نفس الأسباب الجذريّة، إلّا أنّ هذا الدليل لا يغطّيها. لمزيدٍ من المعلومات حول الرقابة الماليّة، يمكنكم الاطلاع على حملة “پايپال من أجل فلسطين” (PayPal4Palestine) التي أطلقها مركز حملة.
كيف يمكن أن تؤثّر التغييرات التي أعلنتها “ميتا” والمنصّات الأخرى استجابةً لانتخاب دونالد ترامب على منطقة الشرق الأوسط وشمال إفريقيا؟
حضر رؤساء المنصّات الكبرى جميعهم حفل تنصيب ترامب، وأظهروا ولاءهم له بشكلٍ واضحٍ، ما يثير القلق بشأن التأثيرات المحتملة على المنطقة. فقد عبّر ترامب علناً عن تحيّزه ضدّ المسلمين/ات (ومن المحتمل أن يشمل هذا التصريح شعوب منطقة الشرق الأوسط وشمال إفريقيا بشكلٍ عام)، ودعمه غير المشروط لإسرائيل.
لا تزال التحديثات على سياسة المحتوى التي أعلنتها “ميتا” في 7 كانون الثاني/يناير 2025 غير واضحة من حيث تأثيرها المباشر على منطقة الشرق الأوسط وشمال إفريقيا، ولكنّ إعلان مارك زوكربيرغ أظهر رغبةً كبيرةً في العمل مع ترامب. كما أكّد أنّ “ميتا” ستواصل الإشراف على المحتوى المتعلّق بـ “المخدّرات، والإرهاب، واستغلال الأطفال”. وتجدر الإشارة إلى أنّ مصطلح “الإرهاب” في الولايات المتّحدة لطالما كان يُستخدم كرمزٍ سياسيٍّ يشير إلى “العرب والمسلمين/ات وسكّان جنوب غرب آسيا”، ولا يشمل عادةً العنف المرتبط باليمين المتطرّف. وعلى الرغم من أنّ الإعلان أشار إلى التركيز على “حريّة التعبير”، من غير المتوقّع أن يشهد الوضع في المنطقة تحسّناً كبيراً. بل من المرجّح أن يسوء الوضع، إذ أشارت تحليلات “سمكس” إلى أنّ خطاب الكراهية الموجّه ضدّ النساء، والمهاجرين/ات، وأفراد مجتمع الميم (المثليّات والمثليّون ومزدوجو الميل الجنسي ومغايرو الهويّة وأحرار الهويّة الجنسانيّة) سيزداد في المنطقة.
أمّا بالنسبة لمستخدمي/ات “تيك توك”، فعليهم/نّ توقّع تغييراتٍ أيضاً. فقد أيّدت المحكمة العليا الأمريكيّة قانوناً يحظّر المنصّة، ما أدّى إلى إغلاقها مؤقّتاً مع ظهور إشعارٍ للمستخدمين/ات يفيد بأنّ المنصّة تعمل مع ترامب لاستعادة الخدمة. وبعد انتهاء الانقطاع المؤقّت، ظهر إشعارٌ يشكر ترامب على إنقاذ المنصّة. وكما ذكرت صحيفة “ذا إنترسبت” (The Intercept)، يعتقد بعض المشرّعين/ات الأمريكيين/ات أنّ منصّة “تيك توك” كانت متحيزةً بشكلٍ مفرطٍ لصالح غزة. ومنذ رفع الحظر، أفاد عددٌ من المستخدمين/ات عن اختفاء أيّ محتوى يتعلّق بغزة.
لماذا تتوالى إخفاقات هذه المنصّات في المنطقة؟
يعود أحد الأسباب الرئيسيّة إلى طبيعة المحتوى من مناطق النزاعات والحروب وحتّى الاحتجاجات، الذي غالباً ما يتّسم بطابعٍ عنيف. ومع ذلك وكما هو الحال في عددٍ من المناطق الأخرى في الأغلبيّة العالميّة، فإنّ المشكلة الأساسيّة تتعلّق بعدم تخصيص الموارد الكافية للإشراف على المحتوى في منطقة الشرق الأوسط وشمال إفريقيا وللإشراف على المحتوى المكتوب باللغة العربية. على سبيل المثال، تظهر الأبحاث التي أجرتها منظّمة ميدان في العام 2024، وهي عضو في تحالف الحقوق الرقميّة في منطقة الشرق الأوسط وشمال إفريقيا، أنّ النماذج اللغوية الكبيرة (LLMs) التي كانت تُعتبر “الأكثر تطوراً وقت التقييم” أدّت أداءً سيّئاً للغاية مع اللغة العربية. وبرزت هذه الإخفاقات بشكلٍ خاصّ في وثائق “ميتا” الداخليّة المسرّبة في العام 2021، والمعروفة باسم “أوراق فيسبوك” (Facebook Papers). فقد أشار عددٌ من هذه الوثائق إلى تحذيراتٍ متكرّرةٍ من موظفي/ات “ميتا” بشأن مدى صعوبة وتعقيد اللغة العربيّة والحاجة إلى خبراء في اللهجات المختلفة، وإخفاقات الشركة المستمرّة. على سبيل المثال، في أفغانستان، أزالت “ميتا” ما لا يزيد عن 1% من خطاب الكراهية، بينما “حذفت الخوارزميات المتعلّقة بـالمحتوى الإرهابي محتوى عربيّاً غير عنيف بنسبة خطأ بلغت 77% من الحالات”. بالإضافة إلى ذلك، تفشل هذه المنصّات في تطبيق الاستثناءات الخاصّة بالمحتوى ذي الأهميّة الإخباريّة أو السياسيّ، حتّى عندما تنطبق بوضوح. كما تعتمد تعريفاتٍ متحيّزةٍ للإرهاب والتطرّف العنيف عند الإشراف على المحتوى في المنطقة، بما في ذلك قوائم التصنيفات الإرهابيّة الصادرة عن الولايات المتّحدة.
كيف تشرف المنصّات على المحتوى بموجب هذه السياسات؟
تتمثّل المشاكل الأكثر شيوعاً التي يواجهها المستخدمون/ات بحذف المحتوى، وتعليق الحسابات، أو القمع الخفيّ للمحتوى عبر خفض ظهوره أو الحظر المُظلّل. يُعدّ الحظر المُظلّل “إخفاء المحتوى أو حذفه سراً من دون إشعار المستخدم/ة”. كما قد تُحذف الوسوم (الهاشتاغات) بطريقةٍ مماثلةٍ من خلال تقييد وصولها.
كما تلجأ المنصّات في إحدى ممارساتها الحديثة إلى وضع تحذيراتٍ على المحتوى، أحياناً بطريقةٍ تجبر المستخدمين/ات على النقر لرؤية المحتوى وتُعرف هذه التحذيرات بـ “التحذيرات البينيّة”. على سبيل المثال، غالباً ما تضع “ميتا” تحذيرات من المحتوى “العنيف” على الصور الصادرة من المنطقة، وأحياناً بشكلٍ خاطئ.
يمكن أن يؤدّي حذف المحتوى إلى تعليقٍ دائمٍ للحساب، وغالباً ما يُتاح الطعن في قرارات الحذف، بينما لا يمكن الطعن في الحظر المُظلّل أو التحذيرات أو تعليق الحسابات بشكلٍ عام.
كيف تؤثّر هذه المشاكل في الإشراف على المحتوى السياسي؟
تتابع عدّة منظمات قضايا الإشراف على المحتوى وتدعم المستخدمين/ات الذين/اللواتي يواجهون هذه المشاكل، منها مركز حملة (المحتوى المتعلّق بفلسطين)، و”سمكس” (المحتوى في الدول الناطقة بالعربية)، ومنظّمة “نيمونيك” (Mnemonic) (توثيق انتهاكات حقوق الإنسان). وقد وثّقت هذه المنظمات عمليّات حذفٍ واسعة النطاق للمحتوى الذي يغطّي أو يناقش انتهاكات حقوق الإنسان ويرثي فقدان الأرواح. كما أبلغت عن هذه الإشكاليّات منظماتٌ غير حكوميّة دوليّة وائتلافاتٌ عدّة، بما في ذلك أعضاء تحالف الحقوق الرقميّة في منطقة الشرق الأوسط وشمال إفريقيا، مثل “أكسس ناو” (Access Now)، ومؤسسة التخوم الإلكترونية (EFF)، ومنظّمة المادّة 19 (Article 19). وتعرّض محتوى شخصيّاتٍ وناشطين/ات بارزين/ات للحذف أيضاً. تناول مجلس الإشراف التابع لشركة “ميتا” عدّة قضايا تتعلّق بفلسطين وإيران وعددٍ من الدول الناطقة بالعربية، وأصدر توصياتٍ عدّة بشأن الإشراف على المحتوى باللغة العربيّة، والمحتوى المتعلّق بحقوق الإنسان، والمحتوى الإخباري.
للرقابة على المحتوى تأثيراتٌ كبيرةٌ في المنطقة. إذ تجري حالياً هيئاتٌ أمميّةٌ عدّة، مثل المحكمة الجنائية الدولية، ومحكمة العدل الدولية، والمحاكم الأوروبيّة التي تتمتّع بولايةٍ قضائيّةٍ عالميّة، تحقيقاتٍ متعلّقة بفلسطين، وسوريا، والعراق، والسودان، وجنوب السودان، وليبيا، وإيران. ويمكن أن تدعم هذه التحقيقات الدوليّة الأدلة التي تُوثّق وتُنشَر عبر وسائل التواصل الاجتماعي، ما يزيد من اهتمام الهيئات الدوليّة للوصول إلى هذا النوع من المحتوى الحيوي. ولكن للأسف، تُحذف كميّاتٍ هائلةٍ من الأدلة بسبب الإشراف المفرط والمعيب على المحتوى. وقد بذل المدافعون/ات عن حقوق الإنسان جهوداً كبيرة لوضع آليّةٍ تتيح للمستخدمين/ات طلب الحفاظ على هذا المحتوى، ولكن حتّى الآن لم تسفر هذه الجهود سوى عن حفظ محتوى معيّن في ظروفٍ محدودة، مثل الحرب في أوكرانيا، مع استثناء فلسطين وسوريا وباقي منطقة الشرق الأوسط وشمال إفريقيا.
علاوةً على ذلك، في المناطق التي تعاني من الأزمات بشكلٍ كبير، مثل غزة وكافّة الأراضي الفلسطينية، تعرّضت بعض وسائل الإعلام الدوليّة والمحليّة للتضييق المتعمّد، مما دفع الأفراد إلى الاعتماد على وسائل التواصل الاجتماعي للاطلاع على التطوّرات المهمّة. على سبيل المثال، قدّمت حسابات “إنستغرام” تغطية ميدانية فوريّة حول مواقع سقوط القنابل الإسرائيليّة في لبنان. ويُعدّ هذا النوع من التغطية المباشرة من المستخدمين/ت العاديين/ات والإعلام المستقلّ ضرورياً.
هل هناك تأثيرات أخرى تتعدّى حذف المحتوى السياسي المهمّ؟
للأسف، يتأثّر المستخدمون/ات العاديّون/ات في المنطقة بشكلٍ كبيرٍ بهذه السياسات. فالأشخاص الذين ينعون أحبّاءهم ويشاركون في مناقشة الأحداث الجارية – حتّى تلك التي تغطّيها وسائل الإعلام الرئيسيّة – يعانون من تبعات هذه السياسات.
علاوةً على ذلك، لا تقتصر المشكلة على الحذف المفرط للمحتوى السياسي، بل تشمل أيضاً فشل المنصّات في إزالة خطاب الكراهية الذي يستهدف الفلسطينيين/ات وأعضاء مجتمع الميم الموسّع، بالإضافة إلى المستخدمين/ات المستضعفين/ات في المنطقة. يعكس هذا العنف والكراهية الإلكترونيّة العنف الذي يُمارس في الواقع ضدّ هذه الفئات. وحتّى عند توفّر هذه السياسات، غالباً ما تفشل المنصّات في تنفيذها بسبب نقص الاستثمار في الخبرات اللغويّة والثقافيّة المناسبة، أو في التكنولوجيا اللازمة للتنفيذ. على سبيل المثال، وكما نُوقش بالتفصيل هنا، كشف تقييمٌ أُجري في العام 2022 حول الإشراف على المحتوى المتعلّق بفلسطين في شركة “ميتا” غياب أدوات تصنيفٍ خاصّة بخطاب الكراهية باللغة العبريّة. وتُظهر تقارير من العام 2024 أنّ هذه المشكلة لا تزال قائمة. بالإضافة إلى ذلك، تتيح المنصّات نشر محتوى مدفوع ضارّ، مثل الإعلانات التي توافق عليها “ميتا”، وتتضمّن دعواتٍ للعنف أو تشجّع على تهجير الفلسطينيين/ات من الضفة الغربية.
كيف يؤثّر الإشراف على المحتوى على الفئات المهمشة بالفعل؟
كما هو الحال في أي منطقة أخرى، تبرز فئاتٌ مستضعفة من المستخدمين/ات على وسائل التواصل الاجتماعي في منطقة الشرق الأوسط وشمال إفريقيا، مثل النساء، ومجتمع الميم الموسّع والعمّال/العاملات المهاجرين/ات، والمدافعين/ات عن حقوق الإنسان. تُظهر التأثيرات التي تواجهها هذه الفئات بوضوحٍ مدى تأثير إخفاقات الإشراف على المحتوى وتسبّبها بأضرارٍ واقعيّة، تُمارَس غالباً من قبل الجيش أو الشرطة أو جهات غير حكوميّة. توضّح منظّمة المادة 19 أنّ الأساليب التي تعتمدها الدول في مراقبة أفراد مجتمع الميم الموسّع في المنطقة، بما في ذلك مراقبة وسائل التواصل الاجتماعي، “تُستخدم أيضاً ضدّ فئاتٍ مهمّشةٍ أخرى وضدّ عموم السكان”.
كشفت أبحاث منظّمة المادة 19 عن ممارسات استدراج أفراد مجتمع الميم الموسّع عبر حسابات وهميّة وجمع أدلّةٍ رقميّة، بما في ذلك منشورات على وسائل التواصل الاجتماعي. وقد أجرت المنظّمة مؤخّراً أوسع دراسة حول الأضرار الناجمة عن التكنولوجيا التي تطال أفراد مجتمع الميم الموسّع في المنطقة، وكشفت الدراسة عن إحصاءات صادمة. فبالإضافة إلى المستويات المرتفعة من العنف الشرطي واستهداف الأجهزة الشخصيّة، أفاد 25% من المشاركين/ات بأنهم/نّ تعرضوا للاستدراج من قبل الدولة أو الشرطة، بما في ذلك عبر “فيسبوك”.
وثّقت “سمكس” عدداً من القضايا المتعلّقة بالمحتوى الخاصّ بالصحّة والحقوق الجنسيّة والإنجابيّة وبالمدافعة عن حقوق مجتمع الميم الموسّع؛ إذ يُحذف هذا النوع من المحتوى بشكلٍ غير مبرّر، على الرغم من توفّر سياساتٍ من المفترض أن تحميه. وأظهرت أبحاثها أنّ “المحتوى العربي يواجه قيوداً أشدّ مقارنة بالمحتوى المماثل باللغة الإنجليزية”.
وإلى جانب عمليّات حذف المحتوى والاستدراج، وثّق أعضاء تحالف الحقوق الرقميّة في منطقة الشرق الأوسط وشمال إفريقيا، كيف تواجه النساء (خاصّةً المدافعات عن حقوق الإنسان) وأفراد مجتمع الميم الموسّع مستوياتٍ مرتفعةً من خطاب الكراهية، وفضح الهويّة الجنسانيّة، والابتزاز. وقد أظهرت أبحاث منظّمة المادة 19 أنّ 88% من المشاركين/ات في المقابلات الميدانيّة تعرّضوا بشكلٍ مباشرٍ لخطاب الكراهية عبر الإنترنت، بينما أفاد 51% منهم/نّ بعدم نجاح محاولاتهم/ن في الإبلاغ عن هذه الحالات. أطلقت الجمعيّة الأردنيّة للمصدر المفتوح، وهي عضو في تحالف الحقوق الرقمية في منطقة الشرق الأوسط وشمال إفريقيا، أداة ذكاء اصطناعي حديثة تُسمّى نهى، لمساعدة الباحثين/ات على اكتشاف خطاب الكراهية وتصنيفه. وقد جرى تدريب الأداة على “مجموعة بياناتٍ تمّ جمعها من مراقبة 20 وسماً رائجاً مرتبطاً بالنساء والحركة النسويّة في الأردن، إلى جانب 83 اسماً لناشطاتٍ ومؤثراتٍ أردنيات”.
يواجه العمّال/العاملات المهاجرون/ات في المنطقة مستوياتٍ مرتفعة من خطاب الكراهية، الذي لا يتمّ الإشراف عليه بشكلٍ كافٍ على وسائل التواصل الاجتماعي. وفي الوقت ذاته، وعلى الرغم من سنواتٍ من الجهود الحقوقيّة في بعض الدول، لا تزال بعض العاملات المنزليّات يُبَعْن بمزادٍ علنيٍّ غير قانونيٍّ على مواقع التواصل الاجتماعي، بما في ذلك منصّاتٍ كبرى مثل “إنستغرام”.
كما وثّقت مؤسّسة التخوم الإلكترونية كيفيّة تأثير قوانين الجرائم الإلكترونيّة في عددٍ من الدول على حريّة التعبير في المنصّات الرقميّة، لا سيّما في ما يتعلّق بالقضايا المرتبطة بمجتمع الميم الموسّع.
ما هي البدائل المتاحة للمنصّات الاجتماعيّة الكبرى؟
يتوفّر عددٌ من البدائل لمنصّات “ميتا”، و”تيك توك”، و”يوتيوب”، و”تويتر/إكس”، ولكن للأسف، معظم هذه البدائل لا تتيح للمستخدمين/ات الوصول إلى جمهورٍ كبيرٍ بنفس الحجم.
عند اختيار المنصّة البديلة، من المهمّ النظر في النقاط التالية:
- من يملك المنصّة؟ ما هي مصالحهم الماليّة وتوجّهاتهم السياسيّة؟
- من يملك البيانات وأين تُخزّن؟ هل تُخزّن في خادمٍ مركزيٍّ أم تُوزَّع على خوادم حول العالم؟ وهل تُخزّن البيانات في ولاياتٍ قضائيّة قد تشكّل تهديداً أمنيّاً للمستخدم/ة؟
- ما هي قواعد الإشراف على المحتوى واستراتيجيات إنفاذها؟ هل تتمّ إدارة الإشراف مركزياً أم من خلال المجتمع؟ وهل القواعد واضحة؟
- هل يمكن نقل البيانات من هذه المنصّة إلى منصّاتٍ أخرى بسهولةٍ أم أنّ العملية معقّدة؟
- هل المنصة جزء من الـ “فِدِيفِرس” (Fediverse)؟
يركّز عددٌ من دعاة الإنترنت المفتوح على الـ “فِدِيفِرس”، وهو “نظامٌ بيئيٌّ مترابطٌ من منصّات التواصل الاجتماعيّ يعتمد على بروتوكول مفتوح يُسمى ActivityPub، يسمح للمستخدمين/ات بنقل محتواهم/نّ وبياناتهم/نّ وشبكة متابعيهم/نّ بين الشبكات المختلفة”. وقد بدأ الكثير من الأشخاص في الوصول إلى الـ “فِدِيفِرس” عبر استخدام منصّة “ماستودون” (Mastodon).
مجلس الإشراف التابع لشركة “ميتا”
مجلس الإشراف هو هيئةٌ أنشأتها شركة “ميتا” لاتّخاذ قراراتٍ بشأن قضايا فرديّة تتعلّق بإشراف الشركة على المحتوى، إضافةً إلى تقديم توصياتٍ استشاريّةٍ تتعلّق بالسياسات. يتمتّع المجلس باستقلاليّةٍ قانونيّةٍ، يمولّه صندوقٌ ائتمانيٌّ أنشأته “ميتا”، وهو في الأساس مجموعةُ من الأموال خصّصتها “ميتا” ولا تملك السيطرة عليها. مع ذلك، لا يزال تعيين بعض الأمناء/الأمينات، ومن بينهم/نّ من تمّ اختيارهم بموافقة “ميتا”، يثير الجدل حول مدى استقلاليّة المجلس. بالإضافة إلى ذلك، جرى تعيين معظم أعضاء المجلس في وقتٍ كانت فيه “ميتا” تملك الكلمة الأخيرة في اختيارهم/نّ. وعلى الرغم من ذلك، قدّم المجلس عدداً من التوصيات التي تعكس المطالب التي طرحتها منظمات المجتمع المدني في منطقة الشرق الأوسط وشمال إفريقيا.
يتّخذ المجلس قراراتٍ بشأن قضايا فرديّة تتعلق بمحتوى منشور على منصّات “فيسبوك”، و”إنستغرام”، و”ثريدز”، سواء كان القرار يتعلّق بإبقاء المحتوى أو إزالته. كما يتعامل المجلس مع طلبات الاستشارات حول السياسات العامّة (“آراء استشاريّة”) ويصدر أحكاماً في القضايا “المُستعجَلَة”.
ما هي القواعد التي يطبّقها المجلس؟
يعتمد المجلس في قراراته على تفسير القانون الدولي لحقوق الإنسان، لا سيّما المادّتَيْن 19 و20 من العهد الدولي الخاص بالحقوق المدنيّة والسياسيّة، إلى جانب السياسات الداخلية لشركة “ميتا”. يمكن الاطّلاع على المزيد من التفاصيل حول السياسات التي تطبّقها “ميتا” عبر دليل الأسئلة المتكرّرة هذا (رابط داخليّ). ويعتمد المجلس بشكلٍ عامّ على صيغةٍ قياسيّةٍ للنظر في القضايا، تُطبَّق من خلالها قاعدة اختبارٍ ثلاثيٍّ لتقييم القيود على حريّة التعبير، يجب أن تستوفي شروط الشرعيّة، والهدف المشروع، والضرورة والتناسب. استند المجلس في قراراته إلى عددٍ من التقارير والقرارات الصادرة عن الأمم المتحدة، بما في ذلك تقارير المُقرّر الخاصّ المتعلّقة بالإشراف على المحتوى.
بشكلٍ عامّ، يفسّر المجلس الشرعيّة بما يتماشى مع توجيهات الأمم المتحدة، التي تنصّ على ضرورة أن تكون القواعد مكتوبةً بشكلٍ واضحٍ ودقيق يسمح للمستخدمين/ات باتّباعها بسهولةٍ وأن تكون متاحةً للجميع. وقد أوصى المجلس بأن تكون سياسات الإشراف على المحتوى سهلة الوصول والفهم، وأن تراعي السياق الإقليميّ واللغويّ عند الضرورة، وأن تتضمّن أمثلةً توضيحيّةً عند الحاجة. ولوحظ تغييرٌ في سياسات “ميتا” منذ بدء المجلس بالنظر في القضايا، إذ أصبحت تلك التغييرات موثّقة مع تعقّب التعديلات في مركز الشفافيّة التابع لـ “ميتا”. كما أشار المجلس إلى بروز مشاكل تتعلّق بالشرعيّة، مثل عدم التوضيح أنّ سياسة “فيسبوك” تنطبق أيضاً على منصّة “إنستغرام”.
تشمل الأهداف المشروعة حماية “حقوق الآخرين أو سمعتهم، أو الأمن القومي، أو النظام العام، أو الصحة العامّة، أو الآداب العامّة”. وقد أكّد المجلس أنّ الأهداف المشروعة لا تشمل تجنّب الإساءة، ولكنّها تشمل مكافحة الإرهاب وإزالة المحتوى الذي يحرّض على العنف. وللمجلس سجلٌّ متناقضٌ في معالجة المحتوى قد لا يصل إلى مستوى التحريض المباشر على العنف، ولكنّه قد يرتبط به بطرقٍ أقلّ وضوحاً وقياساً. ومن الأمثلة على ذلك المحتوى الذي يستهدف المهاجرين/ات في فرنسا، أو التنكّر بوجهٍ أسود في هولندا، أو حتّى المحتوى المعادي للسامية. )الإشارة إلى هذه القضايا الثلاث، التي تتضمّن كافّةً آراء كثيرة لأقليّات).
لا تزال مفاهيم الضرورة والتناسب غير محددة بشكل دقيق، ولكن المجلس ينظر عادةً في التدابير البديلة مثل وضع تحذيرات على المحتوى (warning screens). كما طلب المجلس مراراً من “ميتا” تقديم تقارير علنية أو سرية حول ممارساتها لفهم تأثيرها بشكل أفضل.
لا تُعرّف الضرورة والتناسب بشكلٍ واضح، لكن عادةً ما ينظر المجلس في تدابير بديلةٍ مثل شاشات التحذير، وغالباً ما يطلب من “ميتا” تقارير عامّةً أو سريّةً حول ممارساتٍ معيّنةٍ لفهم تأثيرها بشكلٍ أفضل. تمّت دراسة بعض التدابير البديلة بشكلٍ واسعٍ في ما يتعلّق بـ “المحتوى الإرهابي” وأنواعٍ أخرى من المحتوى أيضاً، مثل خطاب الكراهية، بما في ذلك الحدّ من التعليقات، وإضافة شاشات تحذير، أو منع مشاركة المنشورات. ويشتكي عددٌ كبيرٌ من المستخدمين/ات في منطقة غرب آسيا وشمال إفريقيا من إجراءٍ آخر تنفي “ميتا” اللجوء إليه، وهو الحظر المظلّل الذي يُقيّد وصول منشورات المستخدمين/ات من دون إشعارهم/نّ بذلك.
لا تكثر حالات رجوع المجلس إلى العوامل الستّة لخطّة عمل الرباط كلّها عند اتخاذه قرارات. وتشمل هذه العوامل:
- السياق الاجتماعي والسياسي
- يشمل هذا العامل الخطابات المتعلّقة بالانتخابات أو تلك التي تُلقى أثناء إبادةٍ جماعيّة.
- المتحدِّث/ة
- يشكّل عامل المتحدِّث/ة المؤثر/ة عاملاً مهماً؛ على سبيل المثال، خطابات التحريض على العنف ضدّ الأقليّات العرقيّة التي يُلقيها مسؤولون/ات منتخبون/ات.
- النيّة
- يشير هذا العامل إلى نيّة المتحدّث/ة الفعليّة في التحريض على العنف.
- المحتوى
- يتناول هذا العامل بطبيعة الحال محتوى الخطاب مثل الكلمات والصور المستخدمة فيه.
- نطاق الخطاب
- يُعنى هذا العامل بمدى انتشار الخطاب، مثل إذا كان مقطع فيديو سريع الانتشار أو منشوراً على صفحةٍ خاصّةٍ تضمّ 10 متابعين/ات.
- احتماليّة التسبّب في ضررٍ، بما في ذلك الضرر الوشيك.
لمزيدٍ من المعلومات حول خطّة عمل الرباط، يمكنكم قراءة تحليل منظّمة المادة 19 على هذا الرابط، وتحليل ديفيد كاي، المقرّر الخاصّ السابق للأمم المتحدة المعني بحريّة الرأي والتعبير، حول كيفيّة تطبيقها في مجال الإشراف على المحتوى، على هذه الصفحة.
كيف يمكن تقديم استئناف إلى مجلس الإشراف؟
يوفّر موقع مجلس الإشراف إرشاداتٍ كاملةً حول كيفيّة تقديم الاستئناف يمكن مراجعتها على هذا الرابط، وفي ما يلي ملخّصٌ لأهمّ النقاط التي يجب على المستخدمين/ات معرفتها في حال أرادوا تقديم استئناف:
- يبقى احتمال قبول المجلس للقضيّة منخفضاً للغاية؛ ومع ذلك، كلّما كان للقضية أبعاد أوسع، زادت فرصة قبولها.
- لا يملك المجلس سلطةً على قرارات تعليق الحسابات أو الإعلانات.
- يجب تقديم استئناف أوليّ إلى “ميتا” بخصوص القرار المتعلّق بالمحتوى، وانتظار أن ترسل الشركة رقم تعريف (ID) لدى مجلس الإشراف.
- بمجرّد الحصول على رقم التعريف، يمكن إدخاله على موقع المجلس. قد يتعيّن عليكم السماح للمجلس بالوصول إلى بعض المعلومات الخاصّة. يمكنكم الاطلاع على سياسة الخصوصيّة الخاصة بالمجلس على هذا الرابط.
لتحقيق أفضل فرصة لقبول الاستئناف، يُنصح بفهم ما حصل: هل القرار الصادر عن “ميتا” يخالف سياساتها الحاليّة أم هناك فجوة في السياسات يجب على المجلس معالجتها؟ سيُتاح لكم تقديم بيان توضّحون فيه موقفكم، ومن المفيد شرح منطقكم وأسباب استئنافكم بوضوح. لن يكشف المجلس هويّتكم أو تفاصيل المحتوى الخاص بكم عمداً، ولكن من المهمّ أن تدركوا أنّه قد يترتّب على قبول المجلس للقضية مخاطر أمنيّة. لذا يُنصح بأخذ ذلك في عين الاعتبار.
بمجرّد قبول القضيّة، يفتح المجلس الباب للتعليقات العامّة. يمكنكم مشاركة إعلان القضيّة وتشجيع الآخرين على تقديم تعليقاتهم. كما يمكنكم الاطلاع على التعليقات التي قُدّمت في قضايا سابقة، مثل التعليقات العامّة حول الرأي الاستشاري للإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة “شهيد”، أو التعليقات حول قضيّة مشاركة منشور الجزيرة. لمزيد من التفاصيل حول الرأي الاستشاري المتعلّق بكلمة “شهيد”، يمكنكم قراءة تحليل “سمكس” لقرار المجلس واستجابة “ميتا” غير الكافية. ولمزيدٍ من التفاصيل حول قضيّة مشاركة منشور الجزيرة، يمكنكم الاطّلاع على المزيد على هذا الرابط وهذه الصفحة.
في حال قبل المجلس النظر في استئنافكم، يمكنكم التواصل مع تحالف الحقوق الرقمية في منطقة الشرق الأوسط وشمال إفريقيا للحصول على الدعم. يمكن للتحالف مساعدتكم في فهم العمليّة وتحديد كيفيّة المشاركة فيها.
سياسات محدّدة لبعض المنصّات
إلى جانب السياسات التالية، تجدر الإشارة إلى أنّ المحتوى المتعلّق بالصحة والحقوق الجنسيّة والإنجابيّة غالباً ما يتأثّر بسياساتٍ ضعيفة التصميم. وكما أوضحت “سمكس”، “فالمنصات لا تملك سياسات خاصّة بالصحّة والحقوق الجنسيّة والإنجابيّة، فتضيع الأحكام المتعلّقة بها بين مختلف السياسات، لا سيّما إرشادات المجتمع وسياسات الإعلانات. وغالباً ما تندرج هذه القوانين تحت مًسمى محتوى “للبالغين/ات” أو “جنسي”، ما يفتح الطريق أمام القوانين الرديئة والمسّرعة”.
شركة “ميتا”
يمكن الاطلاع على كافّة سياسات “ميتا” في مركز الشفافية التابع لها، حيث توفّر المنصة معلومات أكثر من أيّ منصةٍ أخرى حول سياساتها وآليّات تنفيذها. يتناول المركز كيفيّة استخدام “ميتا” للأتمتة وآلية تطبيق العقوبات مثل الإنذارات التي قد تؤدّي إلى تقييد الحسابات أو تعليقها.
كما يوضّح المركز كيفيّة اتخاذ “ميتا” قرارات الإبقاء على المحتوى ذي الأهمية الإخباريّة، حتّى لو كان من الممكن إزالته في ظروفٍ أخرى. إذ ينظر في “ما إذا كان المحتوى يشكّل تهديداً وشيكاً على الصحّة العامة أو السلامة”، أو يعطي صوتاً لآراء تُناقَش حالياً كجزءٍ من عمليّةٍ سياسيّة”. مع ذلك، فإن هذه التوضيحات قد تكون أحياناً مكتوبة بطريقةٍ غامضةٍ تخفي بعض التفاصيل المهمّة.
ومن بين السياسات المختلفة المطبَّقة على منصّات “ميتا”، تُعتبر سياسة المنظّمات الخطرة والأفراد الخطرين الأكثر تأثيراً على المحتوى في منطقة الشرق الأوسط وشمال إفريقيا.
المنظمات الخطرة والأفراد الخطرون
تعتمد هذه السياسة على قائمة “المنظّمات الخطرة والأفراد الخطيرين”. وتنقسم القائمة إلى فئتَيْن، الأولى والثانية. تركّز الأولى على الكيانات والأفراد الذين يستهدفون المدنيين/ات. وتمنع سياسة “ميتا” تمجيد المنظّمات الخطرة أو الأفراد الخطيرين ودعمهم وتمثيلهم بصورةٍ إيجابيّةٍ. كما تتضمّن السياسة بنداً يسمح للمستخدمين/ات بمشاركة محتوى “يستهدف الإبلاغ عن المنظّمات الخطرة والأفراد الخطرين أو عن أنشطتها أو إدانتها أو مناقشتها بشكلٍ محايد”.
وتشمل الفئة الأولى التي صنّفتها حكومة الولايات المتّحدة على أنّها ضمن زعماء الاتجار بالمخدرات المُصنّفين تحديداً (SDNTK)؛ والمنظّمات الإرهابية الأجنبية (FTO)، والإرهابيّون العالميّون المُصنّفون تحديداً (SDGT).
جرت عملية تحديث السياسة بشكلٍ واسعٍ في أواخر كانون الأوّل/ديسمبر 2023 وأوائل شباط/ فبراير 2024. أضيف في كانون الأوّل/ ديسمبر 2023 حظرٌ على “تمجيد” الكيانات الخطيرة، وألغي الحظر السابق على “الإشادة” بها، على الرغم من أنّ الفرق العمليّ بين “التمجيد” و”الإشادة” محدود. كما أضيف حظرٌ على “الإشارات الغامضة” للكيانات الخطيرة. ولم تُقدَّم أمثلة على ذلك، لكن وافقت “ميتا” على توفيرها استجابةً لتوصية من مجلس الإشراف. أضيف الشرح في 8 شباط/ فبراير 2024.
المشاكل:
التحيّز في ما يُغطّى ومن يُصنّف: لا تشمل قوائم التصنيف الأمريكيّة عدداً من الفئات التي تستهدف المدنيين/ات، بما في ذلك الجماعات اليمينيّة المتطرّفة المحليّة في الولايات المتّحدة مثل “فتيان الفخر” (Proud Boys). ولا يبدو أنّ سياسة “ميتا” تغطّي أنواع عدّة من المعلومات الخاطئة أو نظريّات المؤامرة المرتبطة بشكلٍ مباشرٍ بالأضرار الواقعيّة، مثل “نظرية الاستبدال العظيم”، التي كانت الأساس في بيان منفّذ مجزرة “كرايستشيرش” في العام 2019 والتي تكرّرت بشكلٍ واسعٍ في بياناتٍ أخرى مماثلة منذ ذلك الحين. وأخيراً، لا يتمّ تناول الإرهاب الذي ترعاه الدول في سياسة المنظّمات الخطرة والأفراد الخطرين ولا في سياسات “ميتا” بشكلٍ عام.
الأهمية الإخباريّة والتقارير الإخباريّة: تسمح سياسة المنظّمات الخطرة والأفراد الخطرين بـ “المحتوى الذي يُبلّغ عن المنظمات الخطرة أو يدينها أو يناقش أنشطتها بشكلٍ محايد.” ومع ذلك، من غير الواضح ما إذا طُبّق هذا الاستثناء أو استثناء “الأهمية الإخباريّة” على المحتوى المتعلّق بأحداث 7 تشرين الأوّل/ أكتوبر 2023. وتشير المفارقات إلى عكس ذلك، إذ حُذف منشورٌ لرئيس وزراء ماليزيا على “فيسبوك” قدّم فيه تعازيه بعد اغتيال إسماعيل هنية، رئيس المكتب السياسي لحركة حماس. ردّت “ميتا” بأنّ حذف المحتوى كان “خطأً”، وأعادت المنشور وأضافت إليه علامة تفيد بأنّه “مسموحٌ به لزيادة الوعي العام.” ولكن لم يُتراجع عن قرار حذف عددٍ من المحتويات المماثلة، على الرغم من أنّ هذا النوع من المحتوى يستوفي بوضوحٍ معايير “ميتا” المتعلّقة بالأهميّة الإخباريّة.
السلوك المحرِّض على الكراهية
في السابق، كان لدى “ميتا” سياسة خاصّة بخطاب الكراهية تمنع الهجمات المباشرة على الخصائص المحميّة. وتشمل الهجمات “خطاب التجريد من الإنسانيّة، وتصريحات الدونيّة والإهانات أو التعبير عن الازدراء أو الاشمئزاز، والشتائم؛ والدعوات إلى الإقصاء أو الفصل”، بالإضافة إلى استخدام “الصور النمطيّة الضارّة” مثل التنكّر بوجهٍ أسود. وتتوافق الخصائص المحميّة إلى حدٍّ كبيرٍ مع الفئات التي وضعتها الأمم المتّحدة، وتشمل “العرق، والأصل العرقي، والأصل الوطني، والإعاقة، والانتماء الديني، والطبقة الاجتماعيّة، والميل الجنسي، والنوع الاجتماعي، الهويّة الجنسانيّة، والأمراض الخطيرة.” أمّا اللاجئون/ات، والمهاجرون/ات، والنازحون/ات، وطالبو/ات اللجوء، فهم/نّ محميون/ات من الهجمات الأكثر شدّةٍ فحسب. وتوضّح “ميتا” أنّه “أحياناً، وبناءً على الفروق المحليّة الدقيقة، نعتبر بعض الكلمات أو العبارات بمثابة بدائل شائعة الاستخدام للإشارة إلى مجموعات الخصائص المحميّة.”
تحتفظ السياسة الجديدة لـ “ميتا” بشأن “السلوك المحرّض على الكراهية” باللغة نفسها عموماً، ولكنّها الآن تحتوي على بنودٍ تسمح بمزيدٍ من الخطابات التي تستهدف مغايري/ات الهويّة الجنسانيّة والنساء والمهاجرين/ات. كما هو موضّحٌ هنا (رابط نحو فقرة الأسئلة المتكرّرة المتعلّقة “الفئات المهمّشة أصلاً”)، تتأثر هذه الفئات بشكلٍ غير متناسبٍ بسياسات الإشراف على المحتوى.
تتمثّل المشكلة في هذه السياسات في منطقة الشرق الأوسط وشمال إفريقيا في أنّ “الفروق المحليّة الدقيقة” والموارد المناسبة للإشراف على المحتوى باللغة العربيّة والعبريّة هما العاملان الأساسيّان. وكما اكتشف التدقيق الذي أجرته “شبكة الأعمال من أجل المسؤولية الاجتماعية” (BSR)، لم يكن لدى “ميتا” أدوات تصنيف لخطاب الكراهية باللغة العبريّة، مما سمح ببقاء الخطاب العنيف جداً منشوراً. من جهةٍ أخرى، أدّى استخدام أفراد مجتمع الميم الموسّع لمصطلحاتٍ مهينةٍ مستعادة من خطاب الكراهيّة باللغة العربيّة إلى إزالة المحتوى، وهو ما تراجع عنه مجلس الإشراف لاحقاً.
سياسة “ميتا” في التعامل مع كلمة “صهيوني”
في تمّوز/ يوليو 2024، أعلنت “ميتا” أنّها ستقوم “بإزالة المحتوى الذي يستهدف “الصهاينة” عبر مقارنات تجرّد من الإنسانية، أو دعوات إلى الأذى، أو نفي الوجود“، استناداً إلى أنّ “الصهيوني” في هذه الحالات غالباً ما يُستخدم كرمزٍ لليهود أو الإسرائيليين/ات.
وأكّدت رسالةٌ وقّعتها 73 منظّمةٌ من منظّمات المجتمع المدني قبل إعلان “ميتا” عن التغيير أنّ “السياسة المقترحة قد تؤدي بسهولةٍ إلى إساءة تفسير النقاشات حول الصهاينة – وبالتالي حول الصهيونيّة – على أنّها بطبيعتها معادية للسامية، مما يضرّ بمستخدمي/ات ‘ميتا’ ويقوّض الجهود الرامية إلى مكافحة معاداة الساميّة الحقيقيّة وكافّة أشكال العنصريّة والتطرّف والاضطهاد. إنّ معاملة مصطلح “صهيوني” معاملة مصطلحَيْ “يهودي” و”إسرائيلي”، سينتج عنه الخلط الخاطئ والضار بين انتقاد أفعال دولة إسرائيل ومعاداة السامية.” وبالرغم من هذه المخاوف الخطيرة التي عبّرت عنها منظّمات المجتمع المدني مراراً، مضت “ميتا” في تنفيذ التغيير. ومن المؤكّد أنّ هذه السياسة ستُنفّذ باستخدام الأتمتة، التي أثبتت كما ذُكر أعلاه أنّها تعاني من مشاكل تقنيّة وانحيازٍ في الإشراف على المحتوى باللغة العربيّة، ممّا يؤدي إلى نسبةٍ مرتفعةٍ من الإيجابيّات الزائفة.
حتّى في الحالات التي تُطبَّق فيها السياسة بشكلٍ دقيق، فمن شبه المؤكّد أنّها ستؤدي إلى إزالاتٍ تنتهك المعايير الدوليّة لحقوق الإنسان. يحظى الخطاب السياسيّ بأعلى مستوياتٍ من الحماية بموجب أحكام حريّة التعبير في المادّتَيْن 19 و20 من العهد الدولي الخاص بالحقوق المدنيّة والسياسيّة. ومن المهمّ أن نذكر أنّ نطاق هذا الحقّ “يشمل حتّى التعبيرات التي قد تُعتبر مهينة بشدّة”، على الرغم من أنّه يمكن تنظيم هذا النوع من الخطابات بشكلٍ مناسبٍ لأسبابٍ أخرى، مثل منع التحريض على العنف. (التعليق العام رقم 34، الفقرة 11).
العنف والتحريض
تحظّر هذه السياسة “اللغة التي تحرّض على العنف أو تسهّله، والتهديدات الموثوقة التي تستهدف السلامة العامة أو الشخصيّة.” قد يُزال المحتوى الذي يناقش أحداثاً سياسيّةً مرتبطةً بالاضطرابات الواقعيّة بموجب هذه السياسة، حتّى لو لم يكن المحتوى نفسه يشجّع على العنف بشكلٍ مباشر.
المحتوى العنيف
تحظّر سياسة المحتوى العنيف الخاصة بـ “ميتا” قائمةً واسعةً من الصور والفيديوهات الدمويّة للبشر والحيوانات. في بعض الحالات، تسمح “ميتا” بنشر هذا النوع من المحتوى مع وضع شاشة تحذير. يشمل هذا النوع من المحتوى ما قد ينشره المستخدمون/ات من مناطق النزاع، مثل مشاهد الوفاة العنيفة، أو شخص يتعرّض لتهديدٍ بالقتل، أو أعمالٍ وحشيّة.
تشير السياسة إلى ما يلي: “ندرك أنّ المستخدمين/ات قد يشاركون المحتوى لتسليط الضوء على أعمال مثل انتهاكات حقوق الإنسان أو النزاعات المسلحة. تأخذ سياساتنا هذا السياق في الاعتبار، وتفتح المجال للنقاش وزيادة الوعي حول ذلك.”
ومع ذلك، غالباً ما يُزال المحتوى من منطقة الشرق الأوسط وشمال إفريقيا بموجب هذه السياسة، حتّى عندما يكون بوضوحٍ ضمن الاستثناءات المسموح بها.
“تيليغرام”
على عكس المنصّات الأخرى المذكورة هنا، لا يتمتّع تطبيق المراسلة “تيليغرام” بأيّ وجودٍ قانونيٍّ في الولايات المتّحدة أو ليس لديه أيّ اتّصالٍ مباشرٍ بها. ويحمل مؤسّس التطبيق، بافل دوروف، جنسيّاتٍ عدّة، منها الإماراتيّة.
يُستخدَم “تيليغرام” على نطاقٍ واسعٍ في منطقة الشرق الأوسط وشمال إفريقيا لتنظيم المعلومات ومشاركتها. ولكن للأسف، تستغلّه أيضاً جهاتٌ سيّئة لنشر الكراهية ضدّ الفئات المهمّشة، وتنظيم العنف الانتقامي، وتستخدمه الحكومات لنشر المعلومات الخاطئة ومراقبة الناشطين/ات من خلال استغلال الثغرات الأمنيّة.
اضطلع “تيليغرام” بدورٍ كبيرٍ في إيران؛ فقد حلّ مكان “الإنترنت” بالنسبة للكثيرين/ات، كما كان الحال مع “فيسبوك” في ميانمار. شكّل “تيليغرام” منصّةً أساسيّةً لتنظيم احتجاجات 2017-2018، وعلى الرغم من حظر الحكومة الإيرانيّة للتطبيق، لا يزال الناشطين/ات يستخدمونه عبر الشبكات الافتراضيّة الخاصة ّ(VPNs). وكما هو الحال في باقي المنطقة، تفضّل سياسات الإشراف على “تيليغرام” دعم الحكومة على حساب الناشطين/ات. في خلال احتجاجات 2017-2018، وافق “تيليغرام” على طلب الحكومة الإيرانيّة بحجب قناة زُعم أنّها تحرّض على العنف. وموخّراً، رفض “تيليغرام” إزالة قنوات تستخدمها الحكومة لجمع البيانات عن المدافعين/ات عن حقوق الإنسان ومضايقتهم/نّ، ولكنّه وافق على إغلاق قنوات زُعم أنها تابعة لحركة “حماس”.
على المستوى العالمي، استُخدم “تيليغرام” كمنصّةٍ لتنظيم النازييّن/ات الجدد والجماعات اليمينيّة المتطرّفة، وبيع المخدرات والأسلحة، وغيرها من الأنشطة غير القانونية، ممّا أدّى إلى فرض حظرٍ عليه وزيادة الضغوط لتشديد سياساته المتعلّقة بالإشراف على المحتوى.
- ربما لهذا السبب، أعلن بافل دوروف في أيلول/ سبتمبر 2024 أن “تيليغرام” سيبدأ في تشديد الرقابة على “المحتوى الإشكاليّ“، مثل الاحتيال والإرهاب، من خلال “أدوات ذكاء اصطناعيّ متطوّرة”. كما أعلن أنّ الشركة ستبدأ في مشاركة بيانات المستخدمين/ات، بما في ذلك عناوين بروتوكول الإنترنت وأرقام الهواتف، مع الجهات القانونيّة “استجابةً لطلباتٍ قانونيّةٍ صالحة.”
“يوتيوب”
تعاني سياسات الإشراف على المحتوى في “يوتيوب” من المشاكل نفسها المتعلّقة بالأتمتة والتحيّز التي تعاني منها “ميتا”، ولكنّها تُستخدم بشكلٍ مختلف. فعلى مدار السنوات، كان لهذه السياسات تأثيرٌ سلبيٌّ كبيرٌ على أرشيفاتٍ واسعةٍ من انتهاكاتٍ موثّقةٍ لحقوق الإنسان في سوريا، بحسب ما وثّقته منظّمة “نيمونيك”، العضو في تحالف الحقوق الرقميّة في منطقة الشرق الأوسط وشمال إفريقيا. مؤخّراً، قام “يوتيوب” بإزالة محتويات من فلسطين وأوقف إمكانيّة تحقيق الدخل منها.
تشمل السياسات المتعلّقة “بالمحتوى العنيف والخطير”:
- “التنظيمات الإجراميّة المتطرّفة العنيفة”
- “المحتوى الذي يضمّ مشاهد عنيفة أو قاسي”
- “الكلام الذي يحضّ على الكراهية”
“تويتر” /”إكس”
وثّقت أبحاثٌ عدّة أجراها أعضاء تحالف الحقوق الرقميّة في منطقة الشرق الأوسط وشمال إفريقيا إزالة محتوى كبير على “تويتر/أكس” على مرّ السنوات، ولكن في الآونة الأخيرة برزت قضايا محدّدة مثل:
- السلوك الباعث على الكراهية
- مرتكبو/ات الهجمات العنيفة / الكيانات التي تنتهج العنف وتحضّ على الكراهية
- سياسة المحتوى العنيف
“تيكتوك”
تشمل سياسات “السلامة والممارسات الأخلاقيّة”:
- الكلام الذي يحضّ الكراهية والسلوك الذي يحضّ على الكراهية
- المنظمات والأفراد الذين/اللواتي يتّسمون بالعنف والكراهية
تشمل سياسات “المحتوى الصادم والسافر” ما يلي: