مسؤولية شركات التكنولوجيا في عصر التوثيق الرقمي لانتهاكات حقوق الإنسان


malabdallah

إشعار من موقع يوتيوب بأن أحد مقاطع الفيديو غير متاح

على مدار الأسابيع القليلة الماضية، قام موقع يوتوب، مزود خدمة بث ونشر الفيديوهات، بحذف الآلاف من مقاطع الفيديو وعدد كبير من قنوات اليوتوب التابعة لمنظمات وأفراد يعملون على توثيق الفظائع من النزاع السوري. وعلى الرغم من استرجاع بعض القنوات ومقاطع الفيديو بعد تقديم الشكاوى، إلا أن العديد من مقاطع الفيديو المهمة لا تزال مفقودة. وتُعد عملية الحذف جزءاً من الجهود التي يبذلها محرك البحث (غوغل) لتنفيذ تقنية التعلّم الآلي التي تعمل تلقائياً على إزالة مقاطع الفيديو التي يُزعم أنها تنتهك معايير استخدام يوتوب. وفي حين أن نظام الحذف الآلي قد خفض بشكل ملحوظ عدد مقاطع الفيديو التي تروّج للعنف، كانت إحدى العواقب غير المقصودة فقدان الأدلة لجهود المساءلة الحالية والمستقبلية في سوريا. ومع التكنولوجيا المتوفرة في يومنا هذا، يمكن لشركات وسائل التواصل الاجتماعي، بل ويجب عليها، أن تستوعب حقوق الإنسان في نُظُمها وسياساتها.

لم يكن يوتوب رديفاً دائماً لتوثيق انتهاكات حقوق الإنسان. فمن الناحية التقليدية، استخدمت جماعات حقوق الإنسان القلم والورقة لتسجيل شهادات الضحايا والشهود خلال سعيها لتحقيق المساءلة أو لتعزيز معايير العدالة وحقوق الإنسان. وحتى في يومنا هذا، لا تزال المقابلات ضرورية لهذا الجهد، ولكن الأدوات الرقمية وسّعت قدراتنا على توثيق الفظائع، بل وعلى القيام بذلك وقت وقوعها. حيث بات الآن بوسع أي شخص لديه هاتف ذكي أن يحمّل مقاطع فيديو على الانترنت وأن يساهم في مبادرات حقوق الإنسان. ولكن يبقى هناك متشككون في المحتوى الذي تتم مشاركته على وسائل التواصل الاجتماعي. فقد تردّد العديد من المدّعين العامين والمحاكم في التخلي عن تصورهم التقليدي لسلسلة العهدة واعتماد صحة البيانات لصالح البحث وبناء القضايا استناداً إلى المصدر المفتوح للمعلومات. ومع ذلك، فقد أصدرت المحكمة الجنائية الدولية مؤخراً أمراً باعتقال محمود الورفلي، وهو قائد ميليشيا ليبية متّهم بارتكاب العشرات من جرائم القتل في منطقة بنغازي، على أساس سبعة مقاطع فيديو تم مشاركتها على وسائل التواصل الاجتماعي، بما في ذلك مقطع فيديو منشور على فايس بوك. وفي حين أن المحكمة الجنائية الدولية ليست بالتأكيد المحكمة الأولى التي تعتمد بشكل كبير على وسائل التواصل الاجتماعي، إلا أن هذا القرار يمثّل نقطة تحول هامة للعدالة الدولية.

ولا شك أن انتشار وسائل التواصل الاجتماعي فد أفضى إلى لحظة تاريخية فاصلة. حيث غدت سوريا، على وجه الخصوص، حقل تجارب للتوثيق باستخدام وسائل التواصل الاجتماعي بسبب الحجم غير المسبوق من مقاطع الفيديو التي يسجّلها ويحمّلها ناشطون ومواطنون صحفيون على منصات مثل الفايس بوك ويوتوب لنشر الفظائع التي لم يكن يتم الإبلاغ عنها في الماضي. ويحتفظ يوتوب غالباً بالإصدار الوحيد من مقطع الفيديو المتوفر، مما يُرتّب على حذفه عواقب وخيمة.

وهناك أسباب وجيهة وراء اعتماد الشركات على تقنيات التعلم الآلي لمراجعة المحتوى على منصات وسائل التواصل الاجتماعي، حيث أن التعلم الآلي فعّال من حيث التكلفة مقارنة مع المراجعة البشرية للفيديوهات. ففي كل دقيقة، يتم تحميل 300 ساعة من الفيديو على يوتوب، وهذا الرقم آخذ في الازدياد دائماً. وبالتالي، يتطلب الأمر جهداً بشرياً هائلاً لاستعراض فردي لكل فيديو يتم تحميله كل يوم. وهذه ليست بالمهمة التي يُحسَد المرء على القيام بها. وفقا لـ كيث هيات، نائب رئيس حقوق الإنسان في شركة التكنولوجيا غير الربحية بينيتيك (Benetech)، قد يعاني المراجعون اليدويون من أعراض الصدمة الثانوية (غير المباشرة) جرّاء التعرض ومشاهدة المحتوى العنيف والوحشي. ويمكن للآلات التخفيف من هذه الصدمة النفسية من خلال تقليل عدد مقاطع الفيديو التي يجب أن يشاهدها المراجعون من البشر.

وقد تمكنت تقنية التعلم الآلي أيضاً من حذف المحتوى الذي يتضمن خطاب الكراهية والدعاية المتطرفة. ولعبت حكومات أوروبية مثل ألمانيا دوراً محورياً في الضغط على شركات التكنولوجيا لوقف انتشار هذا المحتوى على الانترنت. وقد خطا موقع فايس بوك أكبر الخطوات في هذا الصدد، وتم الثناء عليه من المفوضية الأوروبية للسرعة الكبيرة التي يزيل بها المحتوى الذي يعتبر غير قانوني في معظم أنحاء أوروبا. وتمثّل الجهود التي بذلها محرّك البحث غوغل مؤخراً بخصوص يوتوب أيضاً خطوة رئيسية نحو قيام الشركة بتحديد هوية المحتوى المتطرف وحذفه.

وفي حين أن تكنولوجيا التعلم الآلي فعّالة من حيث التكلفة وتتمتع بالكفاءة، إلا أنها في شكلها الحالي ليست من الدقة بما فيه الكفاية للتمييز بين الدعاية المتطرفة أو العنف والتوثيق الذي تقوم به منظمات حقوق الإنسان. ونتيجة لذلك، تعرقل شركات التكنولوجيا دون قصد جهود المساءلة والعدالة عن طريق الحد من كمية المعلومات التي يمكن للمحققين والمدعين العامين الوصول إليها. وفي حالة يوتوب، بعد حذف المحتوى، لا يمكن تقديم الطعون إلا مرة واحدة لكل انتهاك. وإذا تم إقرار “الحذف” الأولي، فيجب على المستخدمين الانتظار لمدة 60 يوماً قبل الطعن في أي حذف مستقبلي بشأن المحتوى الخاص بهم. وعلاوة على ذلك، عند استعادة قناة ما، يحق لموقع يوتوب عدم إعادة محتوى القناة بالكامل. على سبيل المثال، لن يكون لدى المستخدمين الذين لقوا حتفهم أثناء النزاع فرصة للطعن في الرقابة التي تمارسها الشركة.

وأشار هيات إلى تغييرين محتملين في عملية الحذف الخاصة بمحرّك غوغل واللذين من شأنهما أن يساعدا في التخفيف من هذه الأخطاء. أولاً، إيقاف وإبطال قرارات الحذف الآلية الأخيرة من أجل مراجعة الأداء الآلي. وفقاً لـ هيات، فإن عملية المراجعة يمكن أن تستخدم عينة من فيديوهات بعض الصحفيين المعروفين ومنظمات حقوق الإنسان المعروفة وهذا يمكن أن يساعد في إصلاح الخوارزمية الآلية– بمعنى تعليم البرمجية ألا تقوم بحذف أنواع معينة من مقاطع الفيديو عن طريق تغذيتها بمجموعة تدريب أكثر دقة. وثانياً، يجب أن يستخدم غوغل ما يُطلِق عليه (هيات) “الشفافية الخوارزمية”. فمن خلال التحدث إلى منظمات حقوق الإنسان وشرح المعايير التي يتم من خلالها حذف المحتوى، يمكن للمجموعات ضبط سلوكيات التحميل الخاصة بها وفهم عملية الطعون بشكل أفضل.

ويجب على شركات التكنولوجيا أن تعترف بالإنجازات الهائلة التي يمكن أن يحققها موثّقو حقوق الإنسان بالبيانات المتاحة على الإنترنت. ومع قدرات التكنولوجيا المتوفرة في يومنا هذا، يمكن لمنتجات وسياسات شركات مثل يوتوب أن تؤثر بشكل كبير على هذه الإنجازات. وبناء على ذلك، من الحيوي أن تقوم هذه الشركات بتطوير ممارسات فُضلى لضمان عدم مساس السلامة والأمن بجهود المساءلة الحالية والمستقبلية في مجال حقوق الإنسان.

لمزيد من المعلومات أو لتقديم ردود الأفعال والآراء، يرجى إدراج تعليقك في قسم التعليقات أدناه، أو التواصل مع المركز السوري للعدالة والمساءلة على [email protected].

 




المصدر