"فيسبوك" توضح سبب فشلها في التصدّي لفيديو مذبحة نيوزيلندا
الخميس 21 مارس ,2019 الساعة: 08:33 مساءً
وكالات

أعلنت شركة "فيسبوك"، اليوم الخميس، أنّها مستمرة في التصدّي لخطاب الكراهية على منصّتها، بعد أسبوع على مذبحة نيوزيلندا، والتي وقعت يوم الجمعة الماضي. وقالت الشركة في بيان مفصّل، إثر انتقادات لاذعة طاولتها نتيجة فشلها في التصدّي بسرعة لانتشار فيديو المذبحة، إنّ أنظمتها لم تعمل تلقائياً عند نشر الفيديو، مؤكدةً أنّها تتصدّى لجماعات تؤمن بتفوّق العرق الأبيض.

 

ووضحت الشركة سبب فشلها في التصدّي مباشرةً للفيديو وإعاقة انتشاره، لكنّها حاولت التنصّل من كامل المسؤولية.

وقُتل 50 شخصاً في الاعتداء الإرهابي على مسجدي "النور" و"لينوود" في مدينة كرايست تشيرتش النيوزيلندية، على يد أسترالي يميني متطرّف وثّق جريمته في أحد المسجدين عبر فيديو مدته 17 دقيقة عبر "فيسبوك"، ولاقى انتشاراً واسعاً على منصات أخرى، كـ"يوتيوب" و"تويتر" و"ريديت"، واستمرّ بالتداول لساعات بعد الجريمة. وظهر المنفّذ في المقاطع يتنقّل داخل المسجد ويُطلق النار عشوائيّاً على المصلّين ويعود في بعض الأحيان للإجهاز على مَن بقي حيّاً بينهم.

 

وقالت الشركة: "نواصل إبقاء الناس والأسر والمجتمعات المتضررة من المأساة في نيوزيلندا في قلوبنا. منذ الهجوم، كنا نعمل مباشرة مع شرطة نيوزيلندا للرد على الهجوم ودعم التحقيقات. بالإضافة إلى ذلك، يتطلع الناس إلى فهم كيفية استخدام المنصات على الإنترنت مثل فيسبوك لنشر مقاطع الفيديو المروعة للهجوم الإرهابي، وأردنا تقديم معلومات إضافية من مراجعتنا حول كيفية استخدام منتجاتنا وكيف يمكننا تحسين المضي قدماً".

 

وأضافت: "كما نشرنا في وقت سابق من هذا الأسبوع، أزلنا مقطع الفيديو للمهاجم خلال دقائق من تواصل شرطة نيوزيلندا معنا. وفي أعقاب ذلك، أصبح لدينا أشخاص يعملون على أرض الواقع مع السلطات. سوف نستمر في دعمها بكل طريقة ممكنة. في ضوء التحقيق النشط، طلبت منا الشرطة ألا نشارك بعض التفاصيل".

 

ومن بين المعلومات التي "تستطيع فيسبوك مشاركتها حالياً" أنّ مقطع الفيديو تمّت مشاهدته حوالى 200 مرة خلال البثّ المباشر، فيما لم يُبلغ أي مستخدم عنه أثناء البثّ. وتمّت مشاهدة الفيديو 4 آلاف مرة قبل حذفه من قبل "فيسبوك"، فيما تم الإبلاغ عنه بعد 29 دقيقة من بدئه و12 دقيقة على انتهائه.

 

وخلال الساعات الأربع والعشرين الأولى، أزالت الشركة 1.2 مليون مقطع فيديو للهجوم عند التحميل، تمت إزالة حوالي 300 ألف نسخة إضافية بعد نشرها". وجميع هذه المعلومات أعلنتها "فيسبوك" سابقاً.

 

وقالت الشركة إنها تتصدى لأكثر من 200 منظمة على مستوى العالم تؤمن بتميز العرق الأبيض، وإنها تعمل على إزالة ما تنشره هذه المنظمات من محتوى على منصة فيسبوك من خلال تكنولوجيا الرصد الآلي.

 

وأشارت الشركة إلى أنّها "تدرك أنّ سرعة "فيسبوك لايف" تجلب تحديات مختلفة"، مضيفةً: "ركّزنا في السنوات القليلة الماضية على تمكين فريق المراجعة من الوصول إلى أهم مقاطع الفيديو بشكلٍ أسرع. نحن نستخدم الذكاء الاصطناعي لاكتشاف وترتيب أولويات مقاطع الفيديو التي من المحتمل أن تحتوي على أفعال انتحارية أو ضارة، وقمنا بتحسين السياق الذي نوفره للمراجعين حتى يتمكنوا من اتخاذ القرارات الأكثر استنارة، وبنينا أنظمة لمساعدتنا بسرعة في الاتصال بأول المستجيبين للحصول على المساعدة على الأرض. نواصل التركيز على الأدوات والتكنولوجيا والسياسات للحفاظ على أمان الناس في البث المباشر".

 

وأكدت الشركة أنّ أنظمة الذكاء الاصطناعي حقّقت تقدماً على مرّ السنين في العديد من المجالات، ما مكّنها من اكتشاف الغالبية العظمى من المحتوى الذي تزيله بشكلٍ استباقي، لكنّ تلك الأنظمة ليست مثاليّة.

 

ولامت الشركة المستخدمين قائلةً: "خلال البثّ المباشر بأكمله، لم يصلنا تقرير مستخدم واحد. هذا مهمّ لأنّ التقارير التي نحصل عليها أثناء بثّ مقطع فيديو مباشر تُعطي الأولويّة للمراجعة السريعة. نقوم بذلك لأنه عندما لا يزال الفيديو مباشرًا، إذا كان هناك ضرر حقيقي، تكون لدينا فرصة أفضل لتنبيه المستجيبين الأوائل ومحاولة الحصول على المساعدة على أرض الواقع".

 

وأشارت إلى أنّها وسّعت نطاق الاستجابة السريعة العام الماضي ليشمل مقاطع الفيديو المحمّلة حديثاً، مضيفةً: "نظرًا لتركيزنا على منع الانتحار، قمنا حتى الآن بتطبيق هذا التسريع عندما يتم الإبلاغ عن مقطع فيديو مباشر للانتحار".

 

وتابعت: "في حالة الجمعة، جاء تقرير المستخدم الأول بعد 29 دقيقة من بدء البث، وبعد 12 دقيقة من انتهاء البث المباشر. في هذا التقرير، وعدد من التقارير اللاحقة، تم الإبلاغ عن الفيديو لأسباب أخرى غير الانتحار، وبالتالي تمت معالجته وفقًا لإجراءات مختلفة. لنتعلّم من هذا، نحن نعيد فحص منطق تقديم البلاغات لدينا وخبراتنا في إعداد التقارير لكل مقاطع الفيديو الحيّة والمباشرة والحديثة، من أجل توسيع الفئات التي ستصل إلى المراجعة السريعة".

وبالنسبة لاستنساخ الفيديو وإعادة نشره، أشارت الشركة إلى أنّ مقطع الفيديو تلقّى 200 مشاهدة عند بثّه وتمت مشاهدته حوالى 4 آلاف مرة. خلال هذا الوقت، قام مستخدم (واحد أو أكثر) بالتقاط الفيديو وبدأ في تعميمه. واحد على الأقل من هؤلاء كان مستخدمًا في 8chan الذي نشر رابطًا لنسخة من الفيديو على موقع لتبادل الملفات، ونعتقد أن التداول على نطاق أوسع بدأ من هناك. ليست هذه المرة الأولى التي تظهر فيها مقاطع فيديو عنيفة، سواء تم بثها مباشرة أم لا، على العديد من المنصات عبر الإنترنت. على غرار الحالات السابقة، نعتقد أن التداول الواسع كان نتيجة لعدد من العوامل المختلفة، بينها أنّه تم التنسيق من قِبل "الجهات الفاعلة السيئة" لتوزيع نسخ من الفيديو على أكبر عدد ممكن من الأشخاص من خلال الشبكات الاجتماعية ومواقع مشاركة الفيديو ومواقع مشاركة الملفات والمزيد".

 

واعتبرت الشركة أنّ بثّ وسائل الإعلام، بما فيها القنوات والمواقع الإلكترونيّة للفيديو، تسبب في انتشاره، مضيفةً: "نحن ندرك أن هناك توازناً صعباً في تغطية مأساة كهذه مع الحرص على عدم تزويد الجهات الفاعلة السيئة بتضخيم إضافي لرسالة الكراهية". وتابعت: "أعاد الأفراد في جميع أنحاء العالم مشاركة النسخ التي حصلوا عليها من خلال العديد من التطبيقات والخدمات المختلفة، كتصوير البث على التلفزيون أو التقاط مقاطع الفيديو من مواقع الويب أو تصوير شاشات الكمبيوتر والهواتف أو إعادة مشاركة مقطع تلقوه".

 

وقالت الشركة إنّها مستمرة في العمل مع السلطات في نيوزيلندا في هذا المجال، كما أنّها مستمرة في تحديد أكثر السياسات والخطوات التكنولوجيّة فعاليّة في هذا المجال.


Create Account



Log In Your Account