Le conseil de surveillance de Meta a appelé mardi l’entreprise à mettre fin à son interdiction générale du mot arabe « martyr » après un examen d’un an qui a conclu que l’approche du propriétaire de Facebook était « exagérée » et bloquait inutilement la parole de millions d’utilisateurs.
Le conseil, qui est financé par Meta mais fonctionne de manière indépendante, a déclaré que le géant des médias sociaux devrait supprimer les publications contenant le mot « martyr » uniquement lorsqu’elles sont liées à des signes évidents de violence, ou si elles violent séparément d’autres règles de Meta.
ويأتي القرار بعد سنوات من الانتقادات لتعامل الشركة مع المحتوى الذي يتعلق بالشرق الأوسط، بما في ذلك في دراسة أجريت عام 2021 بتكليف من شركة ميتا نفسها وجدت أن نهجها كان له “تأثير سلبي على حقوق الإنسان” بالنسبة للفلسطينيين، وغيرهم من مستخدمي خدماتها من الناطقين باللغة L’arabe.
Ces critiques se sont multipliées depuis le début des hostilités entre Israël et le Hamas en octobre.
Des groupes de défense des droits humains ont accusé Meta de bloquer les contenus soutenant les Palestiniens sur Facebook et Instagram dans le contexte de la guerre qui a coûté la vie à des dizaines de milliers de personnes à Gaza suite à l’attaque du Hamas contre Israël le 7 octobre.
Le conseil de surveillance de Meta est parvenu à des conclusions similaires dans son rapport de mardi, estimant que les règles de Meta sur le mot « martyr » n’ont pas pris en compte la diversité des significations du mot et ont conduit à la suppression de contenus qui n’étaient pas destinés à faire l’éloge d’actes de violence.
“META partait du principe que la surveillance pouvait améliorer la sécurité, mais les preuves suggèrent que la surveillance peut marginaliser des populations entières sans améliorer du tout la sécurité”, a déclaré Helle Thorning-Schmidt, coprésidente du conseil de surveillance, dans un communiqué.
Meta supprime actuellement tous les messages utilisant le mot « martyr » en référence à ceux figurant sur sa liste d’« organisations et individus dangereux », qui comprend des membres de groupes islamistes armés, des gangs de drogue et des organisations suprémacistes blanches.
Selon le rapport, l’entreprise affirme que ce mot constitue un compliment envers les entités qu’elle interdit.
Le Hamas est l’un des groupes que Meta classe comme « organisation dangereuse ».
Meta a demandé conseil sur le sujet l’année dernière, après avoir commencé à réévaluer la politique en 2020, mais n’a pas réussi à parvenir à un consensus en interne, a indiqué le conseil. Elle a révélé dans sa demande que le mot « martyr » est responsable de plus de suppressions de contenu sur ses plateformes que tout autre mot ou expression.
Un porte-parole de Meta a déclaré dans un communiqué que la société examinerait l’évaluation du conseil de surveillance et répondrait dans les 60 jours.