Home » Sciences et technologies » C’est ainsi que fonctionne le Centre européen de recours, gardien des dérives des réseaux sociaux | Technologie

C’est ainsi que fonctionne le Centre européen de recours, gardien des dérives des réseaux sociaux | Technologie

by Nouvelles

2024-11-27 07:20:00

Les canulars et commentaires ouvertement racistes ou haineux sont de plus en plus fréquents sur les réseaux sociaux. Les utilisateurs peuvent signaler eux-mêmes aux plateformes les contenus qu’ils jugent problématiques, mais il arrive parfois qu’ils ne répondent pas ou refusent de les supprimer. L’inverse peut également se produire : que la plateforme décide d’éliminer les articles journalistiques qui traitent, par exemple, du terrorisme, ou les posts comportant de la nudité qu’elle juge inappropriés. Les entreprises technologiques n’ont plus le dernier mot en la matière : la semaine dernière, le Centre européen de recoursl’instance vers laquelle se tourner lorsque l’on n’est pas d’accord avec les décisions des réseaux sociaux. Pour l’instant, il n’accepte que les cas liés à Instagram, TikTok et YouTube, mais il est prévu d’élargir son spectre pour couvrir toutes les applications.

Basée à Dublin et dotée d’un effectif de 25 travailleurs, l’ouverture d’un centre de recours était envisagée dans la loi sur les services numériques (DSA), en vigueur depuis août 2023. L’objectif du règlement, qui affecte les grandes plateformes numériques qui opèrent en communauté territoire, est de protéger les consommateurs, ce qui passe par la lutte contre la désinformation et la diffusion de contenus illégaux. Si ce type de contenu est détecté, les entreprises doivent le supprimer immédiatement sous peine de se voir infliger de lourdes amendes (jusqu’à 6 % de leur chiffre d’affaires global, qui pour certaines entreprises peut se chiffrer en dizaines de milliards).

Les décisions du Centre d’appel ne sont pas contraignantes. L’organisation est postulée comme le lieu où les grandes entreprises technologiques et les individus ou organisations civiques peuvent régler leurs différends avant d’aggraver le problème. Mais ce n’est pas parce qu’ils ne sont pas contraignants qu’ils sont inoffensifs. « Si les plateformes n’appliquent pas nos décisions, elles devront ensuite justifier auprès du régulateur pourquoi. Par conséquent, je crois que même une décision qui n’est pas appliquée a beaucoup de valeur », explique à EL PAÍS Thomas Hughes, directeur général de l’organisation nouvellement créée.

Thomas Hughes, directeur général du Centre européen de recours, sur une photo fournie par lui.

Le centre accepte actuellement des dossiers dans six langues (anglais, français, espagnol, italien, allemand et néerlandais), même s’il étendra progressivement son champ d’action pour couvrir toutes les langues officielles de l’UE. L’organisation sera financée grâce aux redevances facturées aux plateformes (95 euros par dossier). Pour le moment, ils ne proposent pas d’estimations du nombre de poursuites qu’ils recevront chaque année. À mesure qu’ils augmentent leurs effectifs, leur surveillance s’ajoutera à d’autres réseaux sociaux, tels que Facebook, X ou Threads, dans lesquels le texte a plus de poids. Selon ce que dit l’organisation, elle a commencé avec Instagram, TikTok et YouTube car il est plus facile de régler les différends si ce qu’il faut examiner est une image ou une vidéo que s’il s’agit d’un texte.

Où fixer les limites

Les Britanniques sont conscients que la grande majorité des utilisateurs ignorent l’existence du Appeals Center. En fait, beaucoup ignorent même qu’ils peuvent signaler les contenus problématiques sur les réseaux sociaux et qu’ils doivent y répondre. Ou que chaque plateforme possède ses propres codes de conduite, qu’elle établit de sa propre initiative. Serait-il judicieux que tous les réseaux imposent les mêmes règles ? “Ils le font déjà de facto”, explique Hughes. « En fait, le monde en ligne est une extension du monde hors ligne, et ce qui y est illégal l’est également dans la sphère numérique. Le plus petit dénominateur commun sont les droits de l’homme, qui sont codifiés dans toutes les législations nationales. Sur cette base, des couches spécifiques sont ajoutées pour chaque plateforme. Je crois que chaque réseau social doit trouver son équilibre entre maximiser le droit d’expression, mais avec des limites.

La clé est de savoir où ces limites sont fixées. « Certaines plateformes sont plus permissives que d’autres, et ce n’est pas grave. A condition de ne pas franchir certaines lignes rouges», souligne-t-il. L’incitation à la violence, les messages qui propagent la haine envers un groupe, ainsi que les canulars et la désinformation sont inacceptables.

Le contenu sexuel explicite, pour autant qu’il soit consensuel, est parfaitement légal. Certaines plateformes, comme X, diffusent des films pornographiques entiers ; D’autres, comme Facebook ou Instagram, ne permettent même pas de voir un mamelon féminin (ceux masculins le font). Même dans ces cas-là, il y a place à la protestation. « Il y a des moments où les messages montrant les symptômes du cancer du sein sont supprimés, même si même les plateformes aux politiques les plus restrictives autorisent l’examen des seins si cela veut sensibiliser la population à cette maladie. L’utilisateur qui proteste contre cette décision aura raison », déclare Hughes.

Comment ça marche

Chaque cas, affirme l’exécutif, a ses particularités, il faut donc l’analyser séparément. Les utilisateurs mécontents d’une décision relative au contenu peuvent participer sur le site du Centre d’appel et remplir un formulaire dans lequel ils expriment et justifient leur réclamation. Il leur sera facturé une « redevance symbolique » de cinq euros, qui leur sera remboursée si l’organisation est d’accord. « Toute personne qui dépose un litige éligible [esto es, que la interponga un ciudadano europeo] vous recevrez un résultat. Le Centre d’appel traitera une variété de litiges, tels que le harcèlement et l’intimidation, la désinformation, les discours de haine et les images et vidéos modifiées », décrit Hughes.

L’équipe de réviseurs experts dans les politiques des plateformes demandera à la plateforme (pour l’instant, Instagram, TikTok ou YouTube) la publication en question et toutes les données qui y sont associées. Grâce à ces informations, ils évalueront si la décision prise était conforme à leurs politiques. « En fonction de la complexité, de la langue, de la situation, du contexte, de la plateforme et du type de contenu, le cas est confié à différents collègues. Ils prennent une décision. S’il s’agit d’un cas complexe, nous disposons d’autres niveaux de contrôle qui peuvent être effectués. En fin de compte, nous rendrons une décision qui, je tiens à le souligner, n’est pas contraignante », souligne Hughes, tout en ajoutant que l’entreprise devra en informer le régulateur, qui prendra note des actions.

Ce processus doit avoir lieu dans les 90 jours suivant le dépôt de la plainte au Centre d’appel. Dans le cas où l’utilisateur n’est pas satisfait de la décision de l’agence, il peut toujours s’adresser au tribunal.

Pannes du système

Chaque réseau social est chargé d’ordonner ce qui se passe dans sa cour. La modération du contenu est l’une des parties les plus délicates de votre travail. Plus une plateforme est performante, plus elle générera de trafic et plus certains utilisateurs seront susceptibles de se désinscrire. Les réseaux utilisent une combinaison de moyens automatiques et manuels pour tenter de détecter les contenus problématiques.

“Si nous considérons ce travail comme une pyramide, à la base se trouvent des méthodes automatiques d’examen du contenu, qui détectent généralement de très nombreux messages qui enfreignent les normes”, explique Hughes. Sans ces outils, affirme-t-il, les réseaux sociaux, dont certains accumulent quotidiennement des centaines de millions de commentaires, seraient une véritable perte.

Dans la continuité de la pyramide, viendraient ensuite les méthodes de modération manuelle, « importantes dans les cas les plus complexes ou les plus subtils », puis la Centrale de Recours. Ensuite, les tribunaux viendraient et, au sommet, la Commission avec ses amendes. «Nous espérons pouvoir contribuer à rendre la vie sur les réseaux sociaux plus vivable», affirme le Britannique.

Que pouvez-vous attendre de cette nouvelle organisation ? Les experts consultés sont prudents et la plupart préfèrent attendre de voir comment cela fonctionne avant de l’évaluer. « En théorie, le Centre de recours devrait atténuer l’impasse des résolutions en attente et introduire des experts indépendants dans le processus d’examen du contenu. Cela me semble intéressant », déclare le professeur Carmela Ríos, experte en réseaux sociaux, journalisme mobile et désinformation. Dans quelques mois, nous verrons si tel est le cas.



#Cest #ainsi #fonctionne #Centre #européen #recours #gardien #des #dérives #des #réseaux #sociaux #Technologie
1732729823

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.