Home » Sciences et technologies » Open bar pour les contenus dangereux sur les réseaux sociaux ?

Open bar pour les contenus dangereux sur les réseaux sociaux ?

by Nouvelles

2025-01-10 17:11:00

Meta, société mère de WhatsApp, Facebook et Instagram, a décidé de mettre fin à son programme de collaboration avec vérificateurs de faits et les vérificateurs d’informations. Au lieu de cela, il va mettre en œuvre un système de « notes communautaires » similaire à celui de X.

Mark Zuckerberg, PDG de Meta, a annoncé cette mesure dans un communiqué sur Facebook comme défense de la liberté d’expression et correction des erreurs que la modération des contenus est censée provoquer.

La disparition de ce système signifie-t-elle une porte ouverte à des contenus dangereux pour les utilisateurs des applications de l’entreprise ?

Comment fonctionnait le programme de vérification des faits de Meta

Le programme de vérification des données de Meta, lancé en 2016, fonctionnait en collaboration avec des organismes indépendants certifiés par le Réseau international de vérification des faits (IFCN)c’est-à-dire attribué à leur Code de principes.

Ces entités ont examiné, à la demande de Meta, le contenu potentiellement faux ou trompeur sur les plateformes de l’entreprise, y compris les publications, vidéos, images et textes organiques et promus.

Une fois le contenu suspect identifié, les vérificateurs ont analysé sa véracité à travers leurs propres enquêtes, en contrastant les informations et en utilisant des normes journalistiques.

Les publications étaient étiquetés selon leur degré de mensonge. Ils ont utilisé des catégories telles que « Faux », « Partiellement faux », « Modifié » ou « Le contexte est manquant ». La classification a permis à Meta de réduire sa distribution et d’ajouter des avertissements pour informer les utilisateurs.

Ce n’était pas de la censure

Ce système a fait en sorte que des vérificateurs externes, suivant les normes de la IFCNils ne censureront pas directement le contenu, mais l’étiqueteront plutôt en fonction de sa véracité.

La décision finale de supprimer ou non un message revenait à Meta, agissant conformément à ses politiques communautaires.

Le travail des vérificateurs externes du système Meta s’est avéré efficace dans la lutte contre la désinformation, en réduisant considérablement sa propagation sur les pages Facebook et en générant un impact positif sur la qualité de la sphère publique. L’efficacité du système a été étayée par des recherches publiées dans Science oui Nature.

Les vérificateurs ont adhéré aux principes de neutralité, de transparence et de méthodologie rigoureuse, garantissant un processus impartial et transparent.

Ainsi, les déclarations de Zuckerberg dans sa déclaration accusant les vérificateurs de faits d’être des « censeurs » (ce qui correspond tout à fait au propre récit des désinformateurs) n’ont aucune cohérence.

Que va-t-il se passer à partir de maintenant ?

En plus de collaborer avec des vérificateurs externes, Meta emploie systèmes automatisés pour détecter le contenu qui viole leurs politiques, comme la nudité, la violence graphique ou les discours de haine.

Ces systèmes utilisent des techniques d’IA pour analyser et filtrer automatiquement les contenus interdits par leur normes communautairestels que les produits ou services illégaux, les drogues, le tabac, les armes à feu, les contenus à caractère sexuel, la violence explicite et les discours de haine (y compris la désinformation).

Cependant, la détection de la désinformation et l’identification de contenus explicites sont des processus différents qui nécessitent des technologies spécialisées pour chaque cas. Détecter et censurer, par exemple, les mamelons féminins, est bien plus facile technologiquement que d’identifier une demi-vérité ou une décontextualisation.

L’élimination du programme Meta checker affecte le confinement des canulars et de la désinformation, mais, bien que Mark Zuckerberg ne l’ait pas rendu explicite, il est entendu que les restrictions sur les contenus sexuels, violents, etc. Elles resteront en vigueur pour garantir un environnement sécuritaire aux usagers.

Le système de notation

Le système de « notes communautaires » qui sera implémenté dans Meta est similaire à celui utilisé depuis 2023 dans X. Ici, il n’y a pas de vérificateurs externes, les utilisateurs eux-mêmes sont invités à contextualiser et à fournir des informations complémentaires sur les publications soumises à un contrôle en face. d’éventuelles informations erronées.

Mais ce système se heurte à des défis qui limitent son efficacité. Selon les experts Sur des sujets très polarisés comme la politique, ces publicités sont moins efficaces en raison du manque de consensus entre utilisateurs de différentes tendances idéologiques.

En outre, il a été observé que des groupes opposés utilisent les billets comme champ de bataille, ce qui peut nuire à leur objectif initial.

UN recherche menée par Poynterqui a analysé 3 637 notes publiées le jour du scrutin aux États-Unis, a révélé que seulement 29 % des tweets vérifiables recevaient des notes utiles. Moins de 6 % des messages publiés dans les jours précédant l’élection ont atteint le statut « utile », et seulement 13 % de tous les messages publiés par les utilisateurs au cours de cette période étaient liés aux élections.

Autrement dit, le modèle « notes » a eu un impact marginal sur la qualité de l’information électorale. Le système ne peut pas remplacer le travail des vérificateurs de faits professionnels (souscrivant aux normes journalistiques internationales) et reflète des limites importantes dans sa capacité à lutter efficacement contre la désinformation.

Pourquoi ce changement de position ?

Jusqu’à présent, Meta et Zuckerberg ont défendu bec et ongles leur programme de vérification par des tiers, soulignant son efficacité dans la lutte contre la désinformation. Avec cette déclaration, le changement politique de l’entreprise devient évident.

La décision de mettre fin à ce programme coïncide avec la réélection de Donald Trump à la présidence des États-Unis, que certains analystes interprètent comme une tentative de s’aligner sur la nouvelle administration, adoptant des approches similaires à celle d’Elon Musk dans X.

Cette position a suscité des critiques car elle pourrait faciliter la propagation de la désinformation et des discours de haine sur les plateformes Meta.

Le tournant politique

Meta a pris des décisions qui renforcent cette perception d’alignement politique. Par exemple, en août 2024, l’entreprise a démantelé CrowdTangleun outil essentiel pour surveiller la désinformation sur Facebook et Instagram. De plus, Meta a a incorporé des personnalités proches de l’entourage de Trump à son conseil d’administrationcomme Dana White, président de l’Ultimate Fighting Championship (UFC) ou le républicain Joe Kaplan.

N’oublions pas une motivation bien plus matérielle derrière cette décision : la désinformation génère une plus grande interaction et activité sur les réseaux sociaux, ce qui se traduit par plus de revenus publicitaires pour les plateformes.

En assouplissant les mesures contre la désinformation, Meta pourrait chercher à accroître la participation des utilisateurs et, par conséquent, ses avantages financiers.

La suppression de l’anonymat

Face à l’inquiétude croissante suscitée par l’importance des canulars et de la désinformation, certains experts préconisent un changement radical dans l’utilisation des réseaux sociaux. L’une des propositions les plus énergiques est la suppression de l’anonymat des comptes. Les utilisateurs devraient être obligés de publier sous leur nom et prénom, sans se réfugier dans le bouclier des pseudonymes, une pratique qui encourage les insultes, le harcèlement et l’impunité.

Un utilisateur serait-il encore capable de critiquer ou d’insulter aussi volontiers quelqu’un s’il se trouvait physiquement devant lui ?

Un changement de ces caractéristiques permettrait aux individus d’être tenus responsables de leurs actes et de leurs paroles dans l’environnement numérique, tout comme dans la vie analogique.

Cette proposition nécessite également un cadre juridique qui sanctionne efficacement la diffusion intentionnelle de désinformation. Le cadre législatif espagnol actuel ne le pénalise pas spécifiquement, mais il existe des cas dans lesquels il a été sanctionné.

Pénaliser et valider socialement ce niveau de responsabilité pour nos paroles, en exerçant efficacement et honnêtement la liberté d’expression tant défendue, rendrait bien plus difficile la possibilité de situations aussi extrêmes que des campagnes coordonnées de soupçons infondés sur le nombre réel de victimes du crime. être effectué. parking le Bonaire.

La suppression du programme de vérification professionnelle de Meta est donc une très mauvaise nouvelle pour la lutte contre la désinformation qui peut malheureusement provoquer encore plus de polarisation.



#Open #bar #pour #les #contenus #dangereux #sur #les #réseaux #sociaux
1736668710

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.