Nouvelles Du Monde

Expulser les leaders toxiques des réseaux sociaux réduit la propagation de la haine en ligne | Technologie

Expulser les leaders toxiques des réseaux sociaux réduit la propagation de la haine en ligne |  Technologie

2023-06-05 22:14:30

Contrôler le discours de haine sur Internet est l’un des plus grands défis de cette ère de l’information. Personne ne le nie, mais on ne sait pas non plus comment le faire efficacement. Par exemple, éliminer ceux qui diffusent des contenus toxiques fait partie des alternatives choisies par certaines plateformes ; Or, une étude menée en interne par Facebook, auprès de 26 000 de ses utilisateurs, montre qu’exclure les leaders des communautés extrémistes est un moyen efficace de démanteler les discours de haine sur les réseaux sociaux, surtout à long terme. La suppression d’une centaine de comptes de ce type a eu un impact énorme, car le fait de refuser le haut-parleur aux membres principaux conduit à une amélioration de l’ensemble du réseau.

Certaines études antérieures suggéraient que l’exclusion de ces profils nocifs sur des plateformes comme Twitter, Reddit ou Telegram a aidé à réduire les activités indésirables, même ces discours de manière générale. Mais cela n’a pas suffi à démontrer la relation de cause à effet que cette étude, menée par des chercheurs de Meta, la maison mère de Facebook, et publié aujourd’hui dans PNAS.

Pour parvenir à ces conclusions, Daniel Robert Thomas et Laila A. Wahedia ont analysé les effets produits à l’audition de six communautés, dont les représentants les plus actifs ont été expulsés de la plateforme. Concrètement, les chercheurs de Meta ont voulu comprendre dans quelle mesure ce public continuait à observer, publier et partager des contenus haineux ou à interagir avec d’autres profils, après que leurs références aient cessé d’exister. Les résultats montrent qu’en moyenne, tous ces facteurs ont diminué. “Ils réduisent leur consommation et leur production de contenus qui incitent à la haine, et ils interagissent moins avec les autres membres de l’audience”, précisent-ils dans l’étude..

Lire aussi  FABLE publie une nouvelle bande-annonce et promet un humour «britannique» épais • Jagat Play

Suite aux exclusions de profil, les utilisateurs ont continué à voir quotidiennement près de la moitié des contenus haineux. Cela signifie qu’en moyenne, ceux qui ont vu environ cinq publications au contenu toxique en ont vu moins de trois. De plus, en cessant d’interagir avec les membres d’une même communauté toxique, les membres ont commencé à être exposés à d’autres types de contenus, groupes ou communautés, qui n’étaient pas essentiellement de nature violente. Aucune des données de l’étude ne peut être liée aux comptes d’utilisateurs d’origine, en raison des conditions de protection de la vie privée de Facebook.

Le public le plus fidèle aux organisations qui diffusent la haine peut chercher d’autres sources après l’expulsion des ennemis professionnels. Cependant, c’est une réaction éphémère et elle ralentit en seulement deux mois. L’audience qui est plus éloignée de ces leaders diminue leur interaction avec ce contenu dès le départ. Selon l’étude, c’est positif, car c’est le groupe qui risque le plus d’être influencé par des communautés toxiques.

Dans l’ensemble, les résultats suggèrent que l’abattage peut conduire à des réseaux sociaux «plus sains». “Les efforts de suppression des leaders et de déclassement du réseau peuvent réduire la capacité des organisations haineuses à fonctionner avec succès sur Internet”, expliquent-ils.

Ce n’est pas facile, en tout cas. En étant bannis des plateformes populaires, ces profils pourraient facilement en créer de nouveaux et essayer de construire un nouveau réseau. Ils pourraient également migrer vers d’autres plates-formes. De plus, d’autres organisations toxiques qui existent encore pourraient remplacer leur position et coopter des partisans, qui continueraient d’être exposés à des contenus préjudiciables. Pour rendre cette stratégie de suppression plus efficace, les auteurs proposent que les suppressions soient effectuées par plusieurs profils à la fois car cela “empêche les organisations de reconstruire leurs réseaux”, ce qui rend plus difficile pour les membres de se retrouver, car il n’y a plus de comptes à coordonner. ceux qui reviennent à la plate-forme.

Lire aussi  Test et avis sur la balance connectée Withings Body+

discours de haine et toxique

S’il s’agit d’une décision laissée aux mains des plateformes, voudront-elles vraiment l’exécuter ? Silvia Majó-Vázquezchercheur associé à Institut Reuters pour l’étude du journalisme de l’Université d’Oxford et professeur et la VU University Amsterdamexplique que la modération des contenus sur les réseaux sociaux doit “se faire en recherchant un équilibre entre la liberté d’expression et la préservation d’autres droits susceptibles d’être lésés”, il est donc essentiel de différencier entre discours de haine, discours toxique et discours de haine. .

En termes conceptuels, comme l’explique Majó-Vázquez, l’incivilité est au niveau le plus doux, allant du langage informel qui inclut le manque de respect ou le sarcasme. Lorsqu’il s’agit d’une manifestation plus extrême et que “les autres ont peur de participer à une conversation”, un discours toxique naît, qui peut devenir violent. “D’un point de vue démocratique, ils sont très nocifs, car ils ne permettent pas l’idéal démocratique de la délibération publique”, a-t-il détaillé par mail.

Selon cet expert, la suspension des profils doit se faire en tenant compte de ces dimensions conceptuelles et avec des mécanismes manuels “qui peuvent garantir que la liberté d’expression est préservée”. Et ce critère devrait aussi servir pour les personnalités politiques. « Vous devez mener un exercice comme celui que nous ferions en dehors des réseaux, dans lequel le droit à la liberté d’expression de l’expéditeur du message est équilibré avec la préservation des autres droits fondamentaux du public. Les mécanismes automatisés de suppression des messages et de suspension des comptes doivent être revus en permanence et l’évaluation de ces messages par des experts doit être priorisée, comme le font déjà certaines plateformes avec des conseils consultatifs externes pour les cas les plus pertinents », souligne-t-il.

Lire aussi  Pourquoi les particules fantômes qui s'écrasent sur l'Antarctique pourraient changer l'astronomie à jamais

Une de ses études menées à l’Institut Reuters dans sept pays a montré que la relation entre toxicité et engagement Il est positif que chaque cas soit différent : cela dépend du thème de chaque discussion et de la gravité du contenu. Dans le contexte de la pandémie et en analysant Twitter, les résultats ont montré que la toxicité et la popularité des contenus toxiques ne vont pas de pair. En fait, on voit que le tweets plus toxique perdent en popularité auprès du public. Cependant, les messages à faible niveau de toxicité voient leur popularité augmenter », explique Majó-Vázquez. Par conséquent, il n’est pas possible de dire si cette relation est le résultat d’une décision du public “de ne pas récompenser la toxicité” ou si elle est le résultat des modérations effectuées par la plateforme. “C’est quelque chose auquel nous ne pouvons pas répondre avec les données de nos travaux, mais ce résultat remet en question la croyance selon laquelle les contenus toxiques sont toujours les plus populaires”, conclut-il.

Vous pouvez suivre LE PAYS Technologie dans Facebook y Twitter ou inscrivez-vous ici pour recevoir nos bulletin d’information sémanal.




#Expulser #les #leaders #toxiques #des #réseaux #sociaux #réduit #propagation #haine #ligne #Technologie
1686000900

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT