2024-05-30 21:00:00
Des titres comme « Un médecin « en bonne santé » décède deux semaines après avoir reçu le vaccin contre le Covid ; Le gouvernement enquête sur les raisons Chicago Tribune ou “Un nombre surprenant d’agents de santé de première ligne rejettent un vaccin contre le covid”, de Forbes, sont deux exemples des messages les plus viraux sur Facebook début 2021 et ceux qui ont le plus affecté le taux de vaccination aux États-Unis contre le covid. Le fausses nouvelles Ils sont plus efficaces, mais leur portée est bien moindre, car ce qui compte, c’est la volonté de ceux qui promeuvent les informations provenant de médias fiables.
C’est la principale conclusion d’un nouvel article publié dans la revue Science qui analyse l’impact des liens sur les vaccins sur Facebook entre janvier et mars 2021. Les liens marqués comme faux ont été consultés 8,7 millions de fois, ce qui ne représente que 0,3 % des 2,7 milliards de vues sur les vaccins au cours de cette période, selon les données de la plateforme. Au lieu de cela, les gros titres non qualifiés de désinformation mais suggérant que les vaccins étaient nocifs, dont beaucoup dans les médias traditionnels, ont été visionnés des centaines de millions de fois. La différence de portée est si extraordinaire que la pure désinformation a bien moins de pertinence en comparaison.
“Notre analyse suggère que les vérificateurs de faits de Facebook identifient les informations erronées les plus préjudiciables, donc Facebook a fait un travail ‘décent’ en la matière”, déclare Jennifer Allen, chercheuse au Massachusetts Institute of Technology (MIT) et co-auteur de l’article. . « Mais d’autres histoires peuvent devenir virales en ligne, et des acteurs malveillants peuvent utiliser des histoires rigoureuses pour promouvoir des récits trompeurs, ce que les plateformes devraient faire davantage pour remédier. Mais les médias doivent également en être conscients lorsqu’ils rédigent leurs titres, car leur contenu peut être présenté hors contexte », ajoute-t-il. Un titre comme celui de Chicago Tribune Dans un groupe opposé aux vaccins, dans ce contexte chargé, cela peut être dévastateur.
Cette découverte déplace une partie de l’accent traditionnel mis sur les fausses nouvelles et la désinformation pour rappeler que les médias plus traditionnels doivent également surveiller ce qu’ils publient, en particulier à une époque où la viralité s’explique souvent uniquement par les gros titres. « La concurrence pour les clics est un défi », déclare Allen, « mais je ne pense pas que cela permette aux médias de s’en sortir. Les journalistes doivent garder à l’esprit que seuls les gros titres sont lus en ligne et que les articles peuvent être sortis de leur contexte. Ils doivent s’efforcer d’éviter d’éventuelles interprétations erronées de leur travail.
Les auteurs calculent l’impact réel de ces titres en fonction du nombre d’utilisateurs qui les ont consommés. L’impact négatif des gros titres trompeurs sur les personnes qui devraient se faire vacciner était 46 fois plus important que celui d’une désinformation plus évidente. Dans un commentaire sur Science À propos de l’article, le chercheur de l’Université de Cambridge, Sander van der Linden, utilise les 233 millions d’Américains de Facebook pour calculer que ces gros titres ont empêché au moins 3 millions de personnes de se faire vacciner. “C’est une estimation approximative”, prévient Allen.
L’étude estime que le contenu sceptique à l’égard des vaccins sur Facebook a réduit de 2,3 points l’intention de se faire vacciner aux États-Unis, mais l’intention de se faire vacciner peut différer de la décision finale réelle de se faire vacciner. « Nous supposons, sur la base d’autres recherches, que l’adoption du vaccin représente 60 % de l’intention de se faire vacciner et de là, nous obtenons le chiffre de 3 millions. « Ce chiffre est spéculatif, mais il suggère que l’impact potentiel de ces gros titres pourrait être considérable. »
L’article se concentre sur les effets des gros titres sur la vaccination. Mais Van der Linden estime que cela serait facilement reproductible dans d’autres domaines, comme la politique, et que « cela ne dépend que d’un accès continu aux données pertinentes », dit-il.
Femme, plus âgée et conservatrice
Dans ce débat entre fausses nouvelles de peu de portée et gros titres apparemment sérieux qui deviennent viraux, Science publie un deuxième article sur un phénomène connu mais rarement mesuré : les superspreaders. Il s’agit d’un sous-groupe de « semi-bots » axé sur la désinformation, comme l’a baptisé EL PAÍS dans une enquête de 2019 intitulée « 200 tweets par heure depuis le canapé : qui se cache derrière les profils politiques les plus actifs sur Twitter ». Il s’agit du petit groupe d’utilisateurs qui transforment leur compte en une mitrailleuse de retweets de désinformation ou d’informations biaisées. Grâce à cette nouvelle recherche, nous savons que son impact réel sur le débat public est plus important qu’il n’y paraît.
L’étude a observé un panel de plus de 664 000 utilisateurs votants inscrits lors des élections présidentielles américaines de 2020. Parmi eux, seul un petit groupe de 2 107, représentant 0,3 %, a réussi à diffuser 80 % des fausses nouvelles. Ce sont ces super épandeurs. Seul ce groupe a réussi à atteindre 5,2 % des électeurs inscrits sur Twitter grâce à son travail. “Ces résultats mettent en évidence la vulnérabilité des médias sociaux pour la démocratie, où un petit groupe de personnes déforme la réalité politique d’un grand nombre”, écrivent les auteurs de l’article.
La recherche a également permis d’identifier certaines caractéristiques personnelles de ce groupe : il s’agit principalement de femmes, plutôt plus âgées et conservatrices. Ce détail coïncide avec une étude de Nature de l’été 2023, avec des données dans ce cas de Facebook, qui ont montré que l’écrasante majorité des consommateurs de désinformation étaient conservateurs. Cette étude est limitée à Twitter en raison du manque de données provenant d’autres réseaux sociaux, selon Nir Grinberg, chercheur à l’université Ben Gourion du Néguev (Israël) et l’un des co-auteurs : « J’aurais aimé avoir le capacité à répondre à des questions sur d’autres réseaux avec des preuves empiriques, mais la disponibilité des données des plateformes de médias sociaux limite ce type de recherche.
Utilisateurs de Twitter [hoy X] Ceux qui ont suivi ces récits ont tendance à être plus exposés à la désinformation et à des expositions répétées, qui sont des facteurs importants pour croire aux mensonges, selon l’article. L’impact de ces utilisateurs qui consacrent une bonne partie de leurs journées à retweeter n’est pas anodin : si un candidat avait voulu influencer un tel groupe de super-diffuseurs, il aurait dû débourser 20 millions de dollars : « Non seulement ils trouvent une audience considérable sur les réseaux, mais ils se sont révélés être des membres influents de leurs communautés, car ils fournissent un quart des fausses nouvelles à leurs abonnés », indique l’article.
Ces avancées dans la compréhension de la désinformation ouvrent la voie à la réflexion sur de nouvelles façons d’en limiter la portée. « La modération du contenu est un équilibre entre la liberté d’expression et les dommages potentiels », explique Allen. « Mais il est difficile pour les plateformes de mesurer à quel point un contenu peut être préjudiciable. » Cela s’est produit jusqu’à présent, où les plateformes se sont limitées à réduire la portée et ont ignoré cet autre type de contenu plus préjudiciable qui viole l’esprit, mais pas la lettre, de la loi.
“Notre méthodologie permet aux plateformes d’identifier d’abord le contenu susceptible d’avoir un impact négatif, puis d’élaborer des politiques”, explique Allen, qui a travaillé chez Meta avant de commencer son doctorat au MIT. “Dans un premier temps, Facebook pourrait donner la priorité à l’envoi de contenu à des vérificateurs de faits en fonction de son impact potentiellement néfaste, de son pouvoir de persuasion multiplié par son audience potentielle, où les pages avec de nombreux abonnés sont davantage prioritaires”, explique-t-il.
Allen propose également comme alternative valable quelque chose de similaire aux notes communautaires de X, qui sont une vérification collaborative des faits entre les utilisateurs. “Cela peut être un moyen d’atténuer l’impact des histoires préjudiciables qui passent avec succès une vérification des faits mais manquent de contexte pertinent”, explique Allen.
Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.
#Les #titres #trompeurs #des #médias #traditionnels #sont #dangereux #les #fausses #nouvelles #Technologie
1717123764