Facebook a ouvert ses portes aux chercheurs. Ce qu’ils ont trouvé brosse un tableau compliqué des médias sociaux et des chambres d’écho.

Facebook a ouvert ses portes aux chercheurs.  Ce qu’ils ont trouvé brosse un tableau compliqué des médias sociaux et des chambres d’écho.

2023-07-27 21:51:12

Une étude historique sur la façon dont Facebook a façonné les informations que les utilisateurs ont vues à l’approche des élections de 2020 a révélé que la plate-forme entraînait une “ségrégation idéologique importante” en ce qui concerne l’exposition aux informations politiques – en particulier avec les utilisateurs conservateurs qui, selon les chercheurs, étaient plus isolés et ont rencontré beaucoup plus de désinformation que leurs homologues libéraux.

En examinant les données agrégées de 208 millions d’utilisateurs américains, les chercheurs ont découvert que les sources d’information « non fiables » étaient favorisées par un public conservateur et que presque toutes (97 %) les pages Web d’actualités politiques jugées fausses par les vérificateurs de faits tiers de Meta étaient vues par davantage de conservateurs. que les libéraux.

Dans l’ensemble, la recherche, dirigée par Sandra González-Bailón, professeur à l’Annenberg School for Communication de l’Université de Pennsylvanie, a révélé que les pages et les groupes de Facebook, plus que les amis des utilisateurs, contribuaient davantage à cette ségrégation et polarisation idéologiques. En général, il a conclu que les sources conservatrices dominaient l’écosystème d’actualités de Facebook.

Il n’était pas clair si cette ségrégation était davantage causée par des algorithmes ou par le choix de l’utilisateur.

“Ces boucles de rétroaction sont très difficiles à démêler avec des données d’observation”, a déclaré González-Bailón. “Ceux-ci nécessitent plus de recherches.”

Le étude est l’un des quatre publiés jeudi, trois dans la revue Science et un dans Nature. Ils faisaient partie d’un partenariat sans précédent entre un groupe d’éminents chercheurs universitaires indépendants et des chercheurs de Meta dans le but d’étudier l’impact que Facebook et Instagram ont eu sur les utilisateurs américains lors des élections de 2020.

Le projet comprenait 17 chercheurs universitaires de 12 universités qui ont obtenu un accès approfondi par Facebook aux données agrégées. Les chercheurs ont collaboré avec plus de deux douzaines de chercheurs, ingénieurs et analystes juridiques de Meta.

Les chercheurs indépendants n’ont pas été payés par Meta, et la société de médias sociaux a accepté de ne pas rejeter les questions de recherche pour des raisons autres que la confidentialité ou la logistique. Meta a également renoncé au droit de restreindre ou de censurer les conclusions finales des chercheurs. Dans un souci de transparence, la collaboration a été contrôlée par un rapporteur indépendant, dont le rapport a également été publié en sciences jeudi.

Ensemble, les études offrent le regard le plus approfondi à ce jour sur la façon dont les nouvelles circulent sur Facebook et une idée plus limitée de la façon dont ces nouvelles peuvent ou non avoir affecté la polarisation politique.

Mais la recherche est également limitée dans sa portée. Les expériences d’algorithmes ont été menées sur seulement deux plateformes, Facebook et Instagram, sur trois mois, une période relativement courte au plus fort d’une élection présidentielle controversée.

Le contenu politique n’a traditionnellement représenté qu’une petite partie de ce que les utilisateurs de Facebook voient, et la plateforme a depuis cherché à réduire la quantité de contenu politique montrée aux utilisateurs. En 2021, la société a déclaré qu’elle était faire les premiers tests sur la réduction du contenu politique dans son fil d’actualité, aboutissant à une mise à jour en avril dans laquelle la société a déclaré qu’elle continuait à affiner son approche de ce contenu et à s’éloigner des classements basés sur l’engagement. Selon l’étude González-Bailón, les messages renvoyant à des pages Web d’actualités politiques représentaient environ 3 % de tous les messages partagés sur Facebook.

Chacune des quatre études a révélé que les algorithmes de recommandation de Meta – les règles et les classements compliqués qui sous-tendent la façon dont les plateformes alimentent le contenu et les communautés à leurs utilisateurs – étaient extrêmement influents pour décider de ce que ces utilisateurs voient et comment ils interagissent avec le contenu.

Trois des quatre études ont expérimenté l’algorithme et ont conclu que le type d’ajustements longtemps supposé être la solution à la polarisation et la clé d’expériences en ligne plus saines pourrait ne pas affecter les attitudes politiques et les comportements réels des gens, du moins à court terme. . Ces ajustements incluent le retour aux flux chronologiques, la réduction de la viralité en limitant le contenu repartagé ou en brisant les chambres d’écho.

“Ces résultats devraient nous donner à tous une pause, y compris les décideurs politiques, sur toute sorte de solution simple”, a déclaré Talia Stroud, professeur à l’Université du Texas à Austin, qui a aidé à diriger le projet de recherche.

Pour les trois études expérimentales, les participants rémunérés ont permis aux chercheurs de manipuler d’une manière ou d’une autre leur expérience sur les plateformes. Ils ont utilisé les plateformes comme d’habitude, ont répondu à des enquêtes sur les attitudes et les activités politiques tout au long de la période de trois mois et ont partagé leur activité en ligne sur et en dehors des plateformes étudiées.

Dans une étudedirigé par Andrew Guess, professeur adjoint de politique et d’affaires publiques à l’Université de Princeton, les chercheurs ont assigné au hasard aux participants un flux chronologique inversé sur Facebook et Instagram, montrant les messages les plus récents en premier sans aucune autre pondération algorithmique.

En 2021, la dénonciatrice de Facebook Frances Haugen et certains législateurs suggéré un flux ordonné dans le temps pourrait résoudre la myriade de problèmes liés aux algorithmes de recommandation, qui, selon les critiques, sont conçus pour garder les utilisateurs engagés et enragés. L’année suivante, Facebook a déployé des flux personnalisables, bien qu’il ne soit pas clair combien de personnes utilisent ces options.

La nouvelle étude ne nourrit pas l’espoir que les flux chronologiques soient une solution miracle, et certaines des conclusions peuvent sembler contradictoires. Les utilisateurs de Facebook qui ont vu les messages les plus récents ont d’abord rencontré plus de contenu politique et peu fiable (de plus des deux tiers), mais moins de contenu « incivil » (de près de la moitié). Dans le même temps, on leur a également montré plus de messages de leurs amis modérés et de groupes et de pages idéologiquement mixtes.

Un effet significatif : sans l’algorithme sophistiqué, les chercheurs ont rapporté que les utilisateurs aimaient, commentaient et partageaient moins souvent et passaient « considérablement moins » de temps sur Facebook et Instagram en général. Au lieu de cela, les utilisateurs mobiles qui étaient passés au flux chronologique inversé ont passé plus de temps sur TikTok et YouTube. Les utilisateurs de bureau ont passé moins de temps sur Facebook et plus de temps sur Reddit.

Malgré les effets sur l’expérience utilisateur, le passage à un flux chronologique n’a pas affecté les niveaux de polarisation politique, de connaissances ou d’attitudes des participants.

Dans un deuxième étude, les chercheurs ont expérimenté la viralité, coupant certains participants de la possibilité de voir le contenu repartagé d’amis, de groupes ou de pages. La désactivation de ce qui représente environ un quart des messages consultés sur Facebook a eu un effet mesurable. Les utilisateurs ont vu moins d’actualités politiques, ont moins cliqué sur des informations partisanes et ont été exposés à moins de messages contenant du contenu non fiable.

Cela semble étayer la croyance commune, notée dans des rapports de recherche internes sur Facebook ayant fait l’objet d’une fuite, que le contenu chargé d’émotion et politique est repartagé plus souvent. Pourtant, comme ils l’avaient fait avec le flux chronologique, les chercheurs n’ont trouvé aucun lien avec un changement d’attitude ou de comportement politique des utilisateurs.

Le troisième expérience étudié les chambres d’écho pour savoir ce qui se passe lorsque les gens voient moins de contenu provenant de groupes et de pages partageant les mêmes idées ?

Premièrement, la recherche a confirmé que les chambres d’écho sont réelles – la majorité des contenus que les utilisateurs ont vus provenaient de groupes et d’amis qui partageaient des tendances politiques. Un peu plus de la moitié provenaient de sources partageant les mêmes idées et un peu moins de 15 % provenaient de personnes ou de groupes aux tendances politiques différentes. Comme pour les autres expériences, la réduction du contenu provenant de sources partageant les mêmes idées tout en augmentant l’exposition aux personnes et le contenu d’autres points de vue n’a eu aucun effet réel sur la polarisation ou les préférences ou opinions politiques telles que mesurées par l’étude.

Nonobstant les limitations, Nick Clegg, président des affaires mondiales chez Meta, a claironné les conclusions comme une exonération de Facebook et de son rôle dans la politique et les élections. Il a écrit dans un article de blog que ces articles étaient la première fois que l’entreprise s’ouvrait ainsi aux universitaires et qu’ils montraient que Facebook n’avait joué aucun rôle dans la toxicité de la politique américaine.

“Ces résultats s’ajoutent à un nombre croissant de recherches montrant qu’il y a peu de preuves que les médias sociaux provoquent une polarisation” affective “préjudiciable ou ont un impact significatif sur les attitudes, croyances ou comportements politiques clés”, a-t-il écrit. “Ils remettent également en question l’affirmation désormais courante selon laquelle la possibilité de repartager du contenu sur les réseaux sociaux conduit à la polarisation.”

Les chercheurs à l’origine des nouvelles études étaient plus restreints.

“Ces résultats ne signifient pas qu’il n’y a pas de raisons de s’inquiéter des médias sociaux”, a déclaré Brendan Nyhan, professeur au département gouvernemental du Dartmouth College et l’un des principaux auteurs de l’étude sur les chambres d’écho. “Mais l’étude est importante dans la mesure où elle remet en question certaines notions que les gens ont sur les effets des médias sociaux. Et cela pourrait aider à réorienter cette conversation.

Les chercheurs ont déclaré que les nouvelles études collaboratives soulignent la nécessité pour les entreprises technologiques de fournir un meilleur accès aux données.

“Ce que nous avons pu faire ici – déballer le genre de boîte noire d’algorithmes, fournir toutes sortes de détails sur ce qui se passe sur ces plates-formes – est une énorme illustration de la valeur de s’assurer que les plates-formes mettent les données à la disposition des chercheurs externes, », a déclaré Joshua Tucker, chef de projet et codirecteur du NYU Center for Social Media and Politics.

Pourtant, les collaborations avec des plates-formes ne sont peut-être pas le modèle de recherche à l’avenir et peut-être ne devraient-elles pas l’être, selon Michael W. Wagner, professeur à l’école de journalisme et de communication de masse de l’Université du Wisconsin-Madison, qui a été le responsable indépendant de la collaboration. rapporteur.

Dans un article à propos du projet pour Science, Wagner a écrit que les chercheurs avaient mené «des études rigoureuses, soigneusement vérifiées, transparentes, éthiques et novatrices». Mais les futures bourses d’études ne devraient pas dépendre, a-t-il écrit, de l’obtention de l’autorisation d’une entreprise de médias sociaux.

Des études supplémentaires du projet, actuellement en cours d’examen par les pairs, sont attendues dans les mois à venir.



#Facebook #ouvert #ses #portes #aux #chercheurs #quils #ont #trouvé #brosse #tableau #compliqué #des #médias #sociaux #des #chambres #décho
1690485197

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.