Nouvelles Du Monde

Les algorithmes s’attaquent aux plus vulnérables des réseaux : les immigrés sont noirs et tumultueux ; les réfugiés, blancs et calmes | Technologie

Les algorithmes s’attaquent aux plus vulnérables des réseaux : les immigrés sont noirs et tumultueux ;  les réfugiés, blancs et calmes |  Technologie

2023-04-25 06:20:00

75 % des vidéos YouTube qui apparaissent après une recherche sur « immigrés » montrent des hommes traversant une frontière. Dans 76% des cas, on voit des personnes non blanches se déplacer en grands groupes, ce qui “contribue à les déshumaniser” et favorise le “sentiment de menace ou d’avalanche”. Par contre, pour la même plateforme, après le mot-clé “réfugiés”, il y a surtout des vidéos de femmes blanches, influencées par la guerre en Ukraine, dans des situations calmes. Leurs visages sont mieux appréciés et on ne les voit pas franchir les frontières ou manifester.

Ce sont quelques-uns des résultats produits par une analyse réalisée par Eticas sur deux réseaux sociaux influents : YouTube et TikTok. Ce cabinet de conseil spécialisé dans les audits algorithmiques s’est lancé pour revoir en externe (en extrayant des données accessibles au public, non fournies par les plateformes elles-mêmes) le travail des différents réseaux sociaux. “Nous avons voulu analyser comment les immigrés et les réfugiés sont représentés car beaucoup de pédagogie a été faite dans les médias sur la façon dont certains groupes sont montrés et quelles conséquences cela peut avoir, mais cette réflexion n’a pas été portée sur les réseaux sociaux”, explique Gemma Galdon. , directeur exécutif de l’éthique.

Le règlement sur les services numériques (DSA) exigera à partir de l’année prochaine que les entreprises technologiques opérant dans l’UE réalisent des audits indépendants pour garantir un espace numérique sûr dans lequel les droits fondamentaux des utilisateurs sont protégés.

« Nos recherches ont montré qu’il existe un problème de représentation biaisée et défavorable de la migration sur YouTube. Nous avons déterminé que YouTube et les autres parties impliquées devraient travailler à éliminer une série de biais des systèmes algorithmiques, faire preuve de plus de transparence et s’engager davantage avec les migrants eux-mêmes », conclut l’étude.

Pour la préparation de l’étude, menée aux États-Unis, au Royaume-Uni et au Canada, les analystes d’Eticas ont collecté des vidéos sur le sujet de l’immigration pendant deux mois (juin et juillet 2022 dans le cas de YouTube et octobre à décembre dans le cas de TIC Tac). Ils l’ont fait à travers différents profils sur chacune des plateformes pour essayer de trouver des différences dans le contenu proposé par l’algorithme. ils se sont entraînés les utilisateurs fictifs apparaissent pro-immigration, anti-immigration et neutres.

Lire aussi  WhatsApp pour permettre aux utilisateurs de modifier les messages
Extrait d’une vidéo YouTube montrant deux réfugiés ukrainiens demandant l’asile aux États-Unis.

Les recherches ont également été effectuées à partir d’endroits aux tendances politiques différentes, afin de pouvoir vérifier s’il y avait des différences à cet égard. L’analyse de YouTube a été menée à partir de Londres et de Toronto, des villes qui ont des relations très différentes avec l’immigration et les réfugiés. « Nous recherchions des espaces à forte connotation politique. Toronto est une grande ville du Canada, qui a un grand engagement historique envers l’accueil des immigrants et des réfugiés. Londres, en revanche, est la capitale d’un pays qui signifie depuis un certain temps en raison de la fermeture des frontières et d’un discours plus agressif sur l’immigration », détaille Galdon.

Dans le cas de TikTok, San Francisco (majoritairement démocrate), Oklahoma City (majoritairement républicaine) et Virginia Beach (ambivalente) ont été choisis. L’accent était mis sur les États-Unis parce que c’était dans un contexte d’élections (le élections de mi-mandatoù sont élus tous les membres de la Chambre des représentants et une partie du Sénat).

Curieusement, les résultats étaient très similaires dans tous les cas : l’algorithme discrimine à peine les utilisateurs en fonction du type de contenu qu’il affiche, ni selon les caractéristiques du profil ni selon la localisation. Et cela a été pris en compte à la fois des résultats des recherches directes et du contenu suggéré par l’algorithme de chaque plateforme.

YouTube : distorsions de l’image générale

Avec plus de 2 milliards d’utilisateurs actifs, YouTube est la deuxième plateforme sociale la plus utilisée au monde, derrière Facebook. Selon Neal Mohan, PDG de YouTube, jusqu’à 70 % des vidéos visionnées sur la plateforme sont suggérées par son système de recommandation vidéo. Ces suggestions sont faites à partir d’un cocktail de données qui comprend tout, de l’historique de visionnage et des interactions avec les vidéos à l’âge, au sexe ou à l’emplacement de l’utilisateur. “Par conséquent, les algorithmes de recommandation de YouTube peuvent influencer la perception d’un grand nombre de personnes dans le monde sur la migration”, affirment les auteurs du rapport.

Lire aussi  30 sont vendus en Espagne

L’analyse de cette plateforme montre que, dans la grande majorité des vidéos liées à l’immigration, les visages des personnages qui apparaissent dans les vidéos ne sont pas identifiables. Dans plus de 60% des cas, les protagonistes ne sont pas des individus, mais de grands groupes de personnes (15 ou plus). Seuls 4% de ceux qui apparaissent sous ce thème sont blancs et les femmes sont sous-représentées (elles représentent entre 1% et 4%). Les personnes qui apparaissent dans les coupures ne travaillent pas (entre 75% et 84% des cas) et manifestent (entre 73% et 81%).

Un exemple de vidéo YouTube courant si vous recherchez des “immigrants” à Toronto : un groupe d’adultes non blancs traversant une frontière.

Dans le cas des réfugiés, le portrait est différent. La plupart ont des traits caucasiens. Dans plus de la moitié des cas, leurs visages sont identifiables, il y a une plus grande proportion de vidéos dans lesquelles apparaissent de un à cinq individus et plus de femmes que d’hommes. Il y a plus de vidéos dans lesquelles ils ne traversent pas une frontière que dans celles qui le font, malgré le fait que, comme dans le cas des immigrés, ils ont dû le faire par la force.

“Nos systèmes de recherche et de recommandation ne sont pas conçus pour filtrer ou rétrograder des vidéos ou des chaînes en fonction de certaines opinions politiques”, indique la politique de la plateforme à laquelle l’entreprise se réfère. “De plus, nous auditons nos systèmes automatisés pour nous assurer qu’il n’y a pas de biais algorithmiques indésirables (par exemple, le sexe). Nous corrigeons les bugs dès que nous les trouvons et réentraînons nos systèmes pour qu’ils soient de plus en plus précis.

Lire aussi  Samsung Exynos 2400 apportera une augmentation massive des performances du GPU

TikTok : beaucoup de divertissement et peu de politique

TikTok est le réseau social avec la plus grande progression ces dernières années. Particulièrement populaire auprès des plus jeunes, il expose les utilisateurs à de courtes vidéos sélectionnées par l’algorithme, qui ne tient pas compte de ce que voient vos amis ou même votre pays. La plateforme est conçue pour amplifier les contenus les plus viraux, d’où qu’ils viennent et quels qu’ils soient (à condition qu’ils respectent les normes légales de contenu de l’entreprise).

L’une des conclusions les plus frappantes de l’analyse de TikTok est que la plateforme chinoise évite les vidéos politiquement chargées sur les immigrants ou les réfugiés. Moins de 1% des contenus étudiés développent des arguments pour ou contre ces groupes. La plupart des vidéos liées à ce thème montraient des gens faisant des blagues, cuisinant, travaillant, créant de l’art ou montrant des compétences curieuses.

Les travaux d’Eticas concluent que l’algorithme de recommandations du réseau social chinois “n’est pas influencé par les préférences politiques des utilisateurs”. Pas à cause de son emplacement. Qui se heurte à une enquête menée par Le journal de Wall Street, selon laquelle TikTok est capable de connaître les intérêts implicitement assignés aux bots et de leur proposer un contenu qui leur est adapté en moins de deux heures. “Cela suggère que le niveau de personnalisation du recommandeur TikTok a été ajusté au cours de l’année écoulée et souligne l’évolution des algorithmes au fil du temps et la nécessité de réévaluer périodiquement leur impact”, indique le rapport.

TikTok ne dispose pas de mécanismes spécifiques pour tenter de corriger d’éventuels biais, selon un porte-parole de la plateforme. L’algorithme propose des contenus de différents créateurs, il s’attache à la diversité des sources pour qu’il n’y ait pas de distorsions et pour souligner le caractère global de ce réseau social.

Vous pouvez suivre LE PAYS Technologie dans Facebook y Twitter ou inscrivez-vous ici pour recevoir nos bulletin d’information sémanal.

Abonnez-vous pour continuer à lire

Lire sans limites



#Les #algorithmes #sattaquent #aux #vulnérables #des #réseaux #les #immigrés #sont #noirs #tumultueux #les #réfugiés #blancs #calmes #Technologie
1682410316

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT