Avez-vous déjà remarqué que les visages des publicités Facebook semblent correspondre à votre sexe, votre race ou votre âge ? Ce n’est pas un accident, disent les chercheurs en informatique du Nord-Est.
UN nouveau papier publié par un groupe de chercheurs du Khoury College of Computer Sciences de Northeastern a révélé que l’algorithme de Facebook diffuse des publicités différemment en fonction de la personne représentée dans l’annonce.
“Lorsque vous choisissez d’inclure une photo d’une personne noire, cela augmentera considérablement la probabilité que l’annonce soit diffusée aux utilisateurs noirs”, déclare Alan Mislove, professeur et doyen associé aux affaires académiques à Khoury et l’un des auteurs de la recherche. “Lorsque vous choisissez d’inclure une photo d’une femme par rapport à un homme, en général, cela ira davantage aux femmes, à l’exception des images de jeunes femmes, qui iront davantage aux hommes plus âgés.”
La publicité discriminatoire est bien documentée sur Facebook. En juin, le ministère américain de la Justice obtenu un règlement accord après avoir accusé Meta d’un biais algorithmique pour son système de diffusion d’annonces immobilières. L’article lui-même fait partie d’un objectif plus large sur l’audit algorithmique et la diffusion d’annonces pour Mislove, co-auteur de l’article avec le chercheur associé de Khoury. Piotr Sapiezynski, doctorat le candidat Levi Kaplan et l’étudiante de troisième année en cybersécurité Nicole Gerzon.
Les travaux antérieurs des chercheurs ont montré à quel point le système de diffusion des publicités de Facebook était problématique, faussant la diffusion des publicités selon des critères largement démographiques. Les offres d’emploi dans l’industrie du bois sont livrées de manière disproportionnée aux hommes blancs, tandis que les emplois pour les postes de conciergerie vont de manière disproportionnée aux femmes noires, selon Mislove.
Mislove dit que cela se produit souvent indépendamment de ce que les annonceurs ont dit au système de diffusion d’annonces de Facebook. La façon dont cela fonctionne est que les annonceurs téléchargent leur annonce sur Facebook, puis spécifient leur public cible, comme les 18 à 35 ans à Boston.
“C’est une grande population”, dit Mislove. “Votre annonce ne sera très probablement pas diffusée à tous. L’algorithme va décider, dans un certain sens, quel sous-ensemble les voit, et il le fait en faisant une estimation de la pertinence, c’est-à-dire quels utilisateurs sont les plus susceptibles de s’engager avec cela.
Mais comment l’algorithme apprend-il à discriminer ? Comme tout algorithme, le système de diffusion de publicités de Facebook est formé à l’aide de données. Dans ce cas, cela inclut toutes les données que Meta a collectées sur toutes les publicités précédentes qui ont été diffusées sur Facebook et qui a cliqué sur ces publicités. Cette dernière recherche montre que l’image incluse dans l’annonce est celle à laquelle l’algorithme de Facebook répond le plus fortement.
“L’algorithme va comprendre, ‘Qu’est-ce que je peux utiliser qui est le plus susceptible de faire cliquer quelqu’un?'”, Dit Mislove. “Dans ce cas, la race et le sexe prédisent si quelqu’un va cliquer, donc il l’utilise simplement parce que c’est exactement ce pour quoi il est conçu.”
L’algorithme ne connaît pas ou ne se soucie pas de la race, du sexe et de l’âge, mais il utilise toujours ces fonctionnalités pour faire des estimations “très grossières” sur l’endroit où envoyer des annonces de logement ou d’emploi, dit Sapiezynski.
“Probablement Facebook pourrait dire qu’ils n’essaient pas de faire le classement des races à partir d’images, mais les résultats que nous présentons montrent, à un certain niveau, que cela se produit parce que l’algorithme ne reconnaît pas qu’il s’agit simplement d’une annonce d’une personne mais c’est un type particulier de personne avec qui les Noirs sont plus susceptibles de s’engager », déclare Sapiezynski. “Donc, effectivement, il fait le classement des courses sur des photos de personnes.”
Dans certains cas, cela peut être exactement ce que recherche un annonceur. S’ils veulent attirer plus de femmes ou de personnes de couleur, ils utiliseront probablement des images avec des femmes et des personnes de couleur et l’algorithme en tiendra compte lorsqu’il diffusera l’annonce. Dans d’autres cas, cela peut être extrêmement problématique. Dans ce que Mislove a appelé le Creepy Old Man Effect, les publicités mettant en vedette des jeunes femmes ont été diffusées de manière disproportionnée aux hommes plus âgés.
Une partie du défi est qu’il y a très peu de transparence en ce qui concerne le fonctionnement de ce système. Mislove, Sapiezynski et leur équipe ont dépensé des dizaines de milliers de dollars et d’innombrables heures pour mettre en place les campagnes publicitaires qu’ils ont utilisées pour comprendre le fonctionnement de ce système. Mais l’annonceur moyen n’a pas nécessairement le temps ou les ressources pour le faire.
Il existe également des questions politiques plus larges sur la manière dont les protections existantes des droits civils jouent sur les algorithmes et l’intelligence artificielle. La loi sur le logement équitable, la loi sur l’égalité des chances en matière de crédit et la loi sur la discrimination fondée sur l’âge dans l’emploi incluent toutes des réglementations concernant la publicité traditionnelle, mais pas les publicités sur les réseaux sociaux.
“Nous devons préciser quand cela se produit, à qui cela se produit, puis donner aux annonceurs le contrôle de dire : ‘Peut-être que je ne veux pas que cet algorithme de diffusion d’annonces fasse cela sur une annonce d’opportunité où cela pourrait potentiellement être illégal en raison de protections des droits civils », dit Mislove.
Entre le récent procès du ministère de la Justice contre Meta et le plan de la Maison Blanche pour une Charte des droits de l’IA, le débat autour des implications réelles de ces systèmes s’intensifie. Les entreprises de médias sociaux font pression pour l’autorégulation, mais Mislove dit qu’il n’y a aucune garantie que cela résoudrait le problème.
“Je pense qu’ils ont de mauvais antécédents en matière d’autorégulation”, déclare Mislove. « Dans de nombreux cas, ils ne veulent pas s’engager sur ces questions car cela est au cœur de leur modèle d’entreprise. … Vous auriez certainement besoin de réglementation et de lois pour déterminer ce que vous pouvez faire, mais la meilleure façon de le faire n’est pas encore claire.
Pour les demandes des médias, veuillez contacter Shannon Nargi à [email protected] ou 617-373-5718.