Home » Sciences et technologies » Facebook, Instagram, Snapchat et X ne parviennent pas à supprimer les contenus dangereux liés au suicide et à l’automutilation – étude | Actualités scientifiques et technologiques

Facebook, Instagram, Snapchat et X ne parviennent pas à supprimer les contenus dangereux liés au suicide et à l’automutilation – étude | Actualités scientifiques et technologiques

by Nouvelles

2024-08-15 04:46:36

Selon une étude, certaines des plus grandes plateformes de médias sociaux ne parviennent pas à détecter et à supprimer les contenus dangereux liés au suicide et à l’automutilation.

La Fondation Molly Rose a constaté que sur plus de 12 millions de décisions de modération de contenu prises par six des plus grandes plateformes, plus de 95 % d’entre elles ont été détectées et supprimées par seulement deux sites : Pinterest et TikTok.

Les quatre autres plateformes présentées dans le rapport étaient Facebook, Instagram, Snapchat et X, anciennement Twitter.

La fondation a déclaré qu’elle trouvait que la réponse de la plupart des plateformes à ce type de contenu était « incohérente, inégale et inadaptée à l’objectif ».

L’association caritative a déclaré qu’Instagram et Facebook de Meta étaient chacun responsables de 1 % de tous les contenus de suicide et d’automutilation détectés par les principaux sites étudiés, et que X n’est responsable que de 700 décisions de contenu.

La fondation avertit désormais que la loi sur la sécurité en ligne ne va pas assez loin pour remédier à ce qu’elle considère comme des défaillances systématiques évidentes dans l’approche de modération du contenu des entreprises de médias sociaux.

Ian Russell, le président de l’association, a exhorté le gouvernement à s’engager à adopter un nouveau projet de loi sur la sécurité en ligne qui pourrait encore renforcer la réglementation.

M. Russell et sa famille ont créé la Fondation Molly Rose en mémoire de sa fille, Mollyqui a mis fin à ses jours à l’âge de 14 ans, en novembre 2017, après avoir visionné du contenu préjudiciable sur les réseaux sociaux.

« Près de sept ans après la mort de Molly, il est choquant de voir la plupart des grandes entreprises technologiques continuer à rester les bras croisés et à choisir l’inaction plutôt que de sauver de jeunes vies », a déclaré M. Russell.

« Comme l’ont montré les dernières semaines, il est clair qu’une réglementation beaucoup plus ambitieuse est nécessaire.

« C’est pourquoi il est temps pour le nouveau gouvernement de terminer le travail et de s’engager à renforcer la loi sur la sécurité en ligne.

« Les parents de tout le pays seront à juste titre consternés de voir que des sites comme Instagram et Facebook promettent des mots chaleureux mais continuent d’exposer leurs enfants à des préjudices intrinsèquement évitables.

« Pas de si, pas de mais, il est clair qu’une action énergique est nécessaire. »

Image:
TikTok et Facebook ont ​​participé à l’étude. Photo : iStock

Dans son rapport, la fondation a déclaré avoir constaté que les sites de médias sociaux ne parvenaient pas systématiquement à détecter les contenus préjudiciables sur les parties les plus à risque de leurs services.

Par exemple, l’entreprise a déclaré que seulement une publication sur 50 de suicide et d’automutilation détectée par Instagram était une vidéo, bien que la fonctionnalité de vidéo courte Reels représente désormais la moitié du temps passé sur l’application.

L’étude a également accusé les sites de ne pas appliquer leurs propres règles, notant que même si TikTok a détecté près de trois millions de contenus de suicide et d’automutilation, il n’a suspendu que deux comptes.

L’étude s’appuie sur les décisions de modération de contenu prises dans l’UE, qui doivent être rendues accessibles au public.

En réponse à l’étude, un porte-parole de Meta a déclaré : « Le contenu qui encourage le suicide et l’automutilation enfreint nos règles.

« Nous ne pensons pas que les statistiques de ce rapport reflètent nos efforts. Rien que l’année dernière, nous avons supprimé 50,6 millions de contenus de ce type sur Facebook et Instagram dans le monde, et 99 % d’entre eux ont été traités avant que le problème ne nous soit signalé.

« Cependant, dans l’UE, nous ne sommes pas actuellement en mesure de déployer toutes nos mesures qui sont en vigueur au Royaume-Uni et dans le reste du monde. »

Un porte-parole de Snapchat a déclaré : « La sécurité et le bien-être de notre communauté sont une priorité absolue. Snapchat a été conçu pour être différent des autres plateformes, sans fil d’actualité ouvert de contenu non vérifié et avec modération du contenu avant la distribution publique.

« Nous interdisons strictement les contenus qui encouragent ou encouragent l’automutilation ou le suicide, et si nous identifions cela, ou si cela nous est signalé, nous le supprimons rapidement et prenons les mesures appropriées.

« Nous partageons également des ressources de prévention et de soutien en matière d’automutilation lorsque nous prenons connaissance d’un membre de notre communauté en détresse, et pouvons avertir les services d’urgence le cas échéant.

« Nous continuons également à travailler en étroite collaboration avec l’Ofcom sur la mise en œuvre de la loi sur la sécurité en ligne, y compris les protections des enfants contre ce type de préjudice. »

TikTok n’a pas fait de déclaration mais a déclaré que ses règles étaient claires : il n’autorisait pas la diffusion, la promotion ou le partage de plans de suicide ou d’automutilation.

Un porte-parole du ministère de la Science, de l’Innovation et de la Technologie a déclaré : « Les entreprises de médias sociaux ont la responsabilité claire de garantir la sécurité des personnes qui utilisent leurs plateformes et leurs processus pour y parvenir doivent être efficaces.

« En vertu de la loi sur la sécurité en ligne, les personnes qui encouragent l’automutilation avec intention risquent actuellement jusqu’à cinq ans de prison. Une fois la loi pleinement mise en œuvre, les plateformes devront également supprimer de manière proactive les contenus illégaux qui encouragent l’automutilation grave et empêcher les enfants de voir du contenu faisant la promotion de l’automutilation ou du suicide, même lorsque celui-ci se situe en dessous du seuil criminel.

« Nous souhaitons mettre en place ces nouvelles protections le plus rapidement possible, mais les entreprises ne doivent pas attendre que les lois entrent en vigueur : elles doivent prendre des mesures efficaces pour protéger tous les utilisateurs dès maintenant. »

Pinterest et X n’ont pas répondu à une demande de commentaire.



#Facebook #Instagram #Snapchat #parviennent #pas #supprimer #les #contenus #dangereux #liés #suicide #lautomutilation #étude #Actualités #scientifiques #technologiques
1723696129

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.