Meta, Snap et TikTok vont supprimer les contenus d’automutilation

2024-09-13 10:25:59

Un espace de travail Meta à San Francisco en 2023. L’entreprise fait partie d’une coalition de médias sociaux qui affirme qu’elle surveillera et supprimera les contenus mettant en scène des actes d’automutilation. Photo de Terry Schmitt/UPI | Licence Photo

« Le suicide et l’automutilation sont des problèmes de santé mentale complexes qui peuvent avoir des conséquences dévastatrices », a déclaré Meta dans son communiqué.

« Nous donnons la priorité à ce contenu en raison de sa propension à se propager rapidement sur différentes plateformes », a écrit Antigone Davis, responsable mondiale de la sécurité chez Meta, dans le message. « Ces signaux initiaux ne représentent que du contenu et n’incluront pas d’informations identifiables sur des comptes ou des individus. »

L’initiative a été créée en collaboration avec La Coalition pour la santé mentaleun groupe d’organisations de santé mentale travaillant à déstigmatiser ces questions.

Meta, Snap et TikTok échangeront des conseils, ou « signaux », ce qui leur permettra de comparer leurs notes et d’enquêter et de prendre des mesures si un contenu similaire apparaît sur d’autres applications. Thrive servira de base de données à laquelle toutes les sociétés de médias sociaux participantes auront accès.

Meta utilise une technologie développée par Lanterneune entreprise qui a pour vocation de rendre la technologie sûre pour les mineurs. Amazon, Apple, Google, Discord, OpenAI et d’autres font partie de la coalition. Meta a clairement indiqué dans son communiqué qu’elle ciblait le contenu, et non les utilisateurs.

« Nous donnons la priorité à ce contenu en raison de sa propension à se propager rapidement sur différentes plateformes. Ces signaux initiaux ne représentent que du contenu et n’incluront pas d’informations identifiables sur des comptes ou des individus », a écrit Davis dans le billet de blog.

Les sociétés de médias sociaux seront chargées d’examiner et de prendre toutes les mesures nécessaires via Thrive, et de rédiger un rapport annuel pour mesurer l’impact de ces mesures. L’impact du programme.

Meta a déclaré que lorsque du contenu impliquant l’automutilation ou le suicide est identifié, un numéro, ou un « hachage », lui sera attribué, qui pourra ensuite être vérifié par les autres sociétés de médias sociaux, rechercher le contenu et le supprimer.

L’utilisation accrue des réseaux sociaux par les mineurs a provoqué une augmentation des cas de dépression et de comportements suicidaires, selon la Mental Health Coalition. Les recherches suggèrent également que les jeunes qui s’automutilent sont plus actifs sur les réseaux sociaux.

Plus tôt cette année, Meta annoncé L’entreprise a annoncé qu’elle prévoyait de supprimer et de limiter les contenus sensibles jugés « inappropriés à l’âge » des flux d’actualités des adolescents sur ses applications. L’entreprise a déclaré qu’elle prévoyait de masquer les résultats de recherche et les termes relatifs au suicide, à l’automutilation et aux troubles alimentaires pour tous les utilisateurs.

Meta, TikTok, Snapchat et d’autres plateformes de médias sociaux sont depuis longtemps critiquées pour ne pas avoir supprimé les contenus jugés nuisibles aux adolescents, notamment les vidéos et les images d’automutilation.



#Meta #Snap #TikTok #vont #supprimer #les #contenus #dautomutilation
1726226000

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.