En avez-vous entendu parler? Sur les appareils Android, il existe une nouvelle application qui peut surveiller les messages. Image: imago-images.de
Une application appelée “Safetycore” apparaît sur un nombre croissant d’appareils mobiles Android et d’inquiétude des utilisateurs. Elle scanne vos photos sans que vous le sachiez.
Suis-moi
Les utilisateurs d’Android trouvent de plus en plus souvent qu’une application appelée Safetycore est installée sur leur appareil mobile. C’est – pour simplifier – un scanner de nudité qui a été lancé plus ou moins à l’insu de tous par une mise à jour de sécurité en octobre 2024.
Vous apprendrez ici comment désactiver l’application. Et pourquoi c’est un problème fondamental, qui est également mauvais pour Apple.
Qu’est-ce que “Safetycore”?
Une application appelée “Safetycore” installée sur de nombreux smartphones Android suscite la préoccupation. Ce serait un scanner de photos nues. Sur la plate-forme X, des messages alarmants ont visité la toile, soulevant de nombreuses questions.
De toute évidence, la plupart des utilisateurs d’Android ne savent pas qu’ils sont affectés. Le portail américain Zdnet note que “la plupart des gens ne sont pas conscients de ce qu’ils font”:
“Si vous avez un nouvel appareil Android ou un appareil avec des mises à jour logicielles depuis octobre 2024, il est presque certain que Safetycore est installé sur votre téléphone”
L’un des aspects les plus controversés de SafetyCore est qu’il est installé en arrière-plan sans consentement explicite. Cette pratique a suscité des préoccupations chez de nombreux utilisateurs concernant la confidentialité et le contrôle de leurs propres appareils et données.
Google garantit que tout est en ordre et qu’il n’y a pas de besoin de s’inquiéter: ce sont des composants du système d’exploitation mobile destiné à renforcer la sécurité et qui sont facultatifs.
Il est également spécifié que les utilisateurs gardent le contrôle, qu’ils peuvent désactiver ou désinstaller safetycore et qu’ils n’ont pas besoin d’activer l’analyse sur l’appareil lors de son lancement officiel.
Il est intéressant de noter qu’il n’y a pas si longtemps, le rival de Google, Apple, était déjà critiqué par le feu pour la même procédure douteuse. Ce sont principalement des sociétés technologiques dominantes sur le marché qui ont mis en place des fonctions d’IA étendues sur les appareils de leurs clients. Mais il y a évidemment un manque de transparence.
Que savons-nous de Safetycore?
Le 5 octobre 2024, Google a publié une mise à jour de sécurité pour Android 9 et les versions les plus récentes du système d’exploitation mobile largement utilisé. Et cette mise à jour, à première vue inoffensive, comprenait une application appelée “Android System Safetycore”.
Le composant du composant du système Android.
Comme nous le savons maintenant, avec le nouveau composant du système Android, Google crée les conditions techniques permettant aux applications de effectuer des vérifications d’image sur l’appareil lui-même (et non dans le cloud).
La description de l’application dans le Google Play Store explique:
“Safetycore est un service système Google pour les appareils Android 9+. Il fournit une technologie sous-jacente pour des fonctionnalités telles que les “alertes de contenu sensibles suivantes” dans les messages Google, qui permet aux utilisateurs de se protéger lorsqu’ils reçoivent un contenu potentiellement indésirable (…) “
Dans le service de messagerie interne “Google Messages”, le service “Safetycore” détecte automatiquement les photos de nudité (et de vidéos) reçues sur l’appareil et de les rendre illisibles.
Selon Google, les choses ne font que commencer:
“Alors que Safetycore a commencé à être déployé l’année dernière, la fonctionnalité” Sentitive Content Alertes “de Google Messages est une fonctionnalité distincte et facultative qui sera progressivement introduite en 2025.”
Où est le problème avec le cœur de sécurité?
Le déploiement de la nouvelle fonction sera effectué à une époque. Le manque de communication du groupe technologique américain a probablement causé une certaine confusion:
“De nombreux utilisateurs d’Android qui ont participé à des discussions en ligne sur cette mise à jour douteuse ont également critiqué le fait que la mise à jour a été automatiquement installée – sans demander l’autorisation.”
Source: FutureZone.at
Google garantit que le filtrage se déroule sur l’appareil et qu’aucune donnée n’est envoyée aux serveurs externes, résume FutureZone.at. Mais cela ne signifie pas nécessairement que le service ne communique pas avec d’autres serveurs Google – et Il peut donc être possible de souligner qu’un utilisateur prend des photos sensibles, que nous voyons là-bas et peut-être même quelles personnes sont représentées.
Les développeurs du système d’exploitation Android indépendant Grapheneos, considéré comme particulièrement sûr, étaient essentiels dans une position, car le code du programme Google n’est pas librement consulté:
“Il est regrettable qu’il ne soit pas open source et publié dans le cadre du” projet open source Android “. Il ne sera pas disponible pour les utilisateurs de Grapheneos, sauf s’ils prennent la peine de l’installer.”
Dans le même temps, les développeurs indépendants soulignent que Google Safetycore n’est pas comme le système d’analyse très controversé qu’Apple voulait introduire pour l’iPhone en 2021. Projet qui a été abandonné après des manifestations massives dans le monde.
Cependant, Apple semble avoir presque oublié les leçons de ce gâchis, comme nous le verrons ci-dessous …
Comment désactiver le scanner de nudité?
Safetycore ne semble pas avoir sa propre icône d’application et n’apparaît pas non plus dans la liste habituelle des applications exécutées. Cependant, la désinstallation devrait être assez simple dans le meilleur des cas.
FutureZone.at explique sur ce sujet:
- «Accédez aux paramètres de votre appareil.
- Cliquez sur “Apps” ou “Apps & Notifications”.
- Sélectionnez “Afficher toutes les applications”, puis appuyez sur le menu à trois points en haut à droite pour sélectionner “Afficher les processus système”.
- Recherchez “Safetycore” dans la liste.
- Cliquez sur “Android System Safetycore”, puis sur “Désinstaller”, si disponible.
- Si l’option de désinstallation est grisée, vous ne pouvez que le désactiver.
- Si vous ne désinstallez pas le service, vous pouvez également essayer de révoquer ses autorisations – en particulier l’accès à Internet. “
Plus: Selon ZDNET, les utilisateurs rapportent que SafetyCore se réinstallera lors des mises à jour du système ou via Google Play Services, même après avoir désinstallé le service. Dans ce cas, il est nécessaire de désinstaller à nouveau Safetycore (manuellement), ce qui est ennuyeux.
Qu’est-ce que Apple a à voir avec ça?
Apple poursuit des plans comparables pour son propre service de messagerie “Messages” (anciennement “iMessage”): les vérifications d’image doivent être effectuées en toute sécurité et respectueuses de la confidentialité sur les appareils utilisateur.
Pour les utilisateurs en Australie, une mise à jour correspondante a été publiée en octobre 2024. La version 18.2 du système d’exploitation iOS comprend Une nouvelle fonction de sécurité qui masque automatiquement les photos Les envoyés ou les déshabillez en les brouillant (“flou”).
Comme indiqué par TuteurIl s’agit d’une extension des mesures de «sécurité des communications» ainsi, activées par défaut depuis iOS 17 pour les utilisateurs mineurs d’Apple (moins de 13 ans), mais disponibles pour tous les utilisateurs.
Grâce aux fonctions de sécurité, un iPhone détecte automatiquement les images et les vidéos de nudité que les enfants peuvent recevoir ou essayer d’envoyer à iMessage, Airdrop, FaceTime et Photos. La détection de ces contenus est effectuée par des algorithmes d’apprentissage automatique sur l’appareil lui-même. La protection des données est garantie, aucune donnée sensible n’est transmise aux serveurs Apple.
Le lancement en Australie a coïncidé avec un renforcement de la législation nationale. Depuis la fin de 2024, Apple et d’autres groupes technologiques devraient surveiller les services de stockage et de messagerie dans le cloud qu’ils ont exploités: détecter les représentations des abus sexuels sur les enfants et le “contenu terroriste”.
Un regard sur le Royaume-Uni montre que les efforts de surveillance de l’État se poursuivent sans relâche. Dans ce pays, Apple est obligé d’arrêter le cryptage fin à la fin des sauvegardes iCloud.
Quelle est la leçon pour en tirer?
Le chroniqueur de Forbes Zak Doffman commente Apple et Google:
“Si vous voulez transformer nos téléphones en machines contrôlées par l’IA, faites-nous savoir à l’avance ce que vous allez faire et nous donner la possibilité de dire oui ou non. Sinon, cela nourrit la peur de l’inconnu.”
Il semble tout à fait logique que les clients aient besoin de transparence de la part de grands groupes technologiques. Après tout, ils contiennent leurs appareils mobiles extrêmement sensibles (tels que des photos, des informations personnelles ou professionnelles) et doivent être sûrs qu’ils sont protégés.
Avec iOS 18.2 et MacOS 15.2, la société a introduit une nouvelle fonction d’IA intitulée “Avanced Visual Research”. Ceci est intégré à l’application “Photos” et, contrairement aux autres fonctions d’intelligence Apple qui fonctionnent sur l’appareil lui-même, il nécessite un échange de données avec les serveurs Apple.
Certes, seules les données cryptées sont transmises et aucune information personnelle n’est transmise, mais des informations anonymes, une sorte de représentation mathématique du contenu des images. Ce processus de protection des données n’était pas suffisant pour apaiser les esprits. En effet, Apple a lancé cette fonction sans l’accord explicite des utilisateurs. Il a été activé par défaut avec la mise à jour et doit être désactivé manuellement dans les paramètres de l’appareil concerné (iPhone, iPad, Mac) en cas de doute.
Plus d’articles sur nos smartphones
(Traduit et adapté par Chiara Lecca)
On avait parlé de dire fièrement qu’elle avait participé à un gang bang avec 100 gars. Lily Phillips est maintenant enceinte.
Si on vous dit Lily Phillips, cela ne vous parle probablement pas. D’un autre côté, si on vous dit: “Mais si vous savez, la fille qui a dormi avec 100 hommes en 24 heures”, là, vous répondez: “Ah oui, eh bien?” Eh bien, la Dame Dont-on-Ne-Frononce-Pas-le-Nom-But-le-Number-de-Partenaires-Sexuals est enceinte. Elle l’a annoncé sur Instagram ce mercredi 19 février, affichant une photo d’elle et de son ventre arrondi.
#Google #installe #une #mise #jour #douteuse