Apple débranche le scanner iCloud qui devrait détecter la maltraitance des enfants – Tablettes et téléphones – Actualités

Apple débranche le scanner iCloud qui devrait détecter la maltraitance des enfants – Tablettes et téléphones – Actualités

EDIT : Je pense que j’ai mal compris votre message, vous n’avez pas demandé pourquoi la discussion était là, mais pourquoi Apple l’implémenterait. Je n’en suis pas sûr non plus. D’après ce dont je me souviens, l’objectif était une « protection des enfants » générale, pas une obligation légale.

Pour ceux qui ne savent pas (encore) pourquoi cette méthode de scan était très controversée :

AFAIK, ils travailleraient sur une méthode d’identification par photo qui n’est pas exactement infaillible. Il y avait plusieurs problèmes avec cela:

1. Vérifier si les photos sont identiques au moyen d’un hachage est déjà largement utilisé. Mais ils prévoyaient d’utiliser un “hachage perceptuel”, une sorte de hachage de réseau neuronal de la photo dans le but de trouver des photos qui se ressemblent (grisées, en miroir, recadrées) également. Cela a déjà été démontré très facile de faire un faux positif.

2. Cette détection se produirait sur l’appareil, avec toutes les photos que vous avez, pas seulement celles que vous synchronisez avec iCloud. Si je me souviens bien, car les photos qui sont mises sur iCloud sont cryptées et ne peuvent donc pas être vérifiées. Cela, ou il était limité aux photos iCloud et non au reste de l’appareil, mais cela a ensuite contré l’argument selon lequel changer le répertoire de numérisation de $/iCloudSync à /* est trivial, et un algorithme inconnu qui scanne l’intégralité de votre iPhone peut scanner à travers car ce qu’il pense être interdit n’est pas exactement souhaitable.

3. C’était plus mon point de vue, mais quel que soit le fonctionnement de l’analyse sur l’appareil (hachage normal ou hachage perceptif), il serait toujours indésirable avec peu de gain. La numérisation préventive de toutes vos photos est une grave violation de la vie privée que beaucoup ne trouvent pas justifiée simplement pour pouvoir prendre possession de CP. Aucun juge n’approuvera la recherche d’un téléphone sur CP sans autre motif. Arrêter les abus actifs au lieu de simplement détecter la possession peut justifier de telles analyses, mais cela n’est pas possible avec une comparaison de hachage normale. Avec des hachages normaux, vous ne pouvez pas découvrir de nouvelles photos, vous ne pouvez trouver que des photos connues, ce qui ne fournit aucune nouvelle information sur les abus actifs.

Pour trouver de nouvelles photos, il faut donc disposer d’un algorithme de classification, qui générera également des faux positifs sans aucun doute. Laissant toujours cette différence entre des photos dénudées à envoyer au pédiatre par exemple et CP est très délicat. Supposons que vous disposiez d’un excellent algorithme de classement avec un taux de vrais positifs de 100 % et un taux de faux positifs de seulement 1 %. Si seulement 0,1 % des utilisateurs d’iPhone sont un pédo assez stupide pour mettre du CP sur l’iPhone, sachant que cette technique de numérisation existe, cela signifie que 91 % de tous les CP détectés sont un faux positif. (Pour savoir pourquoi, voir Veritasum sur le théorème de Bayes, et remplacer le fait d’être malade par d’avoir une PC). Je suppose que je n’ai pas besoin d’expliquer pourquoi une fausse détection/accusation de CP est TRÈS indésirable.

[Reactie gewijzigd door wild_dog op 7 december 2022 23:45]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.