Apple dit qu’il rejettera les demandes du gouvernement d’étendre le nouveau scanner d’images de protection de l’enfance au-delà des images d’abus d’enfants

Apple Dit Qu'il Rejettera Les Demandes Du Gouvernement D'étendre Le

Une patate chaude : lorsqu’Apple a révélé la semaine dernière qu’il utiliserait neuralMatch pour analyser tous les comptes iPhone et iCloud à la recherche de CSAM (matériel d’abus sexuels sur des enfants) lors du déploiement d’iOS 15 cet automne, les défenseurs de la vie privée ont exprimé leur inquiétude quant au fait que ce serait un problème grave. nouvelle étape dans la violation de la vie privée des utilisateurs. Une préoccupation majeure est que les gouvernements peuvent exiger qu’Apple ajoute du matériel à sa liste de surveillance en dehors de la portée originale de neuralMatch, comme du matériel politique.

Apple dit qu’il ne laissera pas les gouvernements étendre la portée de son prochain système de numérisation d’images de protection des enfants, mais les problèmes de confidentialité demeurent. Le week-end dernier, Apple a publié une FAQ clarifiant le fonctionnement de neuralMatch. Plus important encore, Apple affirme qu’il n’utilisera le système que pour détecter les CSAM connus et qu’il n’est pas conçu pour faire autre chose.

« Apple refusera de telles demandes », lit-on dans la FAQ. « La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. » Apple souligne que le système n’informera pas automatiquement les forces de l’ordre, mais procédera plutôt à un examen humain de toutes les images signalées.

La FAQ essaie également d’apaiser les préoccupations non-CSAM qui pourraient être injectées dans neuralMatch afin de signaler les comptes. « Apple n’ajoute pas à l’ensemble des hachages d’images CSAM connus », indique-t-il. « Le même ensemble de hachages est stocké dans le système d’exploitation de chaque utilisateur d’iPhone et d’iPad, de sorte que les attaques ciblées contre des individus spécifiques ne sont pas possibles dans notre conception. »

Certains défenseurs de la vie privée ne sont pas convaincus. Ingénierie de la sécurité et professeur à la Royal Society Steven Murdoch a souligné les cas passés dans lesquels cette promesse n’a pas tenu. « [United Kingdom ISPs] perdu au tribunal et l’a fait quand même. Apple quittera-t-il un marché s’il est placé dans la même position ? »

Le système d’Apple vérifiera les hachages d’images par rapport à une base de données d’images du National Center for Missing & Exploited Children, sur laquelle Apple n’aura aucun contrôle.

Le chercheur en cryptomonnaie de l’Université Johns Hopkins, Matthew Green, a théorisé un scénario dans lequel le ministère de la Justice des États-Unis pourrait simplement passer directement la tête d’Apple au NCMEC, lui demandant d’ajouter du matériel non CSAM, et le NCMEC pourrait acquiescer sans qu’Apple le sache.

En appel, Apple a dit Joseph Cox de Motherboard que le système n’est pas lancé en Chine, en réponse à une question sur ce que ferait Apple si le gouvernement chinois demandait à Apple de rechercher du contenu non CSAM.