Abandon des plans d’analyse Apple CSAM attaqués par le régulateur

Abandon des plans d'analyse Apple CSAM attaqués par le régulateur

Les plans d’analyse Apple CSAM ont peut-être été abandonnés, mais cela n’a pas mis fin à la controverse. Un régulateur australien a accusé la société Cupertino de fermer les yeux sur l’exploitation sexuelle des enfants.

Elle a déclaré qu’Apple et Microsoft ne parvenaient pas à prendre des mesures pour protéger « les plus vulnérables des plus prédateurs »…

Arrière plan

La façon habituelle de détecter le matériel d’abus sexuels sur des enfants (CSAM) est lorsque des services cloud tels que Google Photos analysent les photos téléchargées et les comparent à une base de données d’images CSAM connues. Cette base de données est fournie par le NCMEC et des organisations similaires dans le monde.

Le processus de correspondance proprement dit utilise ce qu’on appelle un hachage ou une empreinte numérique. Ceci est dérivé des éléments clés de l’image et est délibérément flou afin qu’il continue à fonctionner lorsque les images sont redimensionnées, recadrées ou autrement traitées. Cela indique qu’il y aura parfois des faux positifs : une image innocente dont le hachage correspond suffisamment à une image CSAM.

Apple a prévu une approche plus respectueuse de la vie privée, dans laquelle la numérisation a eu lieu sur l’iPhone de l’utilisateur, plutôt que dans le cloud – mais les experts en cybersécurité, les organisations de défense des droits de l’homme, les gouvernements et les propres employés d’Apple ont tous soulevé quatre préoccupations concernant les plans.

Bien qu’Apple ait semblé surpris par le refoulement, nous avons souligné à l’époque que cela était tout à fait prévisible étant donné la messagerie constante de l’entreprise basée sur la confidentialité selon laquelle « ce qui se passe sur l’iPhone reste sur l’iPhone ».

L’entreprise a mis en place d’énormes panneaux d’affichage. Il a diffusé des publicités amusantes. Il a un microsite de confidentialité complet. Son PDG parle de confidentialité dans chaque interview et apparition publique. La société attaque d’autres géants de la technologie au sujet de la confidentialité. Il a combattu l’ensemble de l’industrie de la publicité pour une nouvelle fonctionnalité de confidentialité.

Après avoir initialement déclaré qu’elle suspendrait le déploiement afin de prendre en compte les préoccupations soulevées et de mettre en place des garanties de confidentialité supplémentaires, la société a discrètement supprimé toute référence à celle-ci. Interrogé, Apple a déclaré que la fonctionnalité avait été retardée et non annulée. Cependant, cela a changé la semaine dernière.

Le jour même où la société a annoncé la protection avancée des données avec un cryptage de bout en bout pour toutes les données iCloud, elle a également mis fin à l’analyse CSAM jamais publiée. La nouvelle a été confirmée par le vice-président du génie logiciel d’Apple, Craig Federighi, dans une interview avec Joanna Stern du WSJ.

Le régulateur australien accuse Apple de fermer les yeux

Reuters rapporte que le commissaire australien à la sécurité électronique a accusé Apple et Microsoft de ne pas avoir joué leur rôle dans la prévention du partage de CSAM.

Le commissaire à la sécurité électronique, un bureau créé pour protéger les utilisateurs d’Internet, a déclaré qu’après avoir envoyé des demandes légales d’informations à certaines des plus grandes entreprises Internet du monde, les réponses ont montré qu’Apple et Microsoft n’avaient pas filtré de manière proactive le matériel pédopornographique dans leurs services de stockage. , iCloud et OneDrive.

Une annonce d’Apple il y a une semaine selon laquelle il cesserait d’analyser les comptes iCloud pour les abus d’enfants, suite à la pression des défenseurs de la vie privée, était « un pas en arrière majeur par rapport à leurs responsabilités d’aider à assurer la sécurité des enfants », a déclaré Inman Grant.

L’incapacité des deux entreprises à détecter les abus diffusés en direct revient à « certaines des entreprises technologiques les plus grandes et les plus riches du monde à fermer les yeux et à ne pas prendre les mesures appropriées pour protéger les plus vulnérables des plus prédateurs », a-t-elle ajouté.

Reste à savoir si Apple pourra maintenir sa nouvelle position. L’entreprise pourrait à l’avenir être confrontée à une obligation légale de détecter le CSAM.


Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :