Apple confirme qu’il a mis fin à ses plans de déploiement du système de détection CSAM

Apple confirme qu'il a mis fin à ses plans de déploiement du système de détection CSAM

En 2021, Apple a annoncé un certain nombre de nouvelles fonctionnalités de sécurité pour les enfants, notamment la détection de matériel d’abus sexuel d’enfants (CSAM) pour iCloud Photos. Cependant, cette décision a été largement critiquée en raison de problèmes de confidentialité. Après l’avoir suspendu indéfiniment, Apple a maintenant confirmé qu’il avait mis fin à ses plans de déploiement du système de détection CSAM.

Apple ne recherchera plus CSAM dans iCloud Photos

Le jour même où la société a annoncé la protection avancée des données avec un cryptage de bout en bout pour toutes les données iCloud, elle a également mis fin à l’analyse CSAM jamais publiée. La nouvelle a été confirmée par le vice-président du génie logiciel d’Apple, Craig Federighi, dans une interview avec WSJ Joanna Stern.

Lorsque l’analyse CSAM a été annoncée, Apple a déclaré qu’iCloud Photos serait en mesure de détecter le matériel inapproprié dans les photos des utilisateurs sur la base d’une base de données de hachages d’images CSAM. De cette façon, l’entreprise serait en mesure de détecter ces photos en utilisant le traitement sur l’appareil sans jamais avoir à voir les photos des utilisateurs.

Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport à l’ensemble illisible de hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat. L’intersection d’ensembles privés (PSI) permet à Apple de savoir si un hachage d’image correspond aux hachages d’image CSAM connus, sans rien apprendre sur les hachages d’image qui ne correspondent pas. PSI empêche également l’utilisateur d’apprendre s’il y avait une correspondance.

Malgré tout, l’analyse CSAM a suscité de nombreuses critiques de la part des utilisateurs. Dans une déclaration à Netcost-security.fr L’année dernière, la société a déclaré qu’elle avait choisi de « prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d’une importance cruciale ».

Il s’avère qu’Apple a maintenant décidé qu’il valait mieux mettre fin à la numérisation CSAM sur iCloud Photos. Il convient de noter, cependant, que d’autres fonctionnalités de sécurité pour les enfants telles que les restrictions sur iMessage sont toujours disponibles dans iOS.

Que pensez-vous de cette décision ? Faites-le nous savoir sur nos réseaux sociaux.


Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :