Apple vérifie déjà les e-mails à la recherche de matériel pédopornographique

Apple Vérifie Déjà Les E Mails à La Recherche De Matériel

Apple veut vraiment supprimer de son écosystème tout matériel lié à la maltraitance des enfants. Cette action a déjà conduit à la détection et à la poursuite d’un utilisateur qui avait plus de 2000 images et vidéos dans son compte iCloud.

Bien que le sujet ne soit plus abordé maintenant, car il s’agit d’un système qui sera inclus dans iOS 15 et iPadOS 15, Apple l’utilisait déjà dans iCloud Mail.

De nombreux fans d’Apple ont été contrariés par le projet de l’entreprise de commencer à suivre les téléchargements de photos sur iPhone et iPad sur iOS 15 de matériel lié à la maltraitance des enfants (CSAM). Cependant, Apple le faisait déjà sur iCloud, plus précisément sur le service de messagerie.

La société avait déjà mis en place le système pour détecter la pornographie enfantine dans les e-mails iCloud, bien qu’elle ne l’ait pas fait dans iCloud Photos ou iCloud Drive.

En effet, c’est précisément avec le service actif que l’entreprise a détecté qu’un médecin conservait plus de 2 000 images et vidéos dans son compte iCloud.

Image Apple iCloud Mail avec CSAM

Quand Apple a-t-il commencé à utiliser le système de détection CSAM ?

Même si la société vient tout juste d’annoncer l’utilisation du système qui surveillera plus en détail les téléchargements d’images pour l’iPhone et l’iPad, Apple l’utilise depuis un certain temps.

Selon ce qui a été révélé au CES en janvier 2020, le système de détection de matériel d’abus sexuels sur enfants ou CSAM a commencé à être utilisé sur iCloud Mail en 2019. Le géant de Cupertino affirme que les comptes contenant du contenu CSAM violent ses termes et conditions et seront désactivés. .

Après l’annonce récente, il y avait un chœur de voix en désaccord avec le nouveau système. Cependant, il est dans le plein intérêt des responsables de la sélection de procéder.

Le système préserve-t-il la confidentialité des utilisateurs ?

Apple garantit que tous les utilisateurs bénéficieront d’une confidentialité et d’une sécurité totales. Le nouveau système de détection de matériel pédopornographique (CSAM) utilise l’apprentissage automatique pour analyser les images jointes et déterminer si une photo est sexuellement explicite.

La fonctionnalité est conçue pour qu’Apple n’ait pas accès aux images.

Malgré les explications d’Apple, les défenseurs de la vie privée n’aiment pas ce système. Certains des propres employés d’Apple ont exprimé leurs inquiétudes à cet égard.

Les organisations de défense des droits ont exhorté Tim Cook à le tuer avant même qu’il ne commence à atteindre les iPhones et iPads aux États-Unis. Cependant, la surveillance CSAM n’est pas une nouveauté chez Apple.

À l’instar des filtres anti-spam dans les e-mails, notre système utilise des signatures électroniques pour détecter les soupçons d’exploitation d’enfants. Nous validons chaque correspondance avec une analyse individuelle.

Les comptes avec du contenu d’exploitation d’enfants enfreignent nos conditions générales de service, et tous les comptes que nous trouvons avec ce matériel seront désactivés.

Il a fait référence à la société Cupertino.

Illustration de la maltraitance des enfants CSAM

Apple augmente le suivi des matériaux CSAM

Les raisons de la décision d’Apple d’étendre l’analyse CSAM ne sont toujours pas tout à fait claires. Mais selon une conversation entre des employés d’Apple en 2020, découverte dans le cadre d’allégations dans la bataille juridique en cours entre Apple et Epic Games, le responsable anti-fraude Eric Friedman a décrit Apple comme « la plus grande plate-forme de distribution de pornographie enfantine ».

Malgré cette affirmation, on pense que le nombre total de cas CSAM découverts par Apple sur iCloud Mail chaque année se « mesuré par centaines ». Cela ne semble pas si important – bien qu’un seul soit totalement inacceptable – étant donné que des milliards d’appareils Apple sont utilisés dans le monde.

L’expansion peut avoir quelque chose à voir avec le fait que certains des concurrents d’Apple, dont Microsoft, recherchent également du contenu CSAM. Apple a peut-être eu l’impression que cela n’avait pas l’air bien « dans l’image » s’il n’avançait pas comme le font les autres plates-formes.