Échec d’Apple : message manquant avec le nouveau système de protection de l’enfance

Échec D'apple : Message Manquant Avec Le Nouveau Système De Protection

Les nouvelles versions des systèmes d’exploitation d’Apple, dont iOS 15, apporteront avec elles un système avec trois nouvelles fonctionnalités de protection de l’enfance qui visent essentiellement à protéger l’image des plus jeunes, afin qu’ils ne tombent pas dans la toile des réseaux pédopornographiques et pas dans les situations de harcèlement.

Cependant, ces nouvelles actions ont été vivement contestées et il est maintenant évident qu’Apple a raté le message lors de l’annonce de la nouvelle.

Le nouveau système d’Apple pour vérifier le contenu pédopornographique

Craig Federighi, vice-président senior de l’ingénierie logicielle d’Apple, a déclaré que la société avait fait une erreur en publiant les trois nouvelles fonctionnalités de protection des enfants en même temps et aurait souhaité que la confusion soit évitée.

Il est rappelé qu’à la fin de la semaine dernière, Apple a annoncé trois mesures visant à protéger les enfants jusqu’à 13 ans. Concrètement, un triple système de plus d’informations via Siri, une surveillance du contenu des photographies iCloud pour détecter la pédopornographie et un système de prévention contre les images explicites dans l’application Messages (iMessage).

Ces mesures viendront avec iOS 15, iPadOS 15 et macOS 12 Monterey et étendront les protections pour les enfants, toujours dans le plein respect de la confidentialité de toutes les données. Ces informations à elles seules soulèvent des problèmes liés à la protection des enfants et à l’atteinte à la vie privée par l’écosystème Apple lui-même.

Cependant, tout a été expliqué et vous pouvez trouver tous les détails dans l’article suivant :

Apple n’a pas réussi à communiquer

Dans une récente interview accordée au Wall Street Journal, Federighi vante l’importance des nouvelles mesures, cependant, il n’était pas clair quand les trois nouveautés ont été annoncées. Principalement avec la surveillance du contenu des photographies iCloud et dans l’application de messagerie.

J’avoue qu’avec le recul, présenter ces deux caractéristiques en même temps était une recette pour ce genre de confusion. Il est très clair que de nombreux messages étaient confus. Je crois que le slogan omniprésent était « oh mon dieu, Apple cherche des photos sur mon téléphone ». Ce n’est pas ce qui va se passer.

Comme vous pouvez le lire dans l’article partagé ci-dessus, outre les nouvelles fonctionnalités qui ne sont activées que pour les enfants de moins de 13 ans et sous la direction de leurs parents ou éducateurs, l’ensemble du système d’analyse d’images repose sur un système d’apprentissage automatique intégré au système. appareil, même en cas de détection d’images de mineurs dans iCloud.

Selon Craig Federighi, ces nouvelles fonctionnalités sont apparues afin d’agir sur le problème de la maltraitance des mineurs, mais sans interférer avec la vie privée des utilisateurs.

Nous voulions faire quelque chose, mais nous ne voulions pas mettre en œuvre une solution qui impliquait de parcourir toutes les données des clients.

Considérez-vous également que l’entreprise a échoué dans sa communication ?