Un homme a utilisé l’intelligence artificielle pour supprimer la censure des vidéos porno japonaises

Un Homme A Utilisé L'intelligence Artificielle Pour Supprimer La Censure

Masayuki Nakamoto a utilisé un logiciel d’apprentissage automatique pour « libérer » les organes génitaux des acteurs dans les vidéos porno du masquage des pixels. Le résident de 43 ans de la préfecture de Hyogo a été arrêté par la police lundi. Pour cette opération, Nakamoto a utilisé la même méthode que celle choisie pour la création de deepfakes, des manipulations vidéo réalisées automatiquement par des algorithmes d’intelligence artificielle.

La nouvelle a fait sensation non seulement pour le fait lui-même, mais aussi parce que c’est la première fois que cela se produit dans le monde. Masayuki Nakamoto, 43 ans et habitant de la préfecture de Hyogo, a été arrêté lundi par la police pour avoir « libéré » des images pornographiques du flou pixelisé. Pour cette opération, il a utilisé un logiciel de Machine Learning, le même que celui utilisé pour les deepfakes, des manipulations vidéo réalisées automatiquement par des algorithmes d’intelligence artificielle.

Les détails de l’histoire

En vendant plus de 10 000 vidéos manipulées, Nakamoto a gagné 11 millions de yens (82 600 €). Apparemment, cependant, 10 fausses photos auraient provoqué son arrestation : sur celles-ci, il a obtenu 2 300 yens (17 euros). Avec ce stratagème, Nakamoto encourt la peine prévue par une loi japonaise sur l’obscénité qui interdit les représentations explicites des organes génitaux et qui explique pourquoi ils sont noircis dans les vidéos porno produites au pays du soleil levant. Selon des informations de la chaîne de télévision japonaise NHK, l’homme de 43 ans a immédiatement plaidé coupable d’avoir violé le droit d’auteur et autorisé des milliers d’utilisateurs à visionner ces images.

Le vide législatif

« C’est le premier cas au Japon où la police surprend un utilisateur utilisant l’intelligence artificielle », a déclaré à VICE World News Daisuke Sueyoshi, un avocat travaillant sur des affaires de cybercriminalité. Une exception qui s’explique aussi par le fait qu' »à l’heure actuelle il n’y a pas de loi qui criminalise l’utilisation de l’IA pour faire ces images ». En fait, Nakamoto n’a pas été inculpé de crimes faisant référence à la violation de la vie privée des acteurs dans les vidéos.

Tout ce que vous devez savoir sur FIFA 22, de l’HyperMotion à l’intelligence artificielle

Les statistiques

Sur la base d’études de Sensity, une startup qui détecte les vidéos Web manipulées, 96% des deepfakes en 2019 représentaient des actes de pornographie non consensuelle. De nombreux utilisateurs de Reddit, dont le but était de rendre virales des vidéos de cette nature, ont utilisé l’intelligence artificielle pour superposer les visages de célébrités féminines à ceux d’actrices engagées dans des films hardcore. Cela a conduit à la création de cas énigmatiques, où les victimes d’un « crime » (dans de nombreux pays qui n’existent pas, comme le Japon) n’ont pas pu éliminer les contenus portant atteinte à leur personne.