Deux étudiants ont été arrêtés pour avoir utilisé l’IA pour déshabiller leurs camarades de classe

Image

Les deux garçons avaient 13 et 14 ans. Selon les accusations de la police, ils auraient créé et diffusé des images pornographiques de leurs camarades d’école développées par l’intelligence artificielle. Les agents ont choisi de ne pas divulguer le nom du logiciel utilisé.

Image

Ce n’est pas le premier cas dont nous entendons parler, ce ne sera pas le dernier. En Floride, deux élèves âgés de 13 et 14 ans ont utilisé une application basée sur l’intelligence artificielle pour créer des images nues de leurs camarades d’école. Tous sont des enfants un peu plus jeunes, entre 12 et 13 ans. Techniquement, cette technique s’appelle le deepfake. L’intelligence artificielle vole le visage d’une personne pour l’associer à un corps aux traits similaires, réel ou produit par un traitement de l’intelligence artificielle. Un cas similaire s’est également produit en Italie.

La chose intéressante cette fois-ci est l'<strong’issue. Selon une série de documents récupérés par la version internationale de Wired, le 22 décembre 2023, ces deux garçons ont été arrêtés par la police de Floride. Ils ont été accusés d’avoir enfreint une loi de l’État interdisant le partage de toute image d’une personne modifiée de manière sexuelle, sauf si le consentement de la personne représentée est donné.

Le problème des deepfakes aux États-Unis

Les documents ne mentionnent pas l’application utilisée pour créer des images nues à partir de photos réelles. Cependant, une donnée est disponible. Alors qu’auparavant il fallait une compétence technique considérable pour créer de telles images, il suffit désormais de deux clics et du bon site. Les principaux logiciels traitant des images générées par l’intelligence artificielle ont des filtres interdisant la production d’images pornographiques, mais cela ne s’applique pas aux programmes moins connus.

Aux États-Unis, le problème des deepfakes a été clair avec le cas de Taylor Swift. Sur X (anciennement Twitter), circulaient pendant des jours des images et des vidéos superposant le visage de la chanteuse à des scènes pornographiques. Une donnée existe également. Peu importe si le deepfake est précis, si les contours du visage correspondent parfaitement ou si les proportions du corps sont respectées : une seule image explicite peut suffire à blesser une victime. Les parents d’une des victimes des garçons arrêtés en Floride l’ont expliqué :

« Nos filles ne se sentent pas en sécurité en marchant dans les mêmes couloirs que ces garçons ». Une victime anonyme a commenté l’incident à une chaîne locale de télévision : « Ce qui s’est passé me fait me sentir violée, exploitée et utilisée ».