Aux États-Unis, utiliser l’intelligence artificielle pour les fake news est sur le point de devenir un crime

Aux États-Unis, utiliser l'intelligence artificielle pour les fake news est sur le point de devenir un crime

Le Sénat du Minnesota a proposé un projet de loi interdisant l’utilisation de l’intelligence artificielle pour créer des photos de personnes réelles dans des contextes compromettants. La réglementation couvre également l’application de l’intelligence artificielle pour la création de deepfake porn.

Aux États-Unis, l’opinion publique a pris conscience du potentiel de l’intelligence artificielle appliquée à la photographie au moins à deux reprises : la première est lorsque les images de Donald Trump arrêté par le FBI sont devenues virales pendant un certain temps. Une circonstance qui ne s’est jamais produite, malgré des condamnations récentes. La seconde est lorsque le pape François a commencé à envahir les écrans des smartphones avec des couettes surdimensionnées et des poses de gangsters avec des colliers en or et des tatouages. Là encore rien à faire, le Pape n’a pas transformé la Cité du Vatican en maison piège.

En dehors de ces exemples, certainement plus sensationnels, l’intelligence artificielle a rendu la vie beaucoup plus facile à ceux qui veulent créer de fausses nouvelles à l’aide d’images. Cela aurait pu être fait plus tôt, bien sûr. Pourtant, pour créer quelque chose de crédible, il fallait au moins une certaine familiarité avec Photoshop. Maintenant, pour construire une fausse image, il suffit de choisir les bons mots pour l’invite, la bande de commandes à envoyer à l’intelligence artificielle. Ici, nous vous avons dit à quel point cette opération est simple. Cependant, l’État du Minnesota aux États-Unis a maintenant décidé de criminaliser l’utilisation de l’intelligence artificielle pour créer de fausses nouvelles.

La loi contre les deepfakes

Le projet de loi a été présenté par le Sénat du Minnesota et le but est de frapper tous ceux qui utilisent l’intelligence artificielle en déformant l’image des personnes réelles. Cela concerne à la fois les fake news et le deepfake porn, ceux créés en appliquant les visages de personnes non consentantes sur les corps d’acteurs hardcore. Une autre déclinaison de cette pratique consiste à créer des images de nu à partir de photos de personnes habillées, comme nous l’avons expliqué avec le cas de Bikini Off.

Dans les premières versions de ce projet de loi, il y avait des exceptions dans les cas où l’image de nu était créée uniquement à des fins de parodie, mais avec la dernière version, cette variante a également été éliminée. Si tout se passe bien, cette proposition devrait devenir loi dans tout le pays fin mai, faisant du Minnesota le premier État américain à adopter un ensemble de lois sur cette question.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :