Qu’est-ce que le poison de l’intelligence artificielle : rendre les machines folles pour protéger les données

Cos’è il veleno dell’intelligenza artificiale: fa impazzire le macchine per proteggere i dati

Intelligence artificielle (IA)

Appelé Nightshade, il a été créé par des chercheurs de l’Université de Chicago et permet aux artistes d’ajouter des modifications invisibles à leurs œuvres avant de les télécharger en ligne.

Image

Greg Rutkowski, artiste concepteur célèbre pour ses œuvres de style fantastique, découvre en janvier 2023 que des illustrations identiques aux siennes circulent sur le web. Sauf qu’il ne les a jamais dessinées. L’artiste a, en effet, été mentionné des centaines de milliers de fois dans les suggestions de Midjourney. Selon le site Lexica, qui répertorie plus de 10 millions d’images et de suggestions générées par Stable Diffusion, le nom de Rutkowski a été utilisé environ 93 000 fois. Les machines absorbent les textes, les images et tout ce qui se trouve sur le web, puis produisent des résultats qui ressemblent souvent trop aux données sur lesquelles elles ont été entraînées. L’intelligence artificielle a soulevé de nouvelles questions et batailles juridiques sur le droit d’auteur. Mais maintenant, il y a un nouvel outil.

Appelé Nightshade, il a été réalisé par des chercheurs de l’Université de Chicago et permet aux artistes d’ajouter des modifications invisibles à leurs œuvres avant de les télécharger en ligne, de sorte que, si elles sont incluses dans un ensemble de formation de l’IA, elles perturbent le modèle. L’idée est de « poisonner » les données d’entraînement, si elles sont intégrées aux modèles d’intelligence artificielle comme DALL-E, Midjourney et Stable Diffusion, elles créent de la confusion et des sorties incorrectes. Par exemple, les chats deviennent des chiens, les voitures se transforment en vaches, les déserts en piscines olympiques. Son lancement a connu un succès inattendu : 250 000 téléchargements en seulement cinq jours.

Comment fonctionne Nightshade

L’objectif est de contrer les entreprises d’intelligence artificielle qui utilisent le travail des artistes pour former leurs propres modèles sans autorisation. Ben Zhao, professeur à l’Université de Chicago, qui a dirigé l’équipe ayant créé Nightshade, a expliqué qu’ils souhaitent contribuer à rééquilibrer en faveur des artistes, en « créant un puissant moyen de dissuasion contre le non-respect du droit d’auteur ».

L’équipe de Zhao avait déjà développé Glaze, un outil permettant aux artistes de « masquer » leur style et d’éviter qu’il ne soit utilisé par les sociétés d’intelligence artificielle pour entraîner leurs machines. Comme Nightshade, il modifie les pixels des images, les changements sont invisibles à l’œil humain et parviennent à tromper les modèles d’apprentissage automatique. L’équipe a décidé que Nightshade serait open source, de cette manière, les artistes pourront modifier ou créer des versions sur mesure, « ce qui rendra l’outil plus puissant et efficace« .

Que se passe-t-il lorsque l’on empoisonne les IA

Comme ils l’ont expliqué, les échantillons de données empoisonnés peuvent manipuler les modèles d’IA. Ils sont très difficiles à éliminer, les entreprises devraient en effet trouver et éliminer soigneusement chaque exemplaire corrompu. De plus, comme l’ont expliqué les chercheurs, Nightshade n’infecte pas seulement un mot, mais aussi les termes associés. Par exemple, si le modèle détecte une image empoisonnée pour le mot-clé « art fantastique », les commandes « dragon » et « un château dans Le Seigneur des Anneaux » seraient également modifiées et transformées en autre chose.

L’outil pourrait donc également être utilisé pour endommager gratuitement les systèmes, mais l’équipe a souligné que « les attaquants auraient besoin de milliers d’échantillons empoisonnés pour causer de réels dommages aux modèles plus grands et puissants, car ils sont entraînés sur des milliards d’échantillons de données. »