Le générateur d’art IA Stable Diffusion fait face à une autre action en justice pour atteinte aux droits d’auteur, cette fois de Getty

Une patate chaude : Pour la deuxième fois cette semaine, Stability AI, créateur de l’outil de génération d’art Stable Diffusion, est poursuivi en justice pour violation présumée du droit d’auteur pour avoir récupéré du contenu pour former ses systèmes. Cette fois, le fournisseur d’images/vidéos/musique a « engagé une procédure judiciaire devant la Haute Cour de justice de Londres » contre Stability AI.

a déclaré dans un communiqué que Stability AI avait illégalement copié et traité des millions d’images protégées par le droit d’auteur « sans licence au profit des intérêts commerciaux de Stability AI et au détriment des créateurs de contenu ».

Le PDG de , Craig Peters, a déclaré à The Verge que la société avait informé Stability AI de son prochain litige au Royaume-Uni. On ne sait pas si un cas américain suivra.

« L’entreprise [Stability AI] n’a fait aucune démarche auprès de pour utiliser notre hardware ou celui de nos contributeurs, nous prenons donc des mesures pour protéger nos droits de propriété intellectuelle et ceux de nos contributeurs », a déclaré Peters.

Découvrez comment exécuter une diffusion stable sur votre PC pour générer des images AI

Il semble que les avocats de Stability AI auront encore quelques mois, voire des années, devant eux. Nous avons appris hier que trois artistes avaient lancé un recours collectif contre la société, Midjourney (un autre générateur d’art IA) et le site de portefeuille DeviantArt pour avoir prétendument violé les lois sur le droit d’auteur. L’avocat Matthew Butterick, qui a déposé l’affaire aux côtés du spécialiste de l’antitrust et des recours collectifs Joseph Saveri Law Firm, a déclaré que les créateurs craignaient que les systèmes d’IA soient formés sur des œuvres protégées par le droit d’auteur sans consentement, crédit ou compensation.

Les questions sur les matériaux sur lesquels les IA génératives sont formées côtoient les craintes qu’elles ne remplacent les emplois humains. Cela s’avère être un domaine trouble, légalement, la plupart des créateurs des systèmes affirmant qu’une telle formation relève de la doctrine de l’utilisation équitable aux États-Unis ou de l’utilisation équitable au Royaume-Uni. Peters dit que ne pense pas que ce soit exact, sans surprise.

Quelque chose qui pourrait soutenir le cas de est une analyse indépendante de l’ensemble de données de Stability AI qui a révélé qu’une grande partie provenait de et d’autres sites d’images de stock. De plus, l’IA recrée souvent le filigrane de dans ses images générées.

Peters a déclaré à The Verge que n’est pas intéressée par une compensation financière ou l’arrêt du développement de ces IA, mais par la recherche de moyens de construire un modèle qui respecte la propriété intellectuelle. Stability AI indique que la prochaine version de Stable Diffusion permettra aux artistes de ne pas inclure leur travail dans les ensembles de données de formation, mais cela pourrait ne pas suffire à apaiser les créateurs originaux et les entreprises comme .

Ajoutant à la controverse, la récente nouvelle selon laquelle une artiste californienne basée sur l’IA a découvert que des photos de dossiers médicaux privés prises par son médecin en 2013 faisaient partie de l’ensemble d’images LAION-5B. L’ensemble de données, une collection de 5 milliards d’images et de légendes descriptives associées créées par un organisme de recherche à but non lucratif basé en Allemagne, est utilisé pour entraîner la diffusion stable et d’autres IA génératives. Les artistes peuvent vérifier si leur travail fait partie de LAION-5B sur Have I Been Trained.