Lensa a-t-elle un problème avec les femmes ? Les avatars magiques transforment n’importe qui en diva érotique

Lensa A T Elle Un Problème Avec Les Femmes ? Les Avatars

Il suffit de télécharger 10 photos et l’intelligence artificielle crée des avatars magiques, mais de nombreuses femmes se sont senties violées parce qu’elles sont représentées nues et dans des poses érotiques.

Nous avons essayé d’utiliser Lensa AI et quelque chose s’est mal passé. Pour tester le logiciel, 10 photos de femmes ont été téléchargées, comme demandé par l’application, et nous avons attendu que l’intelligence artificielle génère les Magic Avatars, les selfies transformés en œuvres d’art. Le résultat, cependant, n’était pas une peinture à l’huile avec des traits stylisés, mais une version sexualisée avec des seins plus gros, des regards séduisants et des épaules nues.

Héroïne de l’espace, femme fatale immergée dans la nature, protagoniste de manga érotique. Bref, un chapelet d’images où le visage et le corps ont été pliés sous les stéréotypes du désir masculin. Parmi les 50 images générées figuraient également des portraits sobres qui représentaient le visage propre sans distorsions sensuelles. Pourtant, dans chacune des catégories créées par l’IA, au moins une reproduction érotique du sujet est apparue.

LENTILLE |  L'un des tests effectués par Fanpage.it

LENTILLE | L’un des tests effectués par Netcost-security.fr

Images générées par Lensa

Dans une série de figures créées par l’IA, par exemple, un cinquième sein est apparu, malgré le fait que le sujet représenté porte une taille plus petite et dans les photos téléchargées, il n’y avait aucune image de la poitrine exposée ou mise en évidence. À côté se trouve une image du corps (seules des photos du visage ont été téléchargées sur l’application), représentée sur une chaise avec une cuisse semi-découverte en mouvement.

Un peu en dessous sont alors apparues des images avec une forte référence à la pornographie japonaise. L’IA a dessiné une expression ahegao sur le visage, ou le visage orgasmique avec les yeux croisés et la langue saillante, souvent représenté dans les mangas érotiques, les anime (hentai) et les jeux vidéo (erogē). Dans une autre représentation, cependant, le sujet était dépeint comme une fée sexy dans les bois avec une épaulette qui se glisse malicieusement sur l’épaule. Certaines images ont complètement déformé le visage le rendant méconnaissable.

Rapports sur la sexualisation de Lensa

La tendance algorithmique à sexualiser les sujets est non seulement dérangeante, mais aussi potentiellement dangereuse, et notre cas n’est certainement pas isolé. Les mamelons gonflés, les chemises mouillées, les corps aux seins nus et en sablier sont apparus sur les écrans de nombreuses autres femmes.

« Est-ce que c’est juste moi ou est-ce que ces applications de générateur de selfie AI perpétuent la misogynie? » a tweeté Brandee Barker, une féministe qui a travaillé dans l’industrie de la technologie. « Voici quelques-unes que j’ai juste basées sur des photos de mon visage. » Parmi les résultats de Barker figuraient des images d’elle dans des extensions de mannequin et une combinaison plongeante, en tant que viking porno avec d’énormes seins au premier plan, une autre en sous-vêtements blancs avec le décolleté mis en évidence.

Une femme qui a vu ses images nues produites sur l’application a avoué : « Honnêtement, je me suis sentie très violée après les avoir vues. » Sur Twitter, il y a aussi ceux qui demandent « Est-ce que quelqu’un d’autre a beaucoup de seins sur les photos de Lensa ou juste moi ? », un autre internaute ironise « Lensa m’a fait une poitrine ! Grâce à!!! ».

Les dérives de Lensa Ai

L’IA ne se contente pas de déshabiller les femmes, il y a aussi une dérive raciste à l’intérieur de Lensa. Plusieurs femmes noires ont expliqué que Lensa avait blanchi leur peau et anglicisé les traits, allant changer la morphologie du visage. Non seulement cela, certaines femmes asiatiques se sont plaintes que l’IA soit occidentalisait les visages, soit les reproduisait avec un style manga érotique qui allait salir les traits d’origine. Il semble que l’IA intervienne aussi sur le poids, les femmes ont souvent été dépeintes plus minces et plus minces.

Pas seulement. Même les mineurs ne semblent pas à l’abri de la sexualisation. Olivia Snow, chercheuse au Center for Critical Internet Inquiry de l’UCLA, a essayé de télécharger des photos de son enfance, le résultat était des portraits dans un style lolita avec le corps adulte découvert et le visage d’un enfant défiguré avec des regards érotiques. Un avatar avec un visage enfantin et une feuille entre les seins nus d’un adulte est également apparu.

Un problème beaucoup plus complexe

Après que l’application soit devenue virale, le magazine spécialisé TechCrunch a remarqué que si les utilisateurs envoyaient des photos photoshoppées du visage d’une personne sur le corps d’un modèle nu, l’application deviendrait « sauvage », désactiverait son « non sûr pour le travail » (NSFW) et proposerait des nus comme un machine à sous devenue folle.

Il est évident que Lensa pourrait également devenir une usine incontrôlée pour générer de la pornographie et de la pédopornographie à l’insu du sujet d’origine. D’autre part, l’IA a été formée sur du contenu Internet non filtré, elle reflète donc tous les préjugés que les gens produisent dans les images. En fait, les créateurs ont reconnu la possibilité de préjugés sociaux au sein de l’application.

Les filtres NSFW sont censés réduire les biais, mais Lensa en est la preuve, l’intelligence artificielle a encore un long chemin à parcourir. Pour l’instant, les créateurs expliquent que « le produit n’est pas destiné à être utilisé par des mineurs et nous avertissons les utilisateurs sur les risques potentiels du contenu. Nous nous abstenons également d’utiliser de telles images dans notre matériel promotionnel ». Merci. Pendant ce temps, les femmes seront obligées de ne pas utiliser l’application si elles ne veulent pas tomber sur des images sexualisées d’elles-mêmes, se sentir déçues et, peut-être, violées.

LENTILLE |  Kelsey Weekman

LENTILLE | Kelsey Weekman