Sur Instagram il y aura un moyen de savoir si une image est réalisée par l’intelligence artificielle

Su Instagram ci sarà un modo per capire se un’immagine è fatta dall’intelligenza artificiale

Meta a annoncé qu’elle travaille sur une série d’étiquettes à appliquer sur les contenus générés par l’IA et publiés sur Instagram, Facebook et Threads. L’objectif est de les lancer d’ici l’année prochaine.

Nous assistons à une nouvelle frontière du réel synthétique. L’intelligence artificielle générative (IA) est arrivée et a commencé à produire des images fausses qui semblent réelles. « Les utilisateurs doivent être en mesure de reconnaître les contenus créés avec l’IA », a déclaré Nick Clegg, président des affaires mondiales de Meta (surtout maintenant que l’IA au service des fausses nouvelles deviendra de plus en plus dangereuse à mesure que les technologies évolueront). L’objectif de l’entreprise est de trouver et d’étiqueter les images générées par l’intelligence artificielle sur Facebook, Instagram et Threads, afin de dénoncer « les personnes et les organisations qui veulent tromper activement les personnes », a expliqué Clegg dans un article de blog. « Alors que la distinction entre contenu humain et contenu synthétique devient de plus en plus floue, les personnes veulent savoir où se trouve la frontière », a-t-il ajouté.

En réalité, les contenus contiennent déjà des filigranes et des métadonnées pour identifier l’intervention de logiciels tels que Midjourney, Dall-E ou Stable Diffusion, mais ils sont invisibles à l’œil nu, il est donc difficile pour les utilisateurs de distinguer le réel du généré par une IA. « Nos utilisateurs nous ont dit qu’ils apprécient la transparence sur cette nouvelle technologie. Il est donc important d’aider les personnes à savoir quand les contenus photoréalistes qu’ils voient ont été créés à l’aide de l’intelligence artificielle. » Clegg a expliqué que les étiquettes sont en cours de développement et seront appliquées dans les mois à venir. « L’objectif est de les rendre disponibles d’ici l’année prochaine, lorsque des élections importantes auront lieu dans le monde entier. » On a beaucoup parlé de l’impact que l’intelligence artificielle aurait sur les élections politiques. En mars, des photos truquées montrant Trump menotté et en prison ont été publiées, fin janvier, la voix de Joe Biden a été clonée. Le secrétaire d’État David Scanlan a souligné que les derniers développements de l’intelligence artificielle « renforcent la préoccupation nationale quant à l’effet de l’IA sur les campagnes ».

Comment fonctionneront les étiquettes pour l’IA

Clegg a expliqué que l’entreprise apposera également une étiquette plus visible sur les images, vidéos ou audios « créés ou altérés numériquement » qui « présentent un risque particulièrement élevé de tromper substantiellement le public sur une question importante ». En effet, des images ou des audios truqués ont déjà circulé, servant à manipuler l’opinion publique. « Ce travail est particulièrement important, il est probable qu’il deviendra un espace de plus en plus conflictuel dans les années à venir », a ajouté Clegg. « Les personnes et les organisations qui veulent activement tromper les personnes avec des contenus générés par l’intelligence artificielle chercheront des moyens de contourner les mesures de sécurité mises en place pour les détecter. Dans notre secteur et dans la société en général, nous devrons continuer à chercher des moyens de rester en avance ».

Il est de plus en plus difficile de distinguer le vrai du faux

Depuis novembre 2022, les logiciels sont devenus de plus en plus performants. Au début, il était facile de repérer les détails trahissant la nature artificielle de l’image, de l’audio ou de la vidéo. En effet, si auparavant, les détails étranges sauvaient l’œil de la tromperie, ils sont en train de disparaître. Les mains étaient un bon indicateur, disproportionnées ou avec sept doigts, même les postures pouvaient être un indice, mais avec les dernières mises à jour, les logiciels ont réussi à rectifier le tir, rendant de plus en plus difficile de distinguer le faux du réel. L’intelligence artificielle générative offre les outils pour alimenter un nouveau type de désinformation, celui qui crée des preuves pour des faits qui ne se sont jamais produits. Les biais idéologiques renforcent le regard en poussant sur les émotions fortes, inhibent les mécanismes rationnels et, dans l’enthousiasme, nous confondons le faux avec le vrai.