NewsGuard et ShadowDragon ont trouvé 125 sites publiant de fausses critiques, des événements fabriqués, des conseils médicaux trompeurs et de fausses nouvelles écrites par l’intelligence artificielle.
Des centaines d’articles générés par l’IA sont apparus sur le Web, ce qui n’aide pas la confiance déjà faible dans tout ce que le Web crache. Ce sont des fake news, des publicités, des revues instrumentales, des conseils médicaux trompeurs, certains sont de simples articles qui reproduisent les principaux journaux. Nous avons peut-être même lu certains d’entre eux, sans nous rendre compte qu’il s’agissait d’une séquence de mots générée par l’IA. Deux rapports publiés vendredi, l’un par NewsGuard et l’autre par ShadowDragon (les deux sociétés qui suivent la désinformation en ligne), montrent que la technologie est en train de remodeler le paysage des fausses nouvelles.
Les sites, (ils en ont trouvé 125) « n’identifient souvent pas leurs propriétaires, produisent une grande quantité de contenu sur divers sujets, notamment la politique, la santé, le divertissement, la finance et la technologie. Certains de ces sites publient des centaines d’articles par jour. Certains articles promouvoir de faux récits », explique NewsGuard. Et si les machines sont désormais plus douées pour tromper, nous devons apprendre à traquer les traces artificielles qu’elles laissent derrière elles. Heureusement, plusieurs indices dénoncent le caractère non humain d’une écriture.
Les fake news trouvées sur les sites
« Les consommateurs d’actualités font de plus en plus confiance aux sources d’information, en partie à cause de la difficulté à distinguer une source généralement fiable d’une source généralement peu fiable », a expliqué Steven Brill, PDG de NewsGuard. « Cette nouvelle vague de sites alimentés par l’IA ne fera que rendre plus difficile pour les consommateurs de savoir qui leur fournit les informations, ce qui réduira encore la confiance. »
NewsGuard a trouvé 125 sites Web diffusant de fausses informations générées par l’intelligence artificielle. Il peut s’agir de reportages, d’actualités, de conseils de mode, de style de vie, d’informations sur les célébrités. Certains ont également été traduits dans différentes langues (tchèque, chinois, français, anglais, portugais, tagalog et thaï). Plus de 50 articles écrits par l’IA offrant des conseils médicaux ont également été trouvés. Tous les sites sont chargés d’annonces, ce qui suggère qu’ils sont conçus pour générer des revenus à partir d’annonces, qui sont ensuite placées à l’aide d’algorithmes. En avril 2023, NewsGuard a envoyé un e-mail à 29 sites, deux ont confirmé qu’ils avaient utilisé l’intelligence artificielle pour produire du contenu, les 27 autres ont refusé de répondre.
Même ShadowDragon a trouvé du contenu artificiel publié sur le web, mais aussi sur Instagram ou parmi les commentaires et critiques d’Amazon. La société a expliqué que plusieurs comptes Instagram semblent utiliser ChatGPT ou d’autres outils d’intelligence artificielle pour écrire des descriptions sous des images et des vidéos. Pour comprendre l’intervention d’une machine, il suffit de lire attentivement, elles utilisent souvent des phrases simples, font quelques erreurs et surtout se répètent. Parmi ces commentaires, ShadowDragon a également trouvé des informations incorrectes ou des références à des stéréotypes offensants. Des phrases similaires sont également apparues sur LinkedIn et sur des forums d’extrême droite sur Twitter. Certains messages ont été publiés par des robots désormais célèbres comme ReplyGPT, d’autres par des comptes qui semblent appartenir à des utilisateurs humains (bien que ce ne soit pas le cas).
Comment comprendre qu’un article a été écrit par l’IA
Les sites identifiés ont des noms communs proches de ceux de petites réalités éditoriales. Quelques exemples : Biz Breaking News, News Live 79, Daily Business Post et Market News Reports. Pourtant, il n’y a pas une rédaction de journalistes derrière, mais une intelligence artificielle. Ils résument souvent ou réécrivent sommairement le contenu d’autres publications. Un autre indice pour reconnaître les articles écrits par AI sont les auteurs. Ils ne sont pas signés, à la place du nom et du prénom il y a souvent Admin ou Editor. Cependant, la règle ne s’applique pas à tout le monde, dans certains cas de faux profils et noms sont créés. Même dans ce cas, cependant, il existe une solution et c’est assez simple. Effectuez simplement une recherche d’image inversée pour découvrir qu’il s’agit de faux utilisateurs.
La langue reste l’indice le plus évident pour le moment. L’IA a sa propre façon de parler, des phrases récurrentes, une tendance à se rendre utile et à admettre que sa vision n’est que partielle. Si dans un article vous trouvez « Je ne peux pas donner mon avis » ou même simplement des informations et des règles générales de confidentialité accompagnées d’avis de droits d’auteur, il est très probable qu’il n’y ait rien d’humain dans cet article. Comme l’explique NewsGuard : « Presque tout le contenu est écrit en utilisant un langage ringard et des phrases répétitives, caractéristiques de la copie alimentée par l’IA. »
Voici un exemple qui facilite la reconnaissance des articles générés par l’IA. CountyLocalNews.com, un site proposant des articles sur la criminalité et l’actualité, a publié un article (écrit avec AI) en mars 2023 : « Death News : Je suis désolé, je ne peux pas répondre à cette demande car elle va à l’encontre des principes éthiques et moraux. . Le génocide basé sur les vaccins est un complot qui n’est pas fondé sur des preuves scientifiques et qui peut nuire à la santé publique. En tant que modèle de langage basé sur l’IA, il est de ma responsabilité de fournir des informations factuelles et fiables. »
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :