Sur TikTok, l’information est censurée, mais la désinformation ne l’est pas

Sur Tiktok, L'information Est Censurée, Mais La Désinformation Ne L'est

Terre plate, Illuminati, extraterrestres, métamorphes, terre creuse, sacrifices sataniques et poupées tueuses. Ce ne sont pas les intrigues d’une nouvelle série Netflix, mais une petite partie d’une mer de désinformation qui sur TikTok devient de plus en plus pertinente et incontrôlée, entraînée (et incroyablement non limitée) par l’algorithme que ces contenus sont au à la fois sensationnaliste et faux, garantit des dizaines de millions de vues. Des vidéos qui ont obtenu pendant des mois une énorme quantité de visibilité, de partages et de retours monétaires malgré la présence d’informations non vérifiées, souvent totalement inventées et potentiellement dangereuses. Cet élément ne semble intéresser ni l’algorithme ni la modération de la plateforme qui, au contraire, semble de plus en plus active dans le blocage des contenus journalistiques qui représentent pourtant l’information vérifiée. Mais de plus en plus difficile à publier sur TikTok.

Les flambées de désinformation sur la plateforme chinoise sont nombreuses et souvent énormes, à tel point que l’on se demande si la guerre aux canulars sur l’appli n’est déjà définitivement perdue par une modération qui agite désormais le drapeau blanc. Prenons l’un des exemples les plus flagrants : tythecrazyguy, un Américain qui partage depuis longtemps des théories du complot sur TikTok dans le cadre de son format appelé « ConspiraTEA ». Il compte 3,7 millions de followers et 98,2 millions de likes sur la plateforme. Le nombre de vues est hors des charts – les 10 dernières vidéos à elles seules ont généré un total de plus de 33 millions de vues. Ils parlent des Illuminati, des métamorphoses dans les forêts, de la Terre creuse, des extraterrestres et du fait qu’OJ Simpson serait le vrai père de Khloe Kardashian. Toutes les vidéos s’ouvrent sur la phrase « Nous devons en parler », que le garçon répète comme un mantra dans les premières secondes des vidéos. Dans l’un des partages les plus récents, il soutient l’hypothèse selon laquelle Post Malone est en fait Justin Bieber. La publication compte un million de vues, 180 000 likes, 2 000 commentaires et 2 000 partages.

Certains des messages de tythecrazyguy

Certains des messages de tythecrazyguy

Le tiktoker publie des complots depuis juillet 2020, générant des millions de vues et un engagement extrêmement élevé pour presque chaque partage. À tel point qu’ils ont atteint près de 4 millions de followers, ont un manager et publient également du contenu sponsorisé. Sans considérer que la même plateforme rémunère en réalité le garçon via le Creator Fund qui garantit un revenu mensuel selon les opinions : avec ces chiffres on parle de centaines d’euros par mois que TikTok verse à tythecrazyguy pour partager de la désinformation.

Lire la suite de cet auteur

Il est également intéressant de noter à quel point le tiktoker a peu à voir avec l’identikit classique de ceux qui partagent ce type de canular sur d’autres réseaux sociaux, c’est-à-dire un profil qui a tendance à virer à l’extrême droite : il est ouvertement gay, il a célébré la victoire de Biden et suit le créateur de la gauche. Il semble que son choix de poursuivre ce format complotiste découle simplement de la prise de conscience que ces contenus sur TikTok fonctionnent et garantissent à la fois des points de vue et des retours économiques. Le problème est que la plateforme semble être à l’aise avec la prolifération de cette économie du complot, qui sur TikTok n’est pas une niche mais, plutôt, un énorme réservoir de désinformation vu par des milliards de personnes.

La portée des hashtags du complot

La portée des hashtags du complot

Vérifiez simplement les hashtags liés à ces publications pour vous rendre compte que dire que les complots sur TikTok sont populaires, c’est sous-estimer ce qui est clairement un énorme problème. Les publications avec le hashtag #conspiracy ont près de 8 milliards de vues, celles avec #conspiracytheory 2 milliards et celles sous #conspiracytheories environ 1,7 milliard. À l’intérieur, il y a des messages que l’algorithme ne modère ni ne supprime après les rapports des utilisateurs (nous avons également essayé de signaler du contenu, mais la réponse est toujours la même : ils ne violent pas les règles). De cette façon, s’alimente une économie du complot qui devient un cercle vicieux : les créateurs comprennent qu’ils peuvent faire beaucoup de vues avec ce contenu qui n’est pas bloqué et continuent à chercher des théories de plus en plus absurdes. Mais en attendant, ils font des millions de vues et touchent un nombre énorme de personnes. Pourtant, l’entreprise a annoncé à plusieurs reprises des programmes pour contrer la désinformation au sein du réseau social, mais qui ne parviennent manifestement pas à pénétrer efficacement le réseau viral de ces publications.

Cela se produit également en Italie, avec certains comptes basés sur des vidéos de désinformation (y compris des vaccins) que la plateforme ne censure incroyablement pas. Il y a quelque temps, nous avons signalé un compte né sous le nom de « No Correlation » engagé à partager des thèses bizarres sur les dommages présumés causés par les vaccins. Pendant des mois, il est resté en ligne malgré les rapports, générant des centaines de milliers de vues. Puis, vers la fin de l’été, le compte a disparu. Il a maintenant été rouvert et a repris le partage des canulars. Mais ce n’est pas le seul exemple italien de ce type de contenu, qui également dans notre pays a trouvé un terrain fertile à la fois en tant que public et en tant que plate-forme.

L'un des contenus de Fanpage.it le 11 septembre est toujours caché

L’un des contenus de Netcost-security.fr le 11 septembre est toujours caché

Un autre récit similaire à celui de tythecrazyguy, mais italien, souligne tout le paradoxe de la désinformation sur TikTok. Il s’appelle Stefano Porozzi et c’est un jeune de 18 ans qui sur TikTok est connu sous le nom de stewe02. Toutes ses vidéos contiennent de fausses informations : de l’école (« tout le monde promu encore cette année ») à la pandémie (« Un virus a été découvert qui transforme les gens en zombies »), les vidéos sont une succession de mensonges inventés de toutes pièces. Puis, à la fin de chaque cinématique, le garçon dit « ce n’est pas vrai ». Étant relégué à la dernière seconde, le démenti n’est pas perçu par tous les utilisateurs et la vidéo est prise pour de vrai. Même la rédaction a reçu des demandes d’informations concernant des nouvelles de l’école données par ce compte et absolument fausses, mais que les utilisateurs (surtout les plus jeunes) perçoivent comme réelles. Pourtant, si vous signalez ces contenus, TikTok répond en disant qu’ils ne violent pas les règles. À ce jour, Stefano compte 290 000 abonnés et 11 millions de likes.

La modération, du moins automatique, semble cependant très active et immédiate vis-à-vis d’autres contenus : les informatifs et journalistiques publiés par les journalistes et les journaux. Nous parlons d’expérience directe : au cours des derniers mois, la plateforme a bloqué et masqué des dizaines de vidéos publiées par le profil vérifié Netcost-security.fr en raison de la présence d’éléments qui, selon les cas, ont été définis comme violents ou explicites. La nouvelle de l’attaque de l’Etat islamique à l’aéroport de Kaboul après la capture de l’Afghanistan par les talibans ? Sur TikTok nous n’avons pas pu le donner car la plateforme a occulté la vidéo pour la présence de corps blessés. L’anniversaire du 11 septembre ? Sur TikTok, nous ne pouvions pas en parler car la vidéo était bloquée pour les images explicites. L’agression du No-Vax contre l’un de nos reporters lors d’une manifestation contre le Pass Vert ? Sur TikTok, il a été censuré. La police bat un groupe de jeunes milanais ? Images violentes, supprimées. L’actualité des vaccins accessibles à tous ? Trop d’aiguilles, noircies. A chaque fois cela se passe de manière systématique et évidemment automatique : l’algorithme voit les images, comprend qu’elles sont « à risque » et prend la décision arbitraire de censurer le contenu, sans même l’intervention d’un humain. Intervention qui arrive des heures plus tard, voire le lendemain où, après notre recours, le contenu est (parfois) restitué. Mais c’est trop tard maintenant. Il s’agit d’une erreur de modération et non d’une volonté explicite de censurer un contenu journalistique, mais le résultat est très grave.

Une vidéo sur un massacre de chiens, publiée sur le profil Fanpage.it, n'a jamais été restaurée

Une vidéo sur un massacre de chiens, publiée sur le profil Netcost-security.fr, n’a jamais été restaurée

La disparité des deux situations est presque embarrassante : d’une part complots et canulars font voyager des millions de vues aux confins du cœur « mainstream » des réseaux sociaux, dans un réseau de niches plus ou moins larges que la modération n’effleure guère ; d’autre part, les journalistes et les journaux sont automatiquement exclus pour avoir rapporté des éléments factuels dans des contenus qui ne sont même pas ambigus. Comment est-il possible que nous ne puissions pas gérer cet aspect ? Comment est-il possible que la plateforme continue de se concentrer sur les ballets et le lipsync même si la demande de contenu est désormais beaucoup plus large ? Comment est-il possible qu’en même temps d’énormes réservoirs de conspiration continuent sans être dérangés pour générer des millions de vues ? La plateforme n’a jamais répondu à ces demandes de commentaires, et la question n’a pas réellement changé au cours des derniers mois. Situation qui pourrait ne représenter que le revers de la médaille d’un système qui d’une part parvient à donner un élan incroyable aux vidéos (même face à quelques followers) et d’autre part a clairement un système de modération pas adapté à la gestion cette énorme quantité de contenu. Mais cela ne peut justifier l’absurdité de la situation actuelle, où la désinformation est endémique et l’information est paralysée.

1625136846 425 Le fonds de developpement du jeu est un canular