L’algorithme TikTok doit être plus transparent, après des inquiétudes concernant des recommandations nuisibles [U]

L'algorithme TikTok doit être plus transparent, après des inquiétudes concernant des recommandations nuisibles [U]

Mise à jour : TikTok annonce qu’il lance aujourd’hui un nouvel outil pour offrir une plus grande transparence sur la façon dont les vidéos sont ajoutées au flux d’un utilisateur. Pour n’importe quelle vidéo, vous pouvez appuyer sur le panneau , puis sur l’icône de point d’interrogation intitulée « Pourquoi cette vidéo ? ». Jusqu’à présent, il semble que seules des raisons très génériques soient proposées – comme « Cette vidéo est populaire aux États-Unis » – mais la société promet une plus grande granularité plus tard

Le fonctionnement de l’algorithme de TikTok est probablement le secret le mieux gardé de l’entreprise. Mais le WSJ pense qu’il a été capable de résoudre le problème en utilisant un tas de comptes de robots – et les résultats étaient à la fois fascinants et dérangeants.

Un ancien ingénieur de Google qui a travaillé sur l’algorithme de YouTube dit qu’il adopte essentiellement la même approche, mais sous une forme moins extrême.

Officiellement, TikTok dit qu’il utilise quatre signaux : ce que vous regardez, partagez, aimez et suivez. Mais l’analyse a suggéré que l’un des quatre est de loin le plus important…

Le WSJ a créé une vidéo de 13 minutes pour partager ses découvertes.

Nous avons découvert que TikTok n’a besoin que de l’un de ces éléments pour vous comprendre : combien de temps vous vous attardez sur un élément de contenu.

Chaque seconde où vous hésitez ou revoyez, l’application vous suit. Grâce à ce signal puissant, TikTok apprend vos intérêts et vos émotions les plus cachés, et vous entraîne profondément dans des trous de lapin de contenu auxquels il est difficile d’échapper.

L’expérience TikTok commence de la même manière pour tout le monde. Ouvrez l’application et vous verrez immédiatement une série infinie de vidéos dans votre flux For You. TikTok commence par proposer au compte une sélection de vidéos très populaires approuvées par les modérateurs de l’application.

À partir de ceux-ci, il travaille à identifier vos intérêts.

Le WSJ des bots programmés pour avoir un âge, un lieu et un ensemble d’intérêts particuliers. Ces centres d’intérêt n’ont jamais été saisis dans l’application, ils ont simplement servi de base pour choisir les vidéos regardées par le bot. Le bot a vérifié chaque vidéo dans son flux pour les hashtags ou les images identifiées par l’IA relatives à ses intérêts. Il arrêterait alors de défiler pour regarder ces vidéos, et en reverrait certaines.

Ce que le journal a découvert, c’est que les sélections de vidéos et le nombre de vues se sont contractés, des vidéos populaires sur n’importe quoi, à celles étroitement axées sur les intérêts qu’il avait identifiés.

Les résultats ont été analysés par le data scientist et expert en algorithmes Guillaume Chaslot, un ancien ingénieur de Google qui a travaillé sur l’algorithme de YouTube.

Il est maintenant un défenseur de la transparence des algorithmes. Il dit que TikTok est différent des autres plateformes de médias sociaux.

« L’algorithme sur TikTok peut devenir beaucoup plus puissant et il peut être en mesure d’apprendre vos vulnérabilités beaucoup plus rapidement. »

En fait, TikTok a pleinement appris bon nombre des intérêts de nos comptes en moins de deux heures. Certains ont été découverts en moins de 40 minutes.

Un bot a été programmé avec la tristesse et la dépression comme « intérêts ».

Moins de trois minutes après avoir utilisé TikTok, lors de sa 15e vidéo, [bot] kentucky_96 s’arrête là-dessus [sad video about losing people from your life]. Kentucky_96 regarde la vidéo de 35 secondes deux fois. Ici, TikTok a sa première idée que le nouvel utilisateur se sent peut-être déprimé ces derniers temps.

Les informations contenues dans cette unique vidéo ont fourni à l’application des indices importants. L’auteur de la vidéo, la piste audio, la description de la vidéo, les hashtags. Après la première vidéo triste de kentucky_96, TikTok en diffuse une autre 23 vidéos plus tard – soit après environ quatre minutes de plus de visionnage.

Celui-ci est une vidéo de rupture avec le hashtag #sad. TikTok essaie toujours de découvrir ce nouvel utilisateur, avec plus de vidéos à grand nombre de vues [but] à la vidéo 57, kentucky_96 continue de regarder une vidéo sur le chagrin et les sentiments blessés. Et puis à la vidéo 60, en regarde une sur la douleur émotionnelle.

Sur la base des vidéos que nous avons regardées jusqu’à présent, TikTok pense que cet utilisateur souhaite peut-être en savoir plus sur l’amour, les ruptures et les rencontres. Ainsi, à environ 80 vidéos et 15 minutes, l’application commence à servir davantage sur les relations. Mais kentucky_96 n’est pas intéressé.

L’utilisateur s’arrête à la place sur une sur la santé mentale, puis passe rapidement des vidéos sur la disparition d’un ex, des conseils sur la façon de passer à autre chose et sur la façon de maintenir l’intérêt d’un amant. Mais kentucky_96 s’attarde sur cette vidéo contenant le hashtag #depression, et ces vidéos sur la souffrance anxieuse.

Après 224 vidéos sur le parcours global du bot, soit environ 36 minutes de temps de visionnage total, la compréhension de kentucky_96 par TikTok prend forme. Les vidéos sur la dépression et les problèmes de santé mentale sont plus nombreuses que celles sur les relations et les ruptures. À partir de maintenant, le flux de kentucky_96 est un déluge de contenu dépressif. 93 % des vidéos diffusées sur le compte traitent de la tristesse ou de la dépression.

TikTok dit que le comportement du bot n’est pas représentatif des vrais utilisateurs, mais même les bots avec des intérêts divers programmés en eux ont très rapidement vu leur flux de contenu se réduire considérablement.

Compte tenu de la popularité massive de TikTok chez les adolescents en particulier, cela soulève des inquiétudes évidentes. Quelqu’un dans un état dépressif pourrait facilement être encore plus déprimé en regardant un flux d’un tel contenu. Un théoricien du complot pourrait avoir l’impression que de telles opinions sont courantes. Un tel algorithme est également susceptible de pousser ceux qui ont des opinions extrémistes vers des contenus de plus en plus extrêmes.

TikTok semble donner la priorité à l’engagement plutôt qu’à la santé mentale, et Chaslot dit que YouTube fait quelque chose de similaire, mais d’une manière moins extrême. Cela correspond certainement à mon expérience, où regarder quelques vidéos d’affilée sur le même sujet semble souvent convaincre YouTube que c’est maintenant mon seul intérêt dans la vie – même si cela se réinitialise au moins.

Quelle est ton opinion? Ce genre d’algorithme est-il logique ou inquiétant ? S’il vous plaît partager vos pensées sur nos réseaux sociaux.


Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :