L’algorithme TikTok a été à la fois la clé du succès de l’application de streaming vidéo et la plus grande critique formulée à son encontre. Mais il offre désormais aux utilisateurs la possibilité de filtrer les sujets que vous ne souhaitez pas voir.
La société introduit également de nouveaux outils de modération automatisés, dont un qui applique (enfin !) Des limites d’âge aux vidéos non adaptées aux enfants, et un autre qui vise à résoudre le problème du « trou de lapin » des utilisateurs qui se voient montrer une succession de messages déprimants ou autres. vidéos potentiellement nuisibles…
L’algorithme TikTok
TikTok diffère des applications de streaming vidéo conventionnelles comme YouTube en ce que son algorithme a beaucoup plus de contrôle sur ce que vous voyez. Au lieu que les utilisateurs choisissent les vidéos qu’ils veulent voir, il vous suffit de choisir quelques intérêts initiaux, et à partir de là, l’algorithme prend le relais.
TikTok détermine vos goûts en utilisant une gamme de signaux, y compris les vidéos que vous regardez tout au long, et celles que vous aimez, partagez et suivez.
Cela s’est avéré une approche extrêmement réussie pour l’entreprise, mesurée à la fois par les téléchargements d’applications et l’utilisation, mais a également été fortement critiquée. L’une des principales critiques a été qu’il place rapidement les utilisateurs dans des « silos », où ils ne voient qu’un petit sous-ensemble de contenu.
Une étude menée l’année dernière a montré que cela peut être activement dangereux.
Un bot a été programmé avec la tristesse et la dépression comme « intérêts ». Moins de trois minutes après avoir utilisé TikTok, lors de sa 15e vidéo, [bot] kentucky_96 s’arrête là-dessus [sad video about losing people from your life]. Kentucky_96 regarde la vidéo de 35 secondes deux fois. Ici, TikTok obtient sa première idée que le nouvel utilisateur se sent peut-être déprimé ces derniers temps […]
L’utilisateur s’arrête à la place sur une sur la santé mentale, puis passe rapidement des vidéos sur la disparition d’un ex, des conseils sur la façon de passer à autre chose et sur la façon de maintenir l’intérêt d’un amant. Mais kentucky_96 s’attarde sur cette vidéo contenant le hashtag #depression, et ces vidéos sur la souffrance anxieuse.
Après 224 vidéos sur le parcours global du bot, soit environ 36 minutes de temps de visionnage total, la compréhension de kentucky_96 par TikTok prend forme. Les vidéos sur la dépression et les problèmes de santé mentale sont plus nombreuses que celles sur les relations et les ruptures. À partir de maintenant, le flux de kentucky_96 est un déluge de contenu dépressif. 93 % des vidéos diffusées sur le compte traitent de la tristesse ou de la dépression.
TikTok semble également être extrêmement médiocre pour filtrer les contenus particulièrement dangereux, comme un « défi de panne d’électricité » qui serait responsable de la mort de sept enfants.
Filtres de mots clés
Pour la première fois, TikTok offre aux utilisateurs la possibilité de filtrer certains types de contenu en mettant sur liste noire des mots et des hashtags spécifiques.
Les téléspectateurs peuvent [already] utilisez notre fonctionnalité « pas intéressé » pour ignorer automatiquement les vidéos d’un créateur ou qui utilisent le même son. Pour donner davantage aux téléspectateurs les moyens de personnaliser leur expérience de visionnage, nous déployons un outil que les gens peuvent utiliser pour filtrer automatiquement les vidéos avec des mots ou des hashtags qu’ils ne veulent pas voir de leurs flux Pour vous ou Suivant – que ce soit parce que vous Vous venez de terminer un projet maison et vous ne voulez plus de tutoriels de bricolage ou si vous voulez voir moins de recettes de produits laitiers ou de viande alors que vous passez à des repas plus végétaux. Cette fonctionnalité sera accessible à tous dans les semaines à venir.
Vidéos soumises à une limite d’âge
TikTok introduit enfin des restrictions d’âge sur les vidéos qui ne conviennent pas aux enfants. Auparavant, l’application avertissait les jeunes utilisateurs qu’une vidéo pouvait ne pas convenir, mais les laissait toujours la regarder. La société empêche enfin les enfants de regarder de telles vidéos.
Dans les semaines à venir, nous commencerons à introduire une première version pour aider à empêcher le contenu avec des thèmes ouvertement matures d’atteindre un public âgé de 13 à 17 ans. Lorsque nous détectons qu’une vidéo contient des thèmes matures ou complexes, par exemple, des scènes fictives qui peuvent être trop effrayantes ou intenses pour un public plus jeune, un score de maturité sera attribué à la vidéo pour aider à empêcher les moins de 18 ans de la visionner à travers l’expérience TikTok. .
L’algorithme TikTok réduira le contenu potentiellement dangereux
L’algorithme TikTok est également en cours de formation pour résoudre le problème du terrier de lapin d’un flux de contenu potentiellement dangereux.
L’année dernière, nous avons commencé à tester des moyens d’éviter de recommander une série de contenus similaires sur des sujets qui peuvent convenir en tant que vidéo unique mais potentiellement problématiques s’ils sont visionnés à plusieurs reprises, tels que des sujets liés aux régimes, à la forme physique extrême, à la tristesse et à d’autres sujets de bien-être. Nous avons également testé des moyens de reconnaître si notre système peut recommander par inadvertance une gamme plus restreinte de contenu à un spectateur.
À la suite de nos tests et de nos itérations aux États-Unis, nous avons amélioré l’expérience de visionnage afin que les téléspectateurs voient désormais moins de vidéos sur ces sujets à la fois.
Photo : Florian Schmetz/Unsplash
Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :