TikTok teste le bouton « Je n’aime pas » pour les commentaires

Tiktok Teste Le Bouton "je N'aime Pas" Pour Les Commentaires

La nouvelle fonctionnalité s’ajoutera à la gamme de facteurs que la plate-forme utilise pour maintenir la section des commentaires « toujours pertinente et un véritable lieu d’engagement ».

TikTok teste le bouton « Je n’aime pas » pour les commentaires individuels : les utilisateurs peuvent signaler ceux jugés « non pertinents ou inappropriés », le tout sans être visible pour les autres. « Pour éviter de créer du mécontentement parmi les membres de la communauté ou de démoraliser les créateurs, seule la personne qui aura enregistré une aversion sur un commentaire pourra voir qu’elle l’a fait. » Ceci est indiqué par la société elle-même, à travers des publications sur le blog officiel.

La nouvelle fonctionnalité s’ajoutera à la gamme de facteurs que la plate-forme utilise pour maintenir la section des commentaires « toujours pertinente et un véritable lieu d’engagement ». Dans le cas de commentaires qui violent les directives de la communauté, il sera possible de les signaler. Concernant les vidéos, TikTok permet déjà aux utilisateurs d’indiquer à l’application celles qui ne sont pas appréciées pour leur contenu. La société indique également qu’elle expérimente l’envoi de rappels sur certaines fonctionnalités – comme le filtrage, le blocage et la suppression en masse des commentaires – aux créateurs qui ont reçu un nombre élevé de commentaires marqués comme négatifs.

La mise en œuvre complète des innovations répertoriées ici sera discutée entre les membres de la société dans les semaines à venir. Pendant ce temps, à travers le dernier rapport de transparence, TikTok annonce qu’il a supprimé plus de 85 millions de vidéos entre octobre et décembre 2021 pour violations. Cela peut sembler énorme, cela représente en fait environ 1% de toutes les vidéos téléchargées sur l’application.

En parlant de concentration sur la communauté, les initiatives les plus récentes de TikTok incluent l’interdiction des contenus qui favorisent les troubles de l’alimentation et une plus grande clarté concernant les contenus haineux interdits tels que les noms morts, la misogynie et les erreurs de genre. « Nous utilisons une combinaison de technologie et de personnes pour détecter et supprimer les violations des directives de la communauté », a expliqué la société en février. « Nous continuerons à former des systèmes automatisés et à former des équipes de sécurité pour défendre nos politiques. »