Twitter n’a plus qu’un seul employé pour modérer tout le contenu d’abus sexuels sur des enfants en Asie

Twitter N'a Plus Qu'un Seul Employé Pour Modérer Tout Le

Après le rachat d’Elon Musk, le réseau social vise désormais à renforcer la liberté d’expression. Maintenant, cependant, le risque est que même les contenus les plus nocifs recommencent à circuler.

La modération Twitter est ignorée. Les licenciements décidés par Elon Musk, les démissions massives devant la demande de travailler « en mode hardcore » et l’exaltation de la liberté d’expression ont inauguré une nouvelle saison de la plateforme. Le contenu qui entre en conflit avec les directives de la communauté est désormais libre de se déplacer dans le flux de tweet. « C’est comme ouvrir les portes de l’enfer », a déclaré Alejandra Caraballo, chercheuse en droit informatique à l’université de Harvard.

D’après les rumeurs qui ont émergé ces derniers jours, l’origine du problème serait justement l’absence de personnel. Commençons par la pornographie juvénile. Sur Twitter, la pornographie est autorisée, en effet cette plateforme est souvent utilisée par des créateurs qui travaillent dans l’industrie du film pour adultes. Cette décision date d’avant le début de l’ère Elon Musk et est unique parmi les grandes plateformes qui ont plutôt travaillé depuis leurs premières années pour supprimer le nu de leurs horaires.

Bien sûr, tout n’est pas permis. Les directives communautaires n’autorisent pas la pornographie juvénile. Morgan Meaker, journaliste de Wired.com, a révélé qu’il ne restait qu’une seule personne pour gérer la modération de tout ce contenu dans la section du réseau social qui couvre toute l’Asie. Un seul employé, qui travaille au bureau de Singapour, pour un territoire où vivent 4,3 milliards de personnes. Sans oublier que pour Twitter le Japon, après les Etats-Unis, est le pays qui compte le plus d’utilisateurs : 59 millions.

Il n’est pas possible d’accéder à un historique des informations sur cette équipe et ainsi connaître le nombre d’employés qu’elle a eu dans le passé ou la méthode de travail. Meaker a trouvé quatre personnes qui prétendaient travailler dans cette équipe en novembre sur LinkedIn. Le travail de modération n’incombe pas entièrement aux salariés : pour couvrir les contenus publiés par tous les comptes, Twitter a également collaboré avec des agences externes qui ont participé au développement de systèmes de filtrage automatique.

Fausses nouvelles sur le coronavirus

Le problème de la modération ne concerne pas uniquement les contenus pédopornographiques. Depuis le 23 novembre, la société a cessé de noircir, d’étiqueter ou de supprimer le contenu qui va à l’encontre des directives de Covid. Au cours des trois derniers mois seulement, 11 000 comptes ont été suspendus pour des sujets liés au coronavirus.

Rachel Schraer, journaliste experte en santé de la BBC, a expliqué que le risque est maintenant que des comptes déjà masqués reviennent également : « La question est de savoir si ces comptes reviendront ou si de nouveaux seront encouragés à partager des informations incorrectes, ce qui pourrait influencer les décisions que les gens prennent. « prendre en charge leur santé.

Vidéos du massacre de Christchurch

En mars 2019 à Christchurch, en Nouvelle-Zélande, un homme est entré d’abord dans une mosquée puis dans un centre islamique armé. Elle a fait 50 morts, signant la plus grande fusillade de masse de l’histoire récente du pays. Le kamikaze s’appelait Brenton Harrison Tarrant, il venait des milieux néo-fascistes et diffusait tout en direct sur Facebook.

Le fait que ces images aient été vues par des milliers de personnes a ouvert un débat sur la sécurité des systèmes de modération des réseaux sociaux. Ces derniers jours, un compte Twitter a re-uploadé toutes les images sur la plateforme : les vidéos sont passées indemnes de la modération de la plateforme et l’intervention du gouvernement néo-zélandais a été nécessaire pour les retirer.

L’image de couverture créée par l’intelligence artificielle de Midjourney