« Il a empêché la modération des publications racistes pour ne pas décevoir les conservateurs » : l’accusation contre Facebook

"il A Empêché La Modération Des Publications Racistes Pour Ne

L’accusation vient du Washington Post, qui a consulté des documents internes à la société mère Meta pour reconstituer l’histoire.

Les algorithmes de modération de Facebook fonctionnent tous les jours sur les réseaux sociaux pour endiguer la violence verbale et les discours de haine, mais ils ne sont pas parfaits. Toute modification apportée à ces logiciels a un impact sur leur efficacité contre certains types de violations ; pourtant, selon ce qui est ressorti de certains documents internes aux gestionnaires du réseau social, certains changements qui auraient davantage protégé certaines catégories d’utilisateurs comme appartenant à certaines ethnies et religions ou membres de la communauté LGBTQ+ ont été refusés par les gestionnaires car ils risquait d’agacer les partenaires conservateurs de l’agence.

Cela a été rapporté par le Washington Post, qui a consulté les documents en question et s’est entretenu avec certains employés du groupe pour reconstituer l’histoire, qui remonte à 2019. Au cours de ces mois, des chercheurs de Facebook ont ​​découvert que les systèmes de modération automatique du réseau social ils avaient tendance à intervenir plus facilement sur les publications publiées si l’objet de la haine et des violences verbales exprimées étaient des Blancs, alors qu’ils n’intervenaient pas aussi promptement en présence d’insultes ou de menaces formulées avec une terminologie spécifique relative à d’autres catégories d’utilisateurs ou d’individus.

La solution pour les chercheurs était simple : recalibrer l’algorithme pour intervenir plus fermement contre la haine des noirs, des musulmans, des juifs, des membres de la communauté LGBTQ+ et des minorités ethniques. Cependant, la direction du réseau social n’était pas d’accord : selon la reconstruction, les cadres du groupe Meta – dont le VP Joel Kaplan – ont refusé l’autorisation, jugeant les changements proposés trop extrêmes, et craignant que la nouveauté ne soit perçue comme une tenter de privilégier ces catégories de personnes. Il apparaît également dans des documents divulgués que l’une des préoccupations de Facebook était que les partenaires conservateurs de l’entreprise seraient en désaccord avec la décision.

Le post le plus consulté sur Facebook est un canular sur les vaccins, mais le réseau social a tenté de le cacher

Pour Facebook, le projet dont sont nées les observations des chercheurs avait pour seul but de « comprendre quel type de violence verbale notre technologie était capable d’intercepter », tandis que le réseau social travaillait d’arrache-pied pour combattre la haine raciale, religieuse et directe envers les LGBTQ. + personnes. Les révélations du Washington Post ne sont cependant que les dernières d’une longue série, et soulignent à quel point le problème de la modération des contenus sur les plateformes mondiales est encore loin d’être résolu.