Les émojis rendent plus difficile la détection des discours de haine en ligne

Les émojis Rendent Plus Difficile La Détection Des Discours De

Les émojis ont émergé avec le numérique et sont une présence constante sur les réseaux sociaux. Après tout, ils sont un moyen de rassembler les gens tout en communiquant, en transmettant, par exemple, des humeurs et des réactions. Apparemment, ces petites icônes rendent plus difficile la détection des discours de haine en ligne.

Les publications abusives sont moins susceptibles d’être identifiées si elles incluent des émojis.

Les géants de la technologie et des réseaux sociaux ont parcouru un long chemin pour contrôler leurs utilisateurs. En d’autres termes, en plus d’atténuer la désinformation, ils se sont également efforcés d’éliminer le discours de haine qui, malgré les efforts, prévaut.

Maintenant, l’Oxford Internet Institute a conclu, à travers une enquête, que certains algorithmes ne sont pas aussi efficaces que prévu lorsque les publications incluent des emojis. C’est-à-dire que les messages en ligne abusifs peuvent passer inaperçus s’ils contiennent ces icônes. De plus, d’autres plus acceptables sont considérées à tort comme haineuses.

Après la finale de l’Euro 2020, que l’Angleterre a perdue, Marcus Rashford, Bukayo Saka et Jadon Sancho ont été inondés de commentaires racistes et offensants, dont une généreuse portion a été illustrée d’emojis. Au fait, rappelez-vous qu’Instagram lui-même a reconnu l’erreur de modération de ces commentaires.

Cette modération insuffisante s’est produite, comme l’a découvert l’Oxford Internet Institute, par la présence des soi-disant emojis. En effet, la plupart des systèmes actuellement utilisés pour préparer des algorithmes reposent sur de grandes bases de données de texte, qui incluent rarement des emojis. Par conséquent, ‘au temps H’, l’algorithme ne détecte pas le contenu comme erroné.

Institut Internet d'Oxford

Base de données Oxford formée pour détecter les emojis

Pour aider à résoudre le problème, des chercheurs de l’Oxford Internet Institute ont créé une base de données d’environ 4 000 phrases, y compris des emojis dans un contexte offensant. Cela a été utilisé pour former un modèle d’intelligence artificielle (IA) pour comprendre les messages abusifs ainsi que ceux qui ne l’étaient pas. De plus, ils ont entraîné le modèle à comprendre le contexte des publications. C’est-à-dire que même si l’emoji n’est pas en soi offensant, voyez si, avec le texte qui suit, il peut être compris comme tel.

Les chercheurs ont testé le modèle contre la race, le sexe, l’identité de genre, la sexualité, la religion et le handicap.

Les faux positifs risquent de faire taire les voix des groupes minoritaires.

a déclaré Hannah Rose Kirk, auteur principal de l’enquête d’Oxford.

Malgré le succès de la recherche et de la base de données développée par les chercheurs d’Oxford – qui est partagée afin que d’autres entreprises puissent l’utiliser pour améliorer leurs algorithmes – la technologie n’est pas pleinement efficace. Outre l’évolution du langage, qui rend les insultes imprévisibles, le contexte n’est pas toujours clair pour un système d’IA.