Des scientifiques chinois créent un modèle qui reconnaît les émotions chez les personnes sourdes

Des Scientifiques Chinois Créent Un Modèle Qui Reconnaît Les émotions

Une équipe de chercheurs de l’Université de technologie de Tianjin en Chine a créé un nouveau modèle de reconnaissance des émotions spécifique aux personnes sourdes utilisant l’intelligence artificielle (IA), comblant un vide laissé par plusieurs autres études de ce type qui se concentrent exclusivement sur les personnes sans déficience auditive.

Le nouveau modèle utilise plusieurs outils pour apprentissage automatique – un bras de (IA) – pour créer une base de données qui reconnaît les différentes réactions du cerveau des personnes sourdes aux stimuli en trois piliers : positif, neutre et négatif.

Les graphiques comparent l'activité cérébrale des personnes ayant une audition normale dans la reconnaissance des émotions, en la comparant aux personnes sourdes

Les analyses d’électrocardiogramme montrent comment le cerveau fonctionne pour interpréter les émotions, en comparant les personnes avec des entendants normaux et des personnes sourdes (Image : Université de technologie de Tianjin/Reproduction)

« Dans la communication quotidienne avec les étudiants sourds, nous constatons qu’ils reconnaissent les émotions des autres par l’observation visuelle », a déclaré Yu Song, de l’équipe de scientifiques impliqués dans le papier. « Par rapport aux personnes sans difficultés auditives, il existe également des différences dans la perception des émotions par les sourds, ce qui peut poser certains problèmes, comme des déviations psychologiques dans leur routine quotidienne. »

Dans un premier temps, les chercheurs ont analysé les expressions des émotions de 15 personnes sourdes, en comparant le matériel à SEED, une base de données mondiale de reconnaissance des émotions capturées sur un électrocardiogramme (ECG), mais destinée uniquement aux personnes ayant une audition normale.

« Normalement, les fonctions ECG sont extraites dans des domaines temporels, fréquentiels et mixtes pour la reconnaissance des émotions », a déclaré Song. « C’est parce que la théorie des neurosciences suggère que le processus cognitif se reflète dans la propagation de l’information dans tout le cerveau et les différentes interactions dans ses régions. Nous avons donc décidé de développer un nouveau réseau de neurones artificiels pour la reconnaissance émotionnelle qui combinerait les informations collectées par différents algorithmes.

« Après cela », a poursuivi Song, « nous avons extrait les fonctions cérébrales générales et locales et les avons appliquées à notre modèle, en classant le matériel collecté. Nos résultats expérimentaux ont montré que le modèle d’apprentissage automatique proposé peut « apprendre » des fonctions de domaine à la fois discriminées et robustes, améliorant ainsi la précision de la reconnaissance des émotions. [em pessoas surdas]. Contrairement à d’autres formats d’apprentissage approfondi, notre modèle peut également être appliqué à de petits échantillons de données et réduit certainement le risque de chevauchement d’informations.

Fondamentalement, le modèle d’apprentissage automatique des chercheurs chinois avait une plus grande précision dans la reconnaissance des émotions des personnes sourdes que celle des personnes sans déficience auditive. Une raison possible à cela est le fait que les personnes atteintes de ce type de handicap n’ont pas de canal dédié pour « lire » les émotions, donc les comprendre pour des réactions de ce type est plus simple.

Selon Song, même physiquement, ces différences se manifestent : dans des stimuli émotionnels orageux (quelque chose qui provoque une immense joie, ou une immense tristesse/colère, par exemple), les personnes ayant une audition normale activent davantage les lobes préfrontaux et temporaux du cerveau. Les personnes sourdes utilisent également ces deux (bien qu’à un degré moindre et avec des degrés d’activation variables), mais elles ajoutent le lobe occipital.

Ce type d’étude peut apporter plusieurs changements positifs. Le premier est l’amélioration possible de la compréhension des états émotionnels et de la façon dont ils se manifestent dans le cerveau des personnes sourdes – et en quoi cela est différent du traitement émotionnel des personnes sans déficience auditive.

De plus, le nouveau modèle de reconnaissance émotionnelle peut être utilisé pour identifier les émotions chez les personnes sourdes à la fois dans le cadre de la routine et dans les contextes cliniques. De cette façon, les chercheurs peuvent être mieux informés dans le développement de stratégies qui réduisent la différence de perception émotionnelle entre les deux publics.

L’article a été publié dans la revue Capteurs IEEE.

J’ai regardé nos nouvelles vidéos sur Youtube? Abonnez-vous à notre chaîne !