L’IA d’Alibaba « ravive » Audrey Hepburn de manière réaliste : la réalité va changer pour toujours

La IA de Alibaba "revive" a Audrey Hepburn de manera realista: la realidad va a cambiar para siempre

En plus d’une série de conflits éthiques qui peuvent être préoccupants, ce type de progrès marque un avant et un après dans la technologie de l’IA

Alibaba IA "ressuscite" Audrey Hepburn de manière réaliste : la réalité va changer à jamais
Un groupe de chercheurs d’Alibaba a développé cette technologie de manière remarquable | Image : un frame de « Vacances à Rome »

Audrey Hepburn est peut-être l’une des actrices ayant laissé l’un des héritages les plus mémorables de l’histoire du cinéma. Sa figure a été élevée au panthéon de l’actrice, et ce n’est pas pour rien après ses rôles brillants dans des films tels que Breakfast at Tiffany’s, Guerre et Paix et Vacances à Rome. Ainsi, ses films font partie des meilleurs du cinéma classique et à juste titre. Malheureusement, elle est décédée en 1993, mais son souvenir demeure indélébile, comme en témoigne le travail d’un groupe de chercheurs qui a travaillé sur une IA conçue pour animer des visages et leur donner des expressions grâce à l’IA. Son visage a été utilisé, rompant ainsi une barrière entre les années cinquante et le présent, bien que cela n’échappe pas à des problèmes de fond.

Examinons en détail cette étude et les problèmes inhérents à ramener ainsi le souvenir d’une actrice de cette envergure.

Audrey Hepburn et tout acteur pourraient revenir à l’actualité

Une étude menée par l’Institut de l’Intelligence Informatique d’Alibaba a publié un article sur Arxiv.org qui présente leurs avancées dans le processus de création d’une IA vraiment surprenante. Lorsque OpenAI a présenté Sora, aucun visage réel n’a été utilisé pour créer ses vidéos incroyablement avancées, mais cette fois, nous pouvons voir Audrey Hepburn prendre vie à nouveau pour chanter une chanson contemporaine, ce qui peut générer un certain malaise.

YouTube video

Baptisé EMO (Emote Portrait Alive), le travail de Linrui Tian, Qi Wang, Bang Zhang et Liefeng Bo consiste en une application pour générer des vidéos de portraits expressifs dans n’importe quelle condition. Cela signifie qu’ils peuvent chanter, parler, lire de la poésie et montrer des émotions, ce qui permet de créer des animations réalistes avec une précision incroyable. De plus, ils se sont basés sur Audio2Video Diffusion, une norme d’IA en code source ouvert qui est en compétition depuis un certain temps avec les IA en code propriétaire telles que celles d’OpenAI.

une image qui décrit le processus d'animation des visages

Le processus de création de l’IA est clairement illustré dans cette photo

Comme nous pouvons le voir dans ce schéma qui sert d’abstrait au projet, l’équipe utilise une seule image de référence et une entrée audio pour produire les animations faciales les plus élaborées. Ceci est une avancée très importante car un seul frame peut animer tout un processus créatif. Ce n’est pas le seul cas, des images de référence d’œuvres d’art comme La Joconde sont souvent recrées avec de l’IA ainsi que d’autres acteurs.

Cela rompt avec les méthodes traditionnelles d’animation qui utilisent généralement des modèles 3D de personnes pour réaliser leurs références. Cependant, cela n’est pas nécessaire dans ce cas et soulève certaines questions éthiques. Bien que ce soit une technologie très utile pour animer les visages des gens, elle peut également être utilisée pour améliorer considérablement les deepfakes ou pour usurper l’identité des gens. De plus, cela pose également un dilemme quant à ramener à la vie des personnes décédées il y a trente ans.