Voici le genre d’applications qui « empêchent de dormir la nuit » au responsable principal de l’IA à la Maison Blanche

Este es el tipo de apps que "no dejan dormir por las noches" al principal responsable de IA de la Casa Blanca

Les IA capables de cloner des voix peuvent nous faire croire que quelqu’un a dit quelque chose qu’il n’a jamais dit.

Ce sont le type d
N’importe qui peut cloner la voix d’une célébrité ou de quelqu’un qu’il connaît

Le chef adjoint du cabinet de Joe Biden, président des États-Unis, a été clair : les IA de clonage vocal sont dangereuses. Une utilisation correcte de la technologie facilitera notre vie, mais une utilisation incorrecte peut entraîner des conflits diplomatiques, des escroqueries et de fausses séquestrations. Ce n’est pas une possibilité, cela se produit déjà.

Des problèmes diplomatiques aux fausses séquestrations

Bruce Reed, chef adjoint du cabinet de la Maison Blanche, est chargé de diriger la stratégie d’IA de l’administration Biden. En raison de son travail, il doit faire face quotidiennement à plusieurs technologies dangereuses, mais dans un article pour Politico, il a affirmé que « le clonage vocal est l’une des choses qui l’empêchent de dormir ».

Ce sont le type d'applications qui

La Maison Blanche à Washington DC

Les IA, qui ont fait irruption à l’échelle mondiale en 2021 avec ChatGPT – qui en est déjà à sa 4ème version – deviennent de plus en plus sophistiquées. Il devient déjà difficile de distinguer si une photo est réelle ou non, et il en va de même pour le clonage vocal. N’importe qui peut imiter le ton de voix d’une célébrité ou de quelqu’un qu’il connaît, et lui faire « dire » ce qu’il souhaite.

« La société n’a pas encore réalisé à quel point l’idée de fausse voix peut perturber nos vies. Personne ne répondra au téléphone s’il ne peut pas être sûr que la voix de l’autre côté est réelle ou fausse« , a-t-il déclaré à Politico.

Cela peut déclencher un conflit diplomatique à grande échelle, car il est possible, par exemple, de faire une fausse déclaration de guerre. Cependant, il n’est pas nécessaire de se poser un scénario apocalyptique, cela affecte déjà la vie de plus en plus de personnes. Les fausses séquestrations et les actes criminels utilisant l’IA ne cessent de se multiplier.

En mars, la Commission fédérale du commerce américaine a signalé que les criminels utilisent l’IA pour effectuer de fausses séquestrations. En imitant la voix d’un membre de la famille, ils peuvent convaincre une personne qu’il est séquestré et exiger une rançon. En avril dernier, une mère de l’Arizona a été victime d’une telle attaque : un criminel a imité la voix de sa fille.

Cependant, cette technologie bien utilisée peut révolutionner positivement notre vie. L’IA nous permet de traduire notre voix pour communiquer avec des personnes du monde entier sans obstacles. Elle est également très utile sur le plan professionnel, que ce soit pour communiquer avec ceux qui ne parlent pas notre langue, ou pour permettre aux créateurs de contenu de publier des vidéos dans la langue de leur choix ou de communiquer facilement avec leur public.