Les réglementations européennes proposées visent à restreindre l’utilisation de l’IA en fonction de ses risques pour la sécurité ou la liberté publiques

Proposed EU regulations aim to restrict AI use based on its risk to public safety or liberty

Dans le contexte: À mesure que les systèmes d’intelligence artificielle deviennent de plus en plus omniprésents, la nécessité de réglementer leur utilisation devient plus évidente. Nous avons déjà vu comment des systèmes comme la reconnaissance faciale peuvent être au mieux peu fiables et au pire biaisés. Ou comment les gouvernements peuvent abuser de l’IA pour empiéter sur les droits individuels. L’Union européenne envisage maintenant de mettre en œuvre une réglementation formelle sur l’utilisation de l’IA.

Mercredi, la Commission européenne a proposé des règlements qui limiteraient et guideraient la façon dont les entreprises, les organisations et les agences gouvernementales utilisent les systèmes d’intelligence artificielle. S’il est approuvé, ce sera la première loi formelle à régir l’utilisation de l’IA. La CE déclare que les règles sont nécessaires pour sauvegarder « les droits fondamentaux des personnes et des entreprises ». Le cadre juridique comprendrait quatre niveaux de réglementation.

Le premier niveau serait les systèmes d’IA jugés «à risque inacceptable». Il s’agirait d’algorithmes considérés comme «une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes». La loi interdirait carrément des applications comme le système de notation sociale de la Chine ou tout autre conçu pour modifier le comportement humain.

Les reglementations europeennes proposees visent a restreindre lutilisation de lIA

Le deuxième niveau consiste en une technologie d’IA considérée comme «à haut risque». La définition communautaire des applications à haut risque est large et couvre un large éventail de logiciels, dont certains sont déjà utilisés. Les logiciels d’application de la loi qui utilisent l’IA susceptible d’interférer avec les droits de l’homme seront strictement contrôlés. La reconnaissance faciale en est un exemple. En fait, tous les systèmes d’identification biométrique à distance entrent dans cette catégorie.

Ces systèmes seront très réglementés, nécessitant entre autres des ensembles de données de haute qualité pour la formation, des journaux d’activité pour retracer les résultats, une documentation détaillée et une «surveillance humaine appropriée». L’Union européenne interdirait l’utilisation de la plupart de ces applications dans les espaces publics. Cependant, les règles auraient des concessions pour les questions de sécurité nationale.

Le troisième niveau est celui des IA à «risque limité». Il s’agit principalement de chatbots ou d’assistants personnels comme le Duplex de Google. Ces systèmes doivent offrir un niveau de transparence suffisamment important pour pouvoir être identifiés comme non humains. L’utilisateur final doit être autorisé à décider s’il interagit ou non avec l’IA.

Enfin, il existe des programmes considérés comme «à risque minimal». Il s’agirait de logiciels d’IA qui ne nuisent pas ou peu à la sécurité ou aux libertés humaines. Par exemple, les algorithmes de filtrage des e-mails ou l’IA utilisés dans les jeux vidéo seraient exemptés de la réglementation.

Les mesures d’exécution consisteraient en des amendes de l’ordre de six pour cent des ventes mondiales d’une entreprise. Cependant, cela pourrait prendre des années pour que quoi que ce soit entre en vigueur alors que les États membres européens débattent et définissent les détails.