Science

Des chercheurs proposent une intelligence artificielle pour éviter les fusillades de masse

Par Pierre, le 20 février 2021 — application — 5 minutes de lecture
Des chercheurs proposent une intelligence artificielle pour éviter les fusillades de masse

Un trio de chercheurs du Rennselaer Polytechnic Institute (NY, USA), la plus ancienne université anglophone de technologie au monde, a récemment publié un article proposant la création d’une intelligence artificielle éthique, qui pourrait être utilisée pour prévenir les fusillades de masse.

Le système serait en mesure de reconnaître l’intention de l’utilisateur, de déterminer si l’utilisation d’une arme est éthique et, dans le cas contraire, d’empêcher son utilisation. Cela semble lointain, et les chercheurs eux-mêmes admettent qu’il s’agit d’un projet «Blue Sky», c’est-à-dire une simple exploration d’un concept sans se soucier de son application.

Pourtant, ils disent: «Comme on pouvait s’y attendre, certains objecteront avec l’argument suivant: le concept que vous introduisez est attrayant. Mais malheureusement, ce n’est rien de plus qu’un rêve. En fait, rien de plus qu’un rêve fou. Cette IA serait-elle vraiment possible du point de vue de la science et de l’ingénierie? Avec confiance, nous disons oui ».

L’article ne détaille pas la création de cette IA, ou d’une arme avec elle, mais l’efficacité d’un système qui peut prendre les mêmes décisions sur l’utilisation d’une arme qu’une voiture autonome fait lorsque le conducteur échoue à l’alcootest.

Il convient de rappeler que l’analogie n’est pas si simple. Le taux d’alcoolémie peut être détecté avec un processus chimique qui est quantifié numériquement. L’intention d’une personne est beaucoup plus subjective, surtout lorsqu’il est nécessaire de la considérer par rapport à l’intention de toutes les autres personnes dans l’environnement qui l’entoure.

Un exemple d’utilisation de cette «IA éthique» est décrit comme suit:

Un tireur d’élite se rend dans un supermarché, avec un fusil d’assaut et une grande quantité de munitions dans son véhicule. L’IA que nous imaginons sait que cette arme est là et qu’elle ne peut être utilisée qu’à des fins très spécifiques, dans des environnements très spécifiques (et, bien sûr, qui sait quels sont ces objectifs et ces environnements).

Sur le parking du supermarché, toute tentative du prétendu sniper d’utiliser son arme, ou même de la positionner pour une utilisation quelconque, entraînera son verrouillage par l’IA. Dans ce cas, l’IA sait que tuer quelqu’un avec l’arme, sauf pour des raisons de légitime défense, est contraire à l’éthique. Comme elle sait également que cette exception ne s’applique pas au cas, l’arme est bloquée et rendue inutile.

Bien qu’elle ne soit pas directement citée, la description ressemble à une intelligence artificielle capable de suivre les trois lois de la robotique, brillamment décrites par l’écriture d’Isaac Asimov dans son livre de 1950 «I, robot»:

  1. Un robot ne peut pas nuire à un être humain ou, par défaut, permettre à un être humain d’être blessé.
  2. Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf dans les cas qui sont en conflit avec la première loi.
  3. Un robot doit protéger sa propre existence, à condition qu’une telle protection n’entre pas en conflit avec la première ou la deuxième loi.
Des études montrent que la reconnaissance faciale est jusqu'à 10 fois plus sujette aux faux positifs sur les photos en noir que sur les photos blanches
Des études montrent que la reconnaissance faciale est jusqu’à 10 fois plus sujette aux faux positifs sur les photos de noirs que de blancs. La précision varie également selon le sexe de la personne identifiée. Image:

Les chercheurs ont anticipé certaines critiques, telles que le fait que les criminels utiliseraient des armes sur lesquelles une IA de gardien n’est pas installée. En réponse, ils affirment que « notre concept n’est en aucun cas limité à l’idée que l’IA n’est présente que dans les armes en question ».

Par exemple, le système pourrait être utilisé dans des caméras de surveillance et des capteurs qui, lors de la détection d’une personne avec une arme à feu, pourraient avertir la police et fermer toutes les voies d’accès à un emplacement.

Mais les chercheurs ignorent un argument plus important: limiter l’accès des civils aux armes de gros calibre (en particulier celles utilisées par les forces militaires) est bien plus facile que de créer un nouveau système d’IA révolutionnaire capable de comprendre les nuances de la personnalité humaine.

De plus, ils supposent que leur IA serait infaillible. On sait que de nombreux systèmes de surveillance actuellement utilisés, tels que la reconnaissance faciale (encore une fois, quelque chose qui peut être quantifié numériquement) échouent dans la plupart des cas.

Lorsque la reconnaissance faciale échoue, une personne innocente peut aller en prison. Mais si l’IA du gardien échoue, une personne innocente peut mourir dans une réaction de la police (dans le cas d’un faux positif) ou dans une attaque non détectée (dans le cas d’un faux négatif).

Pourtant, l’article peut être un exercice de réflexion intéressant. Le texte est court (seulement cinq pages, dont une de référence), et peut être lu en anglais sur Arxiv.org.

La source: Le prochain Web

Pierre

Pierre

“Parce que la science nous balance sa science, science sans conscience égale science de l’inconscience.” Derrière cette phrase qui vous a sans doute fait un nœud au cerveau, je vous promets de vulgariser au possible les sujets que je traite. La vulgarisation est la clé du partage et vous êtes au bon endroit.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.