Les chercheurs disent qu’il sera impossible de contrôler une IA super intelligente

Les Chercheurs Disent Qu'il Sera Impossible De Contrôler Une Ia

L’idée de l’IA (intelligence artificielle) abattant l’humanité est débattue depuis des décennies, et en 2021, les scientifiques ont rendu leur verdict sur la capacité de contrôler la superintelligence informatique haut de gamme.

La réponse? Presque certainement pas. La théorie a été exposée dans un article publié dans le Journal of Artificial Intelligence Research.

Le problème est que contrôler une superintelligence bien au-delà de la compréhension humaine nécessiterait une simulation de cette superintelligence que nous pourrions analyser (et contrôler). Mais si nous ne sommes pas capables de le comprendre, il est impossible de créer une telle simulation.

Des règles telles que « ne pas nuire aux humains » ne peuvent pas être établies si nous ne comprenons pas le type de scénario qu’une IA présentera, suggèrent les auteurs d’un nouvel article.

Une fois qu’un système informatique fonctionne à un niveau au-delà de la portée des programmeurs, nous ne pouvons plus fixer de limites. « Une superintelligence présente un problème fondamentalement différent de ceux généralement étudiés sous la bannière de » l’éthique robotique «  », ont écrit les chercheurs.

« C’est parce qu’une superintelligence est multiforme et donc potentiellement capable de mobiliser une diversité de ressources pour atteindre des objectifs potentiellement incompréhensibles pour les humains, et encore moins contrôlables », ont-ils souligné.

Une partie du raisonnement de l’équipe provenait du problème de l’arrêt, proposé par Alan Turing en 1936. Le problème se concentre sur la question de savoir si un programme informatique parviendra ou non à une conclusion et répondra (donc, il s’arrêtera), ou s’il bouclera indéfiniment. trouver une conclusion.

Comme Turing l’a prouvé par des calculs intelligents, bien que nous puissions le savoir pour certains programmes spécifiques, il est logiquement impossible de trouver un moyen qui nous permettrait de le savoir pour chaque programme potentiel qui pourrait être écrit.

Cela nous ramène à l’IA, qui, dans un état super-intelligent, pourrait stocker tous les programmes informatiques possibles dans sa mémoire à la fois.

L'illustration montre deux robots - un bleu, symbolisant le bien, et l'autre rouge, symbolisant le mal.

« Si nous n’allons pas l’utiliser (IA) pour résoudre des problèmes au-delà de la portée des humains, alors pourquoi le créer? » (Image : Lidiia/)

Tout programme écrit pour empêcher l’IA de nuire aux humains et de détruire le monde, par exemple, peut arriver à une conclusion (et s’arrêter) ou non – il nous est mathématiquement impossible d’en être absolument sûr de toute façon, ce qui indique qu’il n’est pas possible de contenir.

« Cela rend en fait l’algorithme de confinement inutilisable », a déclaré l’informaticien Iyad Rahwan de l’Institut Max-Planck pour le développement humain en Allemagne en 2021.

L’alternative à l’enseignement de l’éthique à l’IA et à lui dire de ne pas détruire le monde – ce qu’aucun algorithme ne peut être absolument certain de faire, ont déclaré les chercheurs – est de limiter les capacités de la superintelligence. Il peut être coupé de certaines parties d’Internet ou de certains réseaux, par exemple.

L’étude, cependant, a également rejeté cette idée, suggérant qu’elle limiterait la portée de l’intelligence artificielle. L’argument est que si nous n’allons pas l’utiliser pour résoudre des problèmes au-delà de la portée des humains, alors pourquoi le créer ?

Si nous allons avancer avec l’intelligence artificielle, nous ne saurons peut-être même pas quand une superintelligence indépendante de notre volonté arrivera, telle est son incompréhensibilité.

Cela indique que nous devons commencer à nous poser de sérieuses questions sur la direction dans laquelle nous allons. « Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction », a déclaré l’informaticien Manuel Cebrian de l’Institut Max-Planck, également en 2021.

« Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière autonome, sans que leurs programmeurs comprennent parfaitement comment elles ont appris. La question se pose donc de savoir si cela peut, à un moment donné, devenir incontrôlable et dangereux pour l’humanité », a-t-il conclu.

Via Alerte scientifique

Image en vedette : maxuser/

Avez-vous regardé les nouvelles vidéos sur Youtube du look numérique ? Abonnez-vous à la chaîne !