L’IA peut-elle éliminer l’humanité ? Ce chercheur croit que cela pourrait arriver plus tôt que vous ne l’imaginez

Peut-on l'IA destroy l'humanité? Ce chercheur pense que cela pourrait se produire plus tôt que vous ne l'imaginez

Eliezer Yudkowsky n’a pas une vision très positive de l’avenir de l’IA

Peut-on l'IA destroy l'humanité? Ce chercheur pense que cela pourrait se produire plus tôt que vous ne l'imaginez
Il se joint à une autre spéculation existante sur l’IA

Certaines IA comme GPT-4 représentent une avancée exponentielle dans la productivité de nombreuses personnes. Pour d’autres, c’est un risque qui met en évidence les professions qui pourraient disparaître en raison de l’adoption de cette technologie. Ainsi, il y a une vision assez dualiste dans le monde de la technologie : ceux qui pensent que l’IA progresse trop rapidement et ceux qui soutiennent qu’il faut avancer encore plus.

L’IA pourrait mettre fin à l’humanité en deux ans

Eliezer Yudkowsky, un blogueur et expert en intelligence artificielle de renom, fondateur de l’Institut de recherche en intelligence des machines en Californie, a récemment exprimé une vision nettement pessimiste de l’avenir de l’humanité en ce qui concerne le développement de l’IA lors d’une interview pour le journal The Guardian.

Yudkowsky, connu pour ses contributions critiques concernant l’IA et son adoption si fulgurante, suggère que le temps restant pour l’humanité pourrait être alarmant court, estimant que nous sommes plus proches des cinq ans que des cinquante, bien qu’il admette que ce délai pourrait varier entre deux et dix ans.

Cette vision apocalyptique se concentre sur la possibilité que les machines, alimentées par une Intelligence Artificielle Générale, pourraient finalement causer la destruction de la planète. Yudkowsky critique la rapidité avec laquelle la société a adopté l’IA sans une réflexion prudente sur les effets potentiellement néfastes que cette technologie pourrait avoir. Selon lui, les risques sont énormes si nous n’utilisons pas l’intelligence artificielle de manière éthique et responsable.

Yudkowsky suggère, bien que de manière plaisante, que la meilleure solution pour contrer la menace de l’IA pourrait être de bombarder ses centres de données. C’est une blague, bien sûr, mais cela met en évidence l’inquiétude considérable de la part d’une partie de la communauté scientifique qui met en évidence les dangers d’une IA qui progresse sans aucun frein vers une position de supériorité par rapport aux humains.

Les autres déclarations de Yudkowsky sur la fin de l’IA

YouTube video

Il y a sept mois, Yudkowsky a déjà participé à ce qu’on appelle les conférences TED où il expliquait sa vision sur cette question. Il plaisantait sur la possibilité de la fin du monde, mais lançait également un avertissement :

Je crois que cela se termine par nous faisant face à quelque chose de plus intelligent que nous-mêmes et qui a d’autres objectifs. Il ne veut rien de ce qui nous semble précieux, donc je ne peux pas imaginer à quoi ressemblerait un conflit entre l’Humanité et une IA plus intelligente.

Sa vision clairement pessimiste de la question ne manque pas de soutiens. Nous avons récemment vu comment le petit-fils d’Oppenheimer a signé un manifeste contre l’IA, quelque chose qui s’est déjà produit auparavant et qui est largement dû à la faible analyse de l’impact que l’IA peut avoir sur nos vies.

Ce n’est pas que Yudkowsky est contre l’IA, au contraire, il défend la création d’une IA amicale, mais pour cela il est nécessaire de freiner et de considérer l’IA de manière critique.

Pour résumer :

  • Eliezer Yudkowsky a une fois de plus montré une vision assez pessimiste de l’Intelligence Artificielle.
  • Il affirme que le temps restant pour l’humanité est plus proche des cinq ans que des cinquante, bien qu’il suggère que cela pourrait être de deux à dix ans.
  • Il parle de la fin de tout à cause des machines qui ont ravagé la planète.
  • La principale critique de Yudkowsky est l’incroyable capacité d’adapter l’IA sans la moindre critique, en tenant compte du fait que ses effets néfastes pourraient être énormes.
  • De manière plaisante, il a affirmé que la meilleure solution pour mettre fin à l’IA est de bombarder ses centres de données.