L’IA peut-elle contrôler les humains ? L’avertissement alarmant d’Elon Musk

Elon Musk ChatGPT

Le PDG de Tesla ainsi que l’ancien PDG de Twitter ont été assez loquaces en ce qui concerne le développement de l’IA. Lors d’un récent sommet à Londres, l’expert en affaires met en garde contre les risques de l’IA. Selon Elon Musk, la technologie a généralement le potentiel de contrôler les humains. Ainsi, nous devons faire attention jusqu’où nous avons choisi de progresser avec l’IA. Plus précisément, Elon Musk affirme que l’IA pourrait être en mesure de contrôler les humains à l’avenir. Bien que cela ne détruira probablement pas le monde, mais c’est une possibilité et le monde ne devrait pas simplement l’ignorer. Musk a également affirmé qu’il était également possible pour l’IA de prendre en charge « toute la sécurité humaine », se faisant ainsi une sorte de « super nounou ».

WhatsApp Elon Musk

Elon Musk a dit

« L’intelligence artificielle avancée risque d’éliminer ou de limiter le développement humain. La superintelligence est une « épée à double tranchant ». Si vous avez un génie qui peut vous donner n’importe quoi, c’est un danger.

Certaines des entreprises d’Elon Musk travaillent actuellement sur l’IA, mais il s’est toujours méfié de la technologie. En mars dernier, il a signé une lettre ouverte appelant à un moratoire sur le développement de l’IA avancée. À l’heure actuelle, Tesla, la principale entreprise d’Elon Musk, utilise beaucoup d’IA dans ses produits. En fait, après le lien Microsoft / OpenAI ainsi que l’accord Google / DeepMind, il devrait être troisième.

Elon Musk ajoute

« Je pense qu’il devrait y avoir une troisième entreprise en compétition. OpenAI et Microsoft semblent bien fonctionner ensemble, donc X.AI (la nouvelle société d’intelligence artificielle de Musk) et Twitter et Tesla devraient également l’être à l’avenir ».

Eric Schmidt émet également un avertissement similaire

L’ancien PDG de Google, Eric Schmidt, se méfie également du développement approfondi de l’IA. Il affirme que les conséquences du développement d’IA voyous pourraient être graves pour l’humanité.

IA Google

Selon Schmidt, à mesure que l’IA se développera au cours des prochaines années, elle pose un « risque existentiel » pour l’humanité et a le potentiel de causer « beaucoup, beaucoup, beaucoup, beaucoup de personnes blessées ou tuées ».

S’exprimant lors du Sommet du Conseil du PDG du Wall Street Journal, Schmidt a déclaré

« Il existe des scénarios, pas aujourd’hui, mais dans un avenir raisonnable, où ces systèmes seront capables de trouver des exploits zero-day dans les problèmes de cyber ou de découvrir de nouveaux types de biologie… Maintenant, c’est de la fiction aujourd’hui, mais son raisonnement est susceptible d’être vrai… Et lorsque cela se produit, nous voulons être prêts à savoir comment nous assurer que ces choses ne sont pas utilisées à mauvais escient par des personnes malveillantes.

L’IA est plus complexe que nous ne le pensons

Schmidt a également déclaré que les systèmes d’IA deviennent plus compliqués que les gens ne peuvent le comprendre pleinement, et que les entreprises continuent d’introduire de nouveaux produits sans comprendre toute l’étendue des menaces de l’IA. Il pense que cela pourrait constituer un défi en soi et a averti que nous devons être prudents lors de l’introduction de nouveaux produits.

Schmidt n’est pas la seule personnalité technologique à mettre en garde contre les risques de l’IA. D’autres incluent Sam Altman, PDG d’OpenAI, qui a admis avoir peur de l’IA, et Elon Musk, qui a signé une lettre ouverte appelant à une pause de six mois dans la recherche sur l’IA. La lettre met en garde contre des « effets potentiellement catastrophiques » sur la société si une gouvernance appropriée n’est pas mise en place.

Schmidt a également exprimé ses inquiétudes quant à l’utilisation de l’IA par la Chine, en particulier dans son armée, affirmant que les États-Unis devaient repenser leur armée pour répondre à la menace.

Derniers mots

Eric Schmidt a averti que l’IA pose un risque existentiel pour l’humanité et que les gouvernements doivent savoir comment s’assurer qu’elle n’est pas utilisée à mauvais escient. Il a exprimé des inquiétudes quant à la vitesse de la recherche dans ce domaine et à la possibilité que de tels systèmes deviennent plus complexes que ce que les gens peuvent pleinement comprendre. Schmidt ne soutient pas une pause dans son développement, car il pense que cela profiterait à d’autres pays, en particulier à la Chine.

Actualité mobile de notre partenaire de la semaine