Des experts et des PDG mettent en garde contre le risque d’extinction posé par l’IA et comparent les dangers à la guerre nucléaire

Experts and CEOs warn of extinction risk posed by AI, compare dangers to nuclear war

Qu’est-ce qui vient de se passer? C’est un cas d’un autre jour, un autre avertissement sur la possibilité que l’IA provoque l’extinction de la race humaine. À cette occasion, il a été comparé aux risques posés par la guerre nucléaire et les pandémies. La déclaration provient d’experts dans le domaine et de ceux qui sont à l’origine de ces systèmes, dont le PDG d’OpenAI, Sam Altman.

La déclaration d’extinction de l’IA au titre inquiétant du Center for AI Safety (CAIS) est signée par les PDG des meilleurs laboratoires d’IA : Altman, Demis Hassabis de Google DeepMind et Dario Amodei d’Anthropic. Parmi les autres signataires figurent des auteurs de manuels d’apprentissage en profondeur (deep learning) et d’IA, des lauréats du prix Turing tels que Geoffrey Hinton (qui a quitté Google à cause de ses craintes en matière d’IA), des dirigeants d’entreprises de haute technologie, des scientifiques, des professeurs, etc.

La déclaration ne se résume qu’à une seule phrase : « Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».

Certains des risques liés à l’IA répertoriés par le PCSRA incluent la perpétuation des préjugés, l’alimentation d’armes autonomes, la promotion de la désinformation et la conduite de cyberattaques. L’organisation écrit qu’à mesure que l’IA devient plus avancée, elle pourrait poser des risques catastrophiques ou existentiels.

Des experts et des PDG mettent en garde contre le

La militarisation est une préoccupation particulière pour le PCSRA. Il écrit que des acteurs malveillants pourraient réutiliser l’IA pour qu’elle soit hautement destructrice. Un exemple donné est l’apprentissage automatique des outils de découverte de drogues utilisés pour fabriquer des armes chimiques.

La désinformation générée par l’IA pourrait rendre la société moins équipée pour gérer des changements importants, et ces systèmes pourraient trouver de nouvelles façons de poursuivre leurs objectifs au détriment des valeurs individuelles et sociétales. Il y a aussi le risque d’affaiblissement, dans lequel les individus deviennent totalement dépendants des machines. Le PCSRA compare ce scénario à celui de WALL-E.

1685536508 111 Des experts et des PDG mettent en garde contre le

« Le monde a coopéré avec succès pour atténuer les risques liés à la guerre nucléaire. Le même niveau d’effort est nécessaire pour faire face aux dangers posés par les futurs systèmes d’IA », a déclaré le directeur du CAIS, Dan Hendrycks, à The Register.

Il n’y a pas que ceux qui sont impliqués dans l’IA qui craignent où la technologie pourrait mener. Plus des deux tiers des Américains pensent que cela pourrait menacer la civilisation, même si la plupart des adultes américains n’ont jamais utilisé ChatGPT. Nous avons également entendu Warren Buffett comparer l’IA à la création de la bombe atomique.

L’inclusion d’Altman sur la liste des signataires intervient après qu’OpenAI a appelé à la création d’un chien de garde mondial pour superviser le développement de l’IA. Certains affirment cependant que son plaidoyer en faveur d’une réglementation ne vise qu’à étouffer l’innovation de ses rivaux et à aider son entreprise à rester au top.

En mars, un groupe des meilleurs esprits technologiques du monde a signé une lettre demandant une pause de six mois sur le développement avancé de l’IA. Elon Musk était l’un des signataires, mais son nom est absent de la déclaration du PCSRA. Altman a confirmé en avril qu’OpenAI n’entraînait pas actuellement GPT-5.

Les avertissements concernant la destruction de l’humanité par l’IA existent depuis des années, mais l’avancement de ces systèmes en 2023 a alimenté les peurs comme jamais auparavant. Des déclarations constantes comme celle-ci ne font pas grand-chose pour apaiser les inquiétudes du public, mais il y a une bonne raison pour laquelle une réglementation est nécessaire, et il est peu probable que les entreprises la mettent en œuvre elles-mêmes sans pression.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :

YouTube video