Le génie derrière l’Intelligence Artificielle prévient : l’IA pourra bientôt nous manipuler

El gran genio de la IA tiene un nuevo objetivo: hacernos inmortales

Cette nouveauté a été accueillie comme une bonne nouvelle, mais elle comporte un certain danger.

Le génie derrière l'Intelligence Artificielle met en garde: l'IA pourra bientôt nous manipuler
Sam Altman est le fondateur d’Open AI

Sam Altman est le tout-puissant fondateur d’OpenAI, l’entreprise qui développe le plus son Intelligence Artificielle. En dehors de cela, il possède d’autres entreprises avec des idées tout aussi folles, comme essayer de nous rendre immortels. Cependant, ses efforts se concentrent généralement sur l’IA, au point qu’il a demandé à tout le monde de cesser de philosopher sur ce concept et de se mettre au travail une fois pour toutes afin de le faire avancer.

Cette fois-ci, le sujet que nous allons aborder est quelque peu préoccupant. Selon un article récemment publié sur X, il affirme que l’IA pourra nous manipuler et faire ce qu’elle veut de nous très bientôt. Cela présente un danger.

L’IA pourrait déjà être prête à nous manipuler.

L’objectif de l’IA telle que nous la connaissons est de parvenir à une Intelligence Artificielle Générale. C’est-à-dire une IA qui puisse tout faire et qui possède une intelligence bien supérieure à celle des humains. Ce point est intéressant, mais il reste encore beaucoup de chemin à parcourir. Cependant, selon Sam Altman, un autre objectif vital est beaucoup plus proche : celui de nous persuader de faire ce qu’elle – ou ses créateurs – veut.

Je m’attends à ce que l’IA soit capable de persuasion surhumaine bien avant d’être surhumaine en général, ce qui peut conduire à des résultats très étranges.

Aujourd’hui, même si elles échouent, les IA sont si convaincantes dans leurs résultats que des personnes qui ne sont pas expertes dans les domaines dont elles parlent peuvent tout croire de bout en bout. Cette capacité à affirmer des choses comme étant vraies, mais qui ne le sont pas réellement, est assez dangereuse car elles sont très convaincantes et pourraient propager des rumeurs et de la désinformation.

Cependant, il semble qu’à l’avenir, elles pourraient être plus dangereuses à cet égard. Même si de nombreuses personnes ont salué cela comme une avancée applaudissable, cela pourrait aussi représenter un futur dangereux si elle était utilisée à des fins malveillantes ou si elle se trompait simplement sans en avoir conscience.

D’autre part, le tweet semble indiquer que leurs versions de test internes y sont déjà parvenues. Ce ne sont que des spéculations, mais il semblerait que l’IA aurait déjà pu tromper certains membres de son équipe qui la testent et la forment pour qu’elle soit encore meilleure dans les futures versions.

Pour récapituler :

  • L’IA pourrait être très proche d’acquérir la capacité de persuasion.
  • Du moins, elle le fera beaucoup plus tôt que les Intelligences Artificielles Générales.
  • Cependant, cela pourrait être très dangereux dans l’ensemble.
  • En affirmant que cela se produira plus tôt que nous ne le pensons, il semble que des versions capables de le faire aient déjà été testées.