C’est arrivé : création de la première IA capable de raisonner comme un être humain

Ha sucedido: crean la primera IA capaz de razonar como un humano

Deux chercheurs de l’Université de New York et de l’Université Pompeu Fabra de Barcelone affirment avoir créé un réseau neuronal artificiel capable de raisonner de la même manière que l’esprit humain.

C'est arrivé : la première IA capable de raisonner comme un humain a été créée
Des chercheurs ont développé la première IA capable de penser comme un être humain

Une des principales préoccupations des experts concernant l’Intelligence Artificielle est que celle-ci puisse rivaliser avec l’esprit humain, car cela pourrait signifier, à court terme, la perte de nombreux postes de travail et, à long terme, la fin de l’humanité telle que nous la connaissons.

À cet égard, il y a quelques mois, Microsoft a déjà tiré la sonnette d’alarme en avertissant que ChatGPT-4 commençait à raisonner comme une personne et nous venons d’apprendre que deux chercheurs ont développé la première IA capable de penser comme un être humain.

Le premier réseau neuronal artificiel qui pense comme un être humain est là

Comme nous pouvons le lire dans El Confidencial, les chercheurs Brendan Lake de l’Université de New York et Marco Baroni, professeur à Pompeu Fabra et à l’Institut de recherche et d’études avancées de Catalogne (ICREA), ont publié une étude dans la revue Nature dans laquelle ils affirment avoir créé un réseau neuronal artificiel ayant la capacité d’apprendre de nouveaux concepts et de les relier à d’autres concepts déjà existants de la même manière que le ferait l’esprit humain.

La technique développée par ces deux chercheurs pour permettre à une IA de raisonner comme un être humain s’appelle l’apprentissage métacognitif composite ou MLC, pour ses sigles en anglais, et elle consiste à entraîner un réseau neuronal avec des exemples de comportement humain tout en le mettant constamment à jour pour qu’il continue à apprendre.

Marco Baroni a expliqué à El Confidencial deux exemples pratiques du fonctionnement de son réseau neuronal artificiel:

« Si vous envoyez une photo d’un chien à ChatGPT et que vous lui demandez ce que c’est, il va comparer cette photo avec des milliards d’images similaires qu’il a mémorisées et conclura que oui, c’est un chien. C’est un entraînement basé sur l’injection de quantités massives de données que le système mémorise. Notre méthode repose sur la formation du réseau pour résoudre des problèmes plus abstraits ».

« Par exemple, si nous inventons le mot « dax » et l’associons à la couleur « jaune », et que le mot « wiz » est associé à « deux fois », le système doit résoudre que « daxwiz » équivaut à « jaune-jaune ». En répétant cet exercice des milliers de fois, nous avons démontré que le réseau neuronal, au lieu de mémoriser, comprend les règles abstraites qui associent les mots aux concepts ».

De plus, Baroni a également expliqué au même média que sa méthode d’apprentissage permet à une IA de se tromper comme le ferait un être humain :

« Ce qui est peut-être le plus intéressant, c’est que nous pouvons également entraîner le réseau neuronal à faire des erreurs beaucoup plus humaines. Lorsque ChatGPT et d’autres IA génératives font des hallucinations et des erreurs, les erreurs qu’elles produisent sont très étranges, ce n’est pas quelque chose qu’une personne dirait. Avec ce système d’entraînement, on peut dire que l’IA se trompe comme le ferait une personne ».

Enfin, pour vérifier l’efficacité de leur réseau neuronal artificiel, Lake et Baroni ont comparé les résultats de celui-ci avec des expériences menées sur des personnes dans lesquelles on leur demandait d’apprendre la signification de différents mots et ensuite de la généraliser pour créer des instructions plus complexes.

Les données obtenues étaient vraiment surprenantes, car alors que les humains étaient capables d’effectuer une généralisation correcte dans 80 % des cas, l’IA y est parvenue entre 90 % et 92 % des cas.