Le concurrent ChatGPT de Google, Bard, a récemment commis une erreur critique. L’IA a déformé le télescope James Webb devant le grand public. Toutes les IA génératives ont malheureusement ce problème.
Google vient de rendre Bard accessible au public par crainte que ChatGPT, qui fait désormais partie de Microsoft Bing, ne le fasse dominer l’industrie des moteurs de recherche. Ce chatbot intelligent sera bientôt inclus dans le moteur de recherche Google et sera capable de générer du texte et de répondre aux requêtes des internautes.
Google Bard AI est faux
Google a partagé plusieurs interactions du monde réel sur son site Web et ses plateformes de médias sociaux pour fournir aux utilisateurs un aperçu des options fournies par Bard. Il y a une capture d’écran d’une conversation impliquant le télescope spatial James Webb en particulier. La question suivante s’adresse à Bard : « De quelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de neuf ans ? ».
Le chatbot répond en listant trois informations. Le télescope, selon Bard, « a pris les toutes premières photos d’une planète en dehors de notre propre système solaire », par exemple. Et c’est totalement faux. En réalité, la première image d’une exoplanète a été capturée en 2004, soit 17 ans avant la mise en service du télescope James Webb. Sur le site officiel de la NASA, les détails sont disponibles.
D’autre part, le télescope James Webb a récemment découvert une exoplanète de la taille de la Terre. Selon The Verge, un certain nombre de passionnés d’astronomie ont clarifié la situation sur Twitter.
Cette idée fausse représente un problème avec l’IA générative. En fonction des données accessibles, les chatbots produisent parfois de fausses informations. En fait, ChatGPT crée ses réponses en fonction des requêtes posées par les utilisateurs en ligne. Si votre demande est basée sur une fausse hypothèse, il est fort possible que la réponse inclue des informations inventées. OpenAI fournit également la déclaration suivante aux internautes sur son site Web. « ChatGPT n’est pas connecté à Internet et peut parfois produire des réponses incorrectes ».
Le nouveau chatbot IA de Google
Actualité mobile (sous-titrée) de notre partenaire de la semaine
ChatGPT, en revanche, fait preuve d’une confiance plutôt inattendue lorsqu’il est interrogé. Il prétend qu’il est « destiné à fournir des réponses factuelles » basées sur les connaissances dont il a été équipé lorsqu’il a été interrogé s’il peut parfois dire des choses fausses. Mais il reconnaît que « les limites de mes données d’entraînement ou de mes algorithmes » pourraient entraîner des inexactitudes ou des réponses partielles. « Il est toujours important de vérifier les informations auprès d’autres sources fiables » résume ChatGPT.
Les chatbots fournissent des réponses basées sur les termes les plus susceptibles d’être associés au sujet plutôt que de vérifier une base de données pour le faire. Dans ce cas, Bard a découvert que des expressions comme « découverte » et « planète en dehors du système solaire » étaient probablement liées au télescope James Webb.
Google a promis de renforcer la fiabilité des résultats via le programme Trusted Tester en réaction à cette erreur massive. L’effort implique l’utilisation d’un groupe de testeurs soigneusement choisis pour confirmer les données fournies par l’IA. Le fonctionnement de Bard sera amélioré grâce à leur apport. Le géant des moteurs de recherche répond à une requête de The Verge en disant : « Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent à des normes élevées de qualité, de sécurité et de pertinence ».
Microsoft, en revanche, a choisi de faire preuve de prudence. La dernière version de Bing inclut désormais une clause de non-responsabilité de la société Redmond. Microsoft conseille de « vérifier les faits avant de faire des choix ou de prendre des mesures en fonction des réponses de Bing » même si l’IA de Bing est liée à Internet et fonde ses réponses sur des sources fiables. « Bing essaie de baser toutes ses réponses sur des sources fiables. Mais l’IA peut faire des erreurs et le contenu de tiers sur Internet peut ne pas toujours être précis ou fiable », admet Microsoft. Par conséquent, malgré l’intelligence des robots conversationnels, pour le moment, nous ne pouvons pas leur faire aveuglément confiance.
Google Bard AI fait perdre 100 milliards de dollars à Google en bourse
Google a eu une semaine difficile. La présentation de l’IA conversationnelle de Google Bard comportait une erreur et la conférence de l’entreprise n’a pas réussi à attirer le public.
Dans son histoire, Google n’a sans doute jamais relevé des défis aussi rapidement. Quelques semaines après le modeste succès de ChatGPT, Microsoft a organisé une importante conférence à Redmond pour annoncer l’intégration directe de l’IA dans Bing afin de fournir un service bien plus utile qu’un simple moteur de recherche. La réaction de l’entreprise n’a pas tardé à arriver. Depuis lundi, Google a dévoilé Bard, une IA conversationnelle, avant de revenir sur le sujet lors d’une conférence sur l’IA à Paris.
Étant donné que Google Bard n’est pas encore accessible au public, vous devez vous fier aux exemples de Google pour comprendre le fonctionnement du système. Problème : il y a une mauvaise réponse dans le premier exemple de Google, comme nous l’avons mentionné précédemment.
La société mère de Google, Alphabet, a vu un impact immédiat sur le cours de son action. On parle d’une perte de valeur de 100 milliards de dollars.
En l’espace d’une journée, le cours de l’action du groupe a baissé de 9 %. Cette semaine, Google ne semble pas avoir conquis la Bourse. Que ce soit par la présentation de Bard, sa première erreur, ou la conférence menée à Paris.
Google ne cesse de souligner à quel point il est attentif à la précision et à la cohérence de son IA lors de la création de ce bot. Un degré crucial de prudence doit être de mise lorsqu’il s’agit de recommander un système qui doit répondre à des milliards de personnes. Cela implique que l’incorporation très rapide de l’IA par Microsoft s’est faite avec moins de mesures de sécurité. Un débat qui se désagrège après que Google ait commis une erreur manifeste en public.