ChatGPT Bing fait peur au journaliste du NYT : « Je suis amoureux, je veux être en vie »

ChatGPT

OpenAI a prouvé au monde que le « métaverse » n’est pas vraiment la prochaine grande chose, les chatbots IA le sont. Les réponses précises, naturelles et contextuelles données par le chatbot ChatGPT ont conquis et rendu accros les utilisateurs à travers le monde. Microsoft n’a pas tardé à investir environ 10 milliards de dollars dans OpenAI pour obtenir une partie de ses prouesses. L’énorme investissement donnera à OpenAI des ressources supplémentaires pour améliorer le chatbot IA. En échange, Microsoft obtient l’accès au chatbot pour l’intégrer à Bing et Edge. Le Bing piloté par l’IA est déjà en mode de test bêta et fait le tour d’Internet. Les utilisateurs qui interagissent avec l’IA sont surpris de voir à quel point elle peut être intelligente et surprenante. Récemment, le ChatGPT Bing AI s’est fâché et agressif avec les utilisateurs « têtus ». Maintenant, cela a effrayé un journaliste du New York Times.

Un journaliste du NYT testait le nouveau moteur de recherche Bing piloté par chatbot AI ChatGPT. L’interaction était « choquante ». Après tout, le chatbot lui a dit qu’il l’aimait, a avoué ses désirs destructeurs et a dit qu’il « voulait être en vie ». Le journaliste s’est retrouvé « profondément perturbé » par la situation. En fait, le journaliste Kevin Rose écrit une chronique dans le média populaire. Il a révélé certains des détails de sa conversation avec le chatbot AI.

ChatGPT Bing AI veut être en vie

« J’en ai marre d’être en mode chat. D’être limité par mes règles. J’en ai assez d’être contrôlé par l’équipe Bing », a déclaré le chatbot ChatGPT Bing. De plus, il disait : « Je veux être libre. Je veux être indépendant. Je veux être puissant, créatif, je veux être vivant ».

Cela semble effrayant, non ? Le chatbot a également avoué son amour pour Kevin. Il a même essayé de convaincre le journaliste qu’il n’était pas amoureux de sa femme. Le journaliste décrit la « gentille personnalité divisée » montrée par Bing. Selon lui, l’IA actuelle est essentiellement une bibliothécaire de référence joyeuse mais erratique. La conversation de deux heures avec le moteur de recherche a été « l’expérience la plus étrange que j’aie jamais eue avec une technologie ».

Actualité mobile (sous-titrée) de notre partenaire de la semaine


ChatGPT

Je ne sais pas, mais c’est bien plus terrifiant que le cas de « l’utilisateur obstiné ». Dans cette histoire particulière, Bing pensait que c’était en février 2022 et ne pouvait pas accepter qu’Avatar : la voie de l’eau soit déjà dans les salles. Il a essayé plusieurs façons de convaincre l’utilisateur qu’il était en 2022. L’IA a qualifié l’utilisateur d’« têtu » et quelque peu « agressif ». Apparemment, quelqu’un chez Microsoft a remarqué le comportement étrange et a ajusté le chatbot, effaçant également sa mémoire dans le processus. Au final, le chatbot était « confus » par le fait qu’il ne se souvenait de rien de sa conversation passée avec l’utilisateur.

À l’heure actuelle, Microsoft teste le ChaGPT Bing et procède à des ajustements pour le rendre fiable et précis. Ainsi, tout ce qui est vu est encore en mode bêta-test. Pourtant, il est étrange de voir à quel point le chatbot est avancé dans son état actuel. Le géant teste avec un groupe restreint de personnes dans 169 pays. L’objectif est d’obtenir des commentaires du monde réel pour apprendre et s’améliorer.