Le lancement de ChatGPT de Microsoft via Bing a été un succès complet. Avec plus d’un million de requêtes pour accéder à la version préliminaire, ceux de Redmond ont réussi à repositionner leur moteur de recherche sur la carte. À l’époque, il semblait que Google avait des raisons de s’inquiéter… Jusqu’à présent.
Microsoft a décidé de limiter l’utilisation de son chat conversationnel basé sur GPT-4. Les nouvelles limites de Bing sont réduites à cinq messages par conversation et 50 conversations par jour. L’entreprise défend ce changement au motif que le moteur de recherche commence à s’embrouiller dans de longues conversations et que les réponses ne sont plus appropriées.
L’IA de Bing peut vous aimer ou vous détester… Microsoft ne veut pas ça
Le problème réside dans les retours de certains utilisateurs qui ont décidé de pousser Bing à l’extrême et qui inquiètent Microsoft. Dans les longues conversations, l’intelligence artificielle commence à prendre les habitudes de son interlocuteur à travers le contexte fourni et semble montrer des sentiments. On ne s’y trompe pas : il ne fait que nous imiter.
De cette manière, certains utilisateurs s’engagent dans des conversations amoureuses ou irrespectueuses avec le produit, réussissant à le séparer de la recherche initiale. En conséquence, Bing pourrait donner des réponses peu amicales à l’utilisateur et, pour résoudre ce problème, Microsoft a décidé que la réponse était que « nous devons passer à autre chose » et changer de sujet.
Désormais, les recherches qui nécessitent plus de cinq messages, comme celles liées aux recettes, aux voyages ou aux différentes créations, seront interrompues et le contexte est éliminé. Pour résoudre ce problème, nous devions fournir manuellement tout le contexte et démarrer un nouveau tour de conversation.
La limite de cinquante tours de conversation semble également décevante étant donné que le chat conversationnel de Bing est lancé à chaque recherche que nous effectuons. Par conséquent, si nous travaillons sur un sujet spécifique, nous cesserons d’avoir accès au chat lorsque nous dépasserons la cinquantaine de recherches.
Droit au but, sans tourner autour du pot
Une autre chose que Microsoft n’a pas officiellement mentionnée est la réduction des fonctionnalités qu’il a faite sur Bing. Dans nos tests et d’autres effectués par différents utilisateurs, nous avons remarqué comment le moteur de recherche ignore le contexte et est beaucoup plus littéral lorsqu’il répond aux questions.
En tant que point en faveur, maintenant le chat conversationnel va directement au point et fournit la réponse demandée. De cette façon, cela évite d’avoir à combler des lacunes dans les données fournies avec des informations inventées à la volée… Quelque chose de similaire à ce qu’en Espagne on appelle une conversation « de beau-frère ».
Cependant, cette décision limite considérablement la créativité de Bing. Par exemple, il est affecté lors de la création de contenu tel qu’un fil Twitter ou de la génération d’informations visuelles telles que des tableaux. Vous pouvez voir l’exemple parfait dans les images avant et après suivantes.
Avant
Maintenant
Tout semble indiquer que Microsoft a voulu s’attaquer au problème à la racine pour éviter les mauvaises critiques et nous espérons que ces limites seront progressivement étendues jusqu’à ce que l’équilibre soit trouvé.