Le PDG d’OpenAI affirme que ChatGPT devrait être « beaucoup moins vague » après sa dernière mise à jour

El CEO de OpenAI asegura que ChatGPT debería ser "mucho menos vago" tras su última actualización

Le nouveau patch cherche à résoudre ce problème étrange

Le PDG d
L’IA a décidé d’arrêter de fonctionner

L’IA nous permet souvent d’accélérer des processus qui nous prendraient autrement des heures. Par exemple, le simple fait de traiter ou de résumer des données est quelque chose qu’elle fait de manière excellente. Cependant, certains utilisateurs rencontrent des problèmes avec le GPT-4 car, lorsqu’on lui demande des tâches particulièrement lourdes, il décide de ne pas obéir et assure simplement qu’il ne peut pas le faire. OpenAI travaille à ce sujet pour essayer de comprendre et de corriger la raison pour laquelle l’IA donne des résultats si inattendus.

L’IA devient trop vague

Les utilisateurs de GPT-4 Turbo ont remarqué que ces derniers mois, l’IA donnait des réponses beaucoup plus vagues aux tâches lourdes qui lui étaient demandées. Selon Business Insider, de nombreux utilisateurs trompaient l’IA en lui promettant de l’argent pour qu’elle fonctionne de manière plus efficace. Cela, qui était essentiellement une astuce humoristique, semblait fonctionner, et alors l’IA offrait des performances beaucoup plus adaptées.

En résumé, lorsque qu’un utilisateur faisait une demande trop étendue, l’IA lui répondait qu’elle ne pouvait pas fournir un travail exhaustif et refusait de travailler ou de répondre aux prompts tels qu’ils avaient été formulés.

Dans une publication de X.com, Sam Altman a confirmé que ce problème avait été résolu :

GPT-4 a connu un départ lent dans ses résolutions du Nouvel An. Mais maintenant, il devrait être beaucoup moins paresseux dans ses réponses.

Ainsi, les utilisateurs qui se plaignaient du fait que les réponses étaient trop lentes, succinctes ou pas assez exhaustives pourront profiter de cette mise à jour, pour commencer à lui demander des tâches beaucoup plus avancées.

Quoi qu’il en soit, tout indique que l’IA est devenue de plus en plus lente de manière progressive, ce qui a été constamment remarqué ces derniers mois jusqu’à ce qu’elle refuse carrément de répondre. Cela se produit pour des raisons vraiment inconnues, mais il est intéressant de noter que l’IA pourrait simplement apprendre à ne pas travailler.

Il convient de mentionner que ce problème était exclusivement lié à GPT-4 Turbo, il est donc à prévoir que les utilisateurs gratuits qui utilisent GPT-3 ne rencontreront aucun problème de ce type. Les problèmes auxquels cette version antérieure du modèle de langage est confrontée sont formulés et bien connus de la plateforme, tout comme les limites qu’elle établit pour bénéficier aux utilisateurs du programme premium.