Les outils actuels de détection de l’IA dans les textes ne sont pas en mesure de distinguer le contenu créé par des humains de celui créé par des bots, selon OpenAI.

De plus en plus de personnes utilisent des outils basés sur des modèles d’intelligence artificielle comme ChatGPT pour s’inspirer lors de l’écriture, voire pour générer des textes complets. C’est tellement le cas que sur des plateformes comme Amazon, il y a déjà des centaines de livres à vendre écrits avec le célèbre chatbot. Plus de 200, la dernière fois que nous avons vérifié.
L’essor de cette pratique a conduit certaines entreprises à développer des outils permettant de « détecter » si un texte a été généré par une IA ou s’il a été créé par un humain. Mais OpenAI, l’une des entreprises les plus importantes du secteur, estime que ce type d’outils est plutôt inutile.
Même OpenAI ne croit pas en les outils de détection de textes générés par l’IA
À plusieurs reprises, nous avons vu comment ce type d’outils de détection de textes générés par l’IA échouait lamentablement dans leur travail. Il y a quelques mois seulement, nous avons vu comment une IA suggérait que la Constitution des États-Unis, rédigée en septembre 1787, avait été écrite à l’aide d’un outil de génération de textes, et maintenant OpenAI nous donne encore plus de raisons de ne pas croire en ce type de services.
Dans une section de questions-réponses destinées aux enseignants disponibles sur leur site web, OpenAI expose clairement sa position sur la question de l’efficacité des détecteurs d’IA.
Ils expliquent que « en résumé, non ». Et bien que OpenAI dispose de son propre outil de détection de contenu auto-généré, ils indiquent que « aucun détecteur n’a démontré la capacité de distinguer de manière fiable les contenus générés par une IA des contenus générés par des humains. »
Des outils tels que ChatGPT n’ont pas non plus les connaissances nécessaires pour savoir si un contenu a été généré par une IA, c’est pourquoi la plupart des réponses à la question de savoir si un contenu a été généré seront aléatoires et sans fondement réel.
Pour démontrer l’inefficacité des détecteurs, OpenAI a effectué quelques tests avec ce type d’outils. Par exemple, en essayant de former leur propre détecteur, ils ont constaté que l’IA marquait comme contenu auto-généré des textes qui avaient été écrits par des êtres humains, tels que des textes de Shakespeare ou la Déclaration d’indépendance des États-Unis.
Il a également été découvert que certaines formes d’écriture pouvaient affecter les résultats de ce type de détecteurs. Par exemple, on en a conclu que les contenus rédigés par des étudiants apprenant l’anglais comme langue seconde étaient marqués par le détecteur comme étant auto-générés, du fait de l’utilisation d’une écriture « particulièrement formuliste ou concise ».
Pour toutes ces raisons, OpenAI ne recommande pas aux enseignants d’utiliser ce type d’outils pour vérifier si un texte a été généré à l’aide d’outils d’intelligence artificielle. À la place, ils suggèrent d’autres approches qui incluent l’intégration de l’utilisation d’outils tels que ChatGPT dans les programmes de formation afin de favoriser l’utilisation de l’IA dans différents contextes.
Détente, découvrez l’évolution du nombre de smartphones vendus par marque au fil du temps dans la vidéo ci-dessous :
