OpenAI a heureusement trouvé la solution. L'entreprise fondée par Elon Musk a lancé un outil capable de détecter si un texte a été généré par ChatGPT ou d'autres IA similaires. Ils affirment cependant qu'elle n'est “pas totalement fiable“.
Le nouvel outil d'OpenAI, en particulier, prend en charge jusqu'à 34 modèles linguistiques qui fonctionnent de manière similaire à ChatGPT. Son mécanisme est simple : l'utilisateur doit simplement entrer le texte dans un classificateur accessible au public sur le site Web de l'entreprise. Ensuite, clique sur le bouton Envoyer et attends que l'IA détecte si le texte a été généré par une intelligence artificielle ou si c'est un texte créé par un humain.
Le nouveau classificateur de texte d'OpenAI n'est cependant pas complètement fiable. L'entreprise affirme que l'outil “identifie correctement 26% du texte écrit par l'IA“. Il affirme également que 9 % du temps, il donne de faux positifs. C'est-à-dire qu'elle étiquette incorrectement le texte écrit par des humains et le classe comme un texte écrit par l'IA.
La plateforme fournira toutefois différents résultats pour permettre à l'utilisateur de savoir à quel point elle est précise dans l'identification de ce texte. Par exemple, si l'IA ne peut pas savoir complètement si le contenu est écrit par un modèle tel que ChatGPT ou par un humain, elle montrera le résultat comme peu clair ou possible. Si, en revanche, elle pense qu'il a effectivement été généré par une intelligence artificielle, elle le qualifiera de “très improbable“.
Le nouvel outil permettant de détecter si un texte a été écrit par ChatGPT ou une autre IA est très limité.
L'outil a aussi quelques limites. Il ne peut détecter avec précision si un texte est écrit par ChatGPT ou une IA similaire que s'il compte au moins 1 000 mots et est écrit en anglais. En outre, si quelqu'un modifie un texte généré par une IA, le classificateur aura des difficultés à vérifier si le contenu est réellement écrit par une intelligence artificielle.
Il ne peut pas non plus distinguer les textes très prévisibles. Par exemple, une liste des pays du monde par ordre alphabétique. Ou ceux dans lesquels les résultats sont exactement les mêmes, qu'ils soient écrits par une IA ou un humain.
Dans tous les cas, le nouvel outil peut être utile pour éviter les fausses affirmations selon lesquelles un texte a été écrit par un humain, alors qu'il a en fait été généré par une intelligence artificielle. Cela s'applique avant tout à la salle de classe. Et c'est certainement une réponse à la tendance croissante des élèves à utiliser ChatGPT et des modèles similaires pour leurs devoirs et autres travaux. Cependant, le nouveau classificateur pourrait aussi avoir “un impact sur les journalistes, les chercheurs en désinformation et d'autres groupes“, explique OpenAI.

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.