ChatGPT et ses dérivés, tels que le chatbot Bing, sont rapidement devenus une ressource incroyablement utile pour toutes sortes d'utilisateurs, et le deviendront encore plus à l'avenir. Mais à ce stade précoce où les utilisateurs testent minutieusement ses capacités, nombre de ses faiblesses sont également révélées.
Le ChatGPT n'offre pas seulement des informations utiles et pertinentes, il souffre également d'un problème qui, s'il n'est pas résolu, finira par devenir particulièrement problématique. Le chat d'OpenAI propose des faits inventés et des informations erronées en réponse aux utilisateurs, ce qui devient rapidement un problème très réel.
En fait, ChatGPT invente des articles entiers du Guardian qui n'ont jamais été publiés, ce qui, de facto, signifie que ni les utilisateurs ni ChatGPT lui-même ne sont en mesure de distinguer de manière fiable la vérité de la fiction. Il s'agit là d'un énorme problème, non seulement pour la confiance dans la technologie de ChatGPT, mais aussi pour la confiance des utilisateurs dans le fait que le chat n'est pas simplement une autre source de désinformation sous l'apparence d'un contenu fiable et précieux.
ChatGPT invente des études pour justifier ses réponses
Un problème qui peut d'ailleurs aller plus loin si la technologie actuelle est mise en œuvre comme technologie de moteur de recherche, offrant des informations qui proviennent apparemment de sources fiables, mais qui, en réalité, sont des inventions de ChatGPT lui-même.
On a beaucoup écrit sur la tendance de l'IA générative à fabriquer des faits et des événements. Mais cette particularité est particulièrement inquiétante pour les organismes d'information et les journalistes, dont l'inclusion ajoute de la légitimité et du poids à une fantaisie rédigée de manière convaincante.
Pour les lecteurs et l'écosystème de l'information, elle soulève de toutes nouvelles questions quant à la fiabilité des citations. Et cela pourrait bien alimenter des théories de conspiration sur des questions sensibles qui n'ont jamais existé.
Chris Moran, responsable de l'innovation éditoriale au Guardian,
Et cela ne se limite pas à de simples articles inventés. D'après citation dans Futurism, plusieurs journalistes de USA Today ont été ont été surpris de découvrir que ChatGPT avait présenté des citations d'études complètes sur la façon dont l'accès aux armes à feu n'augmente pas le risque de mortalité infantile. Mais les études citées dans les notes de ChatGPT n'existent pas. En fait, elles ont été inventées.
Pour ajouter plus de gravité à l'affaire, ChatGPT s'est défendu et a affirmé que les références que j'avais fournies étaient authentiques et provenaient de revues scientifiques évaluées par des pairs. Mais c'était un mensonge.
La solution n'est pas claire. Le coupable du problème ne l'est pas non plus. Il appartient désormais aux entreprises qui développent des IA de trouver une solution à ce problème.

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.