ChatGPT passer des examens académiques est inutile

ChatGPT est dans la soupe ces jours-ci. Et pour une bonne raison. Le chatbot d'intelligence artificielle d'OpenAI a pris le monde d'assaut grâce à ses capacités impressionnantes. De répondre à toutes les questions que tu lui poses, à générer des textes complets sur tous les sujets que tu peux imaginer, parmi beaucoup d'autres.

Mais rien n'a probablement suscité autant de réactions que sa “capacité” à réussir les examens des écoles de droit, de commerce et même de médecine dans certaines des universités les plus prestigieuses des États-Unis. Mais est-ce vraiment important ?

Que cela ne soit pas mal compris. Le fait que ait pu passer les tests susmentionnés est un signe de plus de l'immense potentiel du modèle linguistique sur lequel il est basé. Mais nous ne devrions pas lui accorder beaucoup plus de pertinence que cela, car il ne s'agit pas d'une compétence spéciale qui la place aujourd'hui à un pas de remplacer les médecins, les avocats ou d'autres professionnels. Rien ne pourrait être plus éloigné de la vérité.

Le problème réside dans l'importance accordée par les médias à ces réalisations de ChatGPT. Quelque chose qui, le plus souvent, est transféré sur les réseaux sociaux, où il est amplifié. Avec une recherche rapide sur , nous pouvons trouver des dizaines de tweets viraux mettant en avant la capacité du d' à réussir des examens universitaires, mais sans fournir ne serait-ce qu'un soupçon de contexte sur la raison pour laquelle quelqu'un a pensé à le soumettre à de tels tests en premier lieu. Ou si certains sujets étaient plus difficiles que d'autres à résoudre pour elle.

Mais si ChatGPT peut passer un examen médical aujourd'hui, les médecins seront obsolètes dans quelques années, n'est-ce pas ? Je suis désolé de te dire, les amis, que le tableau est bien plus complexe que ça. Et peu importe à quel point l'IA est avancée, ou combien elle évoluera dans les années à venir. Ce n'est pas parce qu'un bot peut réussir un test académique aujourd'hui qu'il devient médecin, avocat ou économiste. Et pour une raison simple : nous ne pouvons pas l'évaluer en termes humains.

La “capacité” de ChatGPT à passer des examens ne prouve pas grand-chose

L'intelligence artificielle qui alimente ChatGPT a été entraînée sur des millions de pages de contenu publiquement disponible sur le Web. Il est donc qu'elle puisse réussir un examen universitaire en quelques secondes. Après tout, contrairement à une personne, il n'a pas besoin de semaines ou de mois d'études acharnées pour apprendre, comprendre et retenir les informations importantes nécessaires pour répondre aux questions présentées par les professeurs.

A lire :   Stability AI dévoile Stable Video Diffusion, un outil révolutionnaire de génération de vidéos par intelligence artificielle

De plus, tu n'as même pas à te soucier de conserver les données car tu peux t'y référer chaque fois que nécessaire, sans trop d'efforts. De plus, ceux qui ont décidé de soumettre ChatGPT aux examens de droit ou de médecine ne l'ont pas fait dans l'intention de prouver que l'intelligence artificielle peut faire le des professionnels humains avec moins d'efforts.

Jon Choi, professeur de droit à l'Université du Minnesota, a expliqué que leur intention était de  ChatGPT pour aider les élèves à passer leurs examens ou les avocats pendant leur pratique. “ChatGPT a eu du mal avec les composantes plus classiques des examens de la faculté de droit, comme la détection de problèmes juridiques potentiels et l'analyse approfondie de l'application des règles juridiques aux faits d'une affaire. Mais il pourrait être très utile pour produire un premier projet qu'un élève pourrait ensuite peaufiner“, a-t-il expliqué.

Dans les quatre cours que le chatbot a suivis à l'école de droit, ses performances n'étaient pas particulièrement exceptionnelles. Selon les professeurs en charge des corrections, les notes de la plateforme d'IA étaient équivalentes à celles d'un élève obtenant un C+. C'est-à-dire une note faible, mais suffisante pour réussir les examens.

Alors que dans un cours de gestion d'entreprise à l'Université de Pennsylvanie, ses résultats étaient meilleurs. Là-bas, il a obtenu des notes de B et B-. Selon un professeur, il a excellé dans les questions sur la gestion des opérations et l'analyse des processus. Cependant, il a eu du mal dans les exercices plus complexes. Dans la mesure où il a fait des “erreurs surprenantes” lorsqu'il s'agissait de de base.

D'un autre côté, ChatGPT a été utilisé. pour passer l'examen de licence médicale des États-Unis. Le chatbot a surpris les chercheurs, qui ont remarqué qu'il a répondu aux questions à un niveau proche ou supérieur au seuil de réussite. Cependant, ils ont également indiqué que son potentiel pourrait être utile dans le processus éducatif pour ceux qui aspirent à devenir médecins, ou même pour aider à la prise de décision clinique à l'avenir. Mais rien pour remplacer les médecins dans l'avenir immédiat.

A lire :   Apple prépare son propre métavers et son service de vidéo 3D

Le sempiternel dilemme de l'anthropomorphisation de l'IA

Dire que la “capacité” de ChatGPT à passer des examens académiques aujourd'hui n'a aucune valeur semble dur, mais ce n'est pas une position de haine. Au contraire, il cherche à nous mettre les pieds sur terre en parlant des qualités du chatbot d'intelligence artificielle et de ses implications dans la vie quotidienne.

Tant que nous ne pourrons pas engager une IA pour nous défendre au tribunal, nous ne pourrons pas dire qu'elle aura remplacé les avocats. Tant qu'elle ne sera pas capable de nous guérir sans aucune intervention humaine, nous ne pourrons pas dire qu'elle a remplacé les médecins, les infirmières ou les spécialistes. Et il en va de même pour toute autre profession qui est plus ou moins affectée par ChatGPT ou des outils de ce type.

L'un des grands dilemmes du traitement des modèles linguistiques avancés, ou de ceux qui fonctionnent à une échelle toujours plus grande, est leur anthropomorphisation. C'est-à-dire que les personnes qui interagissent avec eux leur donneront des dotations ou des qualités humaines, même s'ils n'en ont pas. Ce n'est pas nouveau, et cela remonte aux premières expériences avec des logiciels de traitement du langage naturel dans les années 1960. Mais elle a certainement pris une nouvelle dimension ces dernières années grâce à l'évolution de l'IA.

ChatGPT n'échappe clairement pas à cette situation. En quelques mois seulement, elle a radicalement changé l'interaction publique grâce à des outils d'intelligence artificielle avancés qui, il n'y a pas si longtemps encore, étaient inaccessibles à la personne moyenne. Mais elle n'a pas encore résolu les graves inconvénients, comme les biais et l'incorporation de données erronées – ou carrément fausses – qui peuvent passer pour vraies si l'on n'y prête pas attention. Cela peut être exacerbé si l'on croit qu'il y a une sorte de conscience derrière la génération de la réponse.

Ce problème a été noté par le passé par certains des chercheurs les plus éminents du monde de l'IA. Margaret Mitchell et Timnit Gebru, qui ont travaillé chez jusqu'en 2020, l'ont décrit ainsi :

La tendance des interlocuteurs humains à attribuer du sens là où il n'y en a pas peut induire en erreur les chercheurs en traitement du langage naturel, ainsi que le grand public, et les amener à considérer un texte synthétique comme significatif. […]

Le texte généré par un modèle linguistique n'est pas basé sur une intention de , un modèle du monde ou un modèle de l'état mental du lecteur. […]

Le problème est que si l'un des côtés de la communication est dénué de sens, alors la compréhension du sens implicite est une illusion découlant de notre compréhension uniquement humaine du langage (quel que soit le modèle). Contrairement à ce que l'on pourrait croire lorsqu'on regarde ce qu'il génère, un modèle de langue est un système permettant d'enchaîner de façon aléatoire des séquences de formes linguistiques qu'il a observées dans ses vastes données d'entraînement, en fonction d'informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence au sens. C'est un perroquet stochastique.

Extrait de “Les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ?”.

ChatGPT a encore beaucoup de place pour l'amélioration et l'évolution, et rien ne permet de dire que ce n'est pas pour le mieux. Mais croire qu'en passant des examens académiques, on est prêt à régir des domaines plus importants de notre vie quotidienne n'est rien d'autre qu'un délire. Profitons de la technologie et de ses réalisations, mais ne tombons pas dans des présomptions alimentées par un manque de contexte, ou par le battage médiatique derrière un nouveau produit.

Plongée au coeur du temps : Hamilton dévoile les éditions limitées Ventura, inspirées de ‘Dune Partie 2'

Voter pour cet article
Afficher Masquer le sommaire
A lire :   SpaceX démonte son Hyperloop et le transforme en parking
Martin Jean

je suis un rédacteur web spécialisé dans l'actualité people. Je suis passionné par le monde de la célébrité et j'adore suivre les dernières tendances, les scoops et les potins qui font le buzz