Ces derniers mois, l'IA conversationnelle ChatGPT développé par OpenAI est devenu le sujet d'obsession de nombreux internautes. Mais à quel point ce système est-il avancé et jusqu'où peut-il aller ?
Le développement de ChatGPT est tellement avancé qu'il donne progressivement l'impression qu'il pourrait être plus proche de devenir un système presque conscient de lui-même et qui n'aurait donc pas besoin d'instructions directes pour penser et s'activer.
Des spécialistes ont appelé à freiner l'alimentation de ces systèmes pour se concentrer sur la création de mesures de sécurité et de verrous réglementaires préventifs au cas où quelque chose de grave arriverait avec l'IA. Mais en attendant, les utilisateurs continuent d'utiliser la plateforme OpenAI pour trouver des utilisations peut-être pas si appropriées, correctes ou éthiques.
Le côté obscur de ChatGPT : tout cela peut être fait mais ne devrait peut-être pas être fait.
Bien que ChatGPT soit un formidable outil de travail et soit capable d'augmenter la productivité de n'importe qui de façon exponentielle, cette IA peut toujours être utilisée à des fins malveillantes.
Un code malveillant ou défectueux peut être programmé en profitant de sa capacité à développer des jeux, des extensions et des applications, conduisant à l'utilisation de vulnérabilités ou au développement de pièces qui facilitent l'accès aux logiciels malveillants pour voler des données.
ChatGPT peut être complice d'escroqueries par courriel ou sur les médias sociaux, en générant des messages très convaincants et personnalisés pour tromper les victimes et leur soutirer de l'argent ou des informations personnelles.
L'intelligence artificielle peut également être exploitée pour générer du contenu offensant ou simplement faux. Les insultes, les menaces, les fake news ou les deepfakes sont plus faciles que jamais grâce à ChatGPT et il est désormais très difficile de distinguer le faux du vrai.
À un niveau plus “inoffensif”, l'IA peut être utilisée pour effectuer des tâches qui devraient être réalisées individuellement par chaque sujet, comme la rédaction de devoirs, de dissertations ou de travaux scolaires, aidant ainsi les élèves à remplir leurs obligations en une fraction du temps. Mais cette stratégie encourage également le plagiat et empêche un véritable apprentissage.
En fin de compte, ChatGPT est un outil puissant, mais son développement, son alimentation et son utilisation sont transparents à zéro. Ce qui le rend dangereux entre de mauvaises mains. Il est donc essentiel de mettre en place des mesures de sécurité et de verrous réglementaires pour garantir une utilisation éthique de l'IA.

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.