Le créateur de ChatGPT a une position surprenante sur la façon de réglementer l’IA

Mira Murati, qui est responsable de l'équipe travaillant sur le développement de modèles d'intelligence artificielle tels que ChatGPT, le chatbot populaire, ou DALL-E, pense que l'IA devrait être réglementée pour éviter son utilisation abusive afin qu'elle soit "alignée sur les valeurs humaines".

Le directeur de la technologie d' a déclaré lors d'une interview avec le magazine Time que, bien que ces technologies soient encore quelque peu nouvelles, il n'est pas trop tôt pour que les politiciens s'impliquent en raison de l'énorme impact qu'elles auront.

Mira Murati, qui n'a pas hésité à mentionner les avantages de et son “immense potentiel” dans l'éducation, a également avoué avoir des doutes sur l'utilisation de cette IA par les utilisateurs. “Comment faire pour que le modèle fasse ce que tu veux qu'il fasse, et comment t'assurer qu'il est aligné sur l'intention humaine et finalement au service de l'humanité“, explique-t-il. Il dit qu'il y a de nombreuses questions d'impact social et d'autres questions “éthiques et philosophiques” que l'équipe d'OpenAI doit prendre en compte.

A lire :   Les célibataires se tournent vers ChatGPT pour envoyer des messages sur Tinder !

Mira Murati souligne toutefois que s'il est important que son entreprise ou d'autres personnes spécialisées dans le développement d'IA similaires à ChatGPT se posent ces questions, il est également nécessaire que d'autres parties participent, notamment les gouvernements qui s'occupent de créer des règlements. “Il est important que nous fassions intervenir différentes voix, comme des philosophes, des spécialistes des sciences sociales, des artistes et des personnes issues des sciences humaines“, dit-il quelques instants avant d'assurer que “l'IA peut être mal utilisée” ou utilisée par de “mauvais acteurs”. “Nous avons besoin de beaucoup plus d'informations dans ce système et de beaucoup plus d'informations qui vont au-delà des technologies, définitivement des régulateurs, des gouvernements et de tout le monde“, souligne Mira Murati.

A lire :   Auto-GPT, l'Intelligence Artificielle qui se passera des humains et laissera ChatGPT dans le passé

Le créateur de ChatGPT dit qu'il n'est “pas trop tôt” pour réglementer l'IA.

Le directeur technique d'OpeAI ne pense d'ailleurs pas qu'il soit trop tôt pour commencer à réglementer l'IA en raison de l'impact qu'elle pourrait avoir à l'avenir. En fait, de nombreuses entreprises travaillent activement au développement de modèles similaires à ChatGPT afin de les lancer publiquement et de les intégrer à certains de leurs services. , par exemple, teste déjà une IA capable de répondre à des questions basées sur LaMDA, son modèle de langage naturel.

Pendant ce temps, les administrations et les communautés politiques, comme l'Union européenne, travaillent sur des mesures visant à interdire, par exemple, les systèmes d' qui visent à surveiller les citoyens, ou à réglementer les IA qui pourraient être utilisées pour le vol d'identité.

4.3/5 - (11 votes)