Le directeur de la technologie d'OpenAI a déclaré lors d'une interview avec le magazine Time que, bien que ces technologies soient encore quelque peu nouvelles, il n'est pas trop tôt pour que les politiciens s'impliquent en raison de l'énorme impact qu'elles auront.
Mira Murati, qui n'a pas hésité à mentionner les avantages de ChatGPT et son “immense potentiel” dans l'éducation, a également avoué avoir des doutes sur l'utilisation de cette IA par les utilisateurs. “Comment faire pour que le modèle fasse ce que tu veux qu'il fasse, et comment t'assurer qu'il est aligné sur l'intention humaine et finalement au service de l'humanité“, explique-t-il. Il dit qu'il y a de nombreuses questions d'impact social et d'autres questions “éthiques et philosophiques” que l'équipe d'OpenAI doit prendre en compte.
Mira Murati souligne toutefois que s'il est important que son entreprise ou d'autres personnes spécialisées dans le développement d'IA similaires à ChatGPT se posent ces questions, il est également nécessaire que d'autres parties participent, notamment les gouvernements qui s'occupent de créer des règlements. “Il est important que nous fassions intervenir différentes voix, comme des philosophes, des spécialistes des sciences sociales, des artistes et des personnes issues des sciences humaines“, dit-il quelques instants avant d'assurer que “l'IA peut être mal utilisée” ou utilisée par de “mauvais acteurs”. “Nous avons besoin de beaucoup plus d'informations dans ce système et de beaucoup plus d'informations qui vont au-delà des technologies, définitivement des régulateurs, des gouvernements et de tout le monde“, souligne Mira Murati.
Le créateur de ChatGPT dit qu'il n'est “pas trop tôt” pour réglementer l'IA.
Le directeur technique d'OpeAI ne pense d'ailleurs pas qu'il soit trop tôt pour commencer à réglementer l'IA en raison de l'impact qu'elle pourrait avoir à l'avenir. En fait, de nombreuses entreprises travaillent activement au développement de modèles similaires à ChatGPT afin de les lancer publiquement et de les intégrer à certains de leurs services. Google, par exemple, teste déjà une IA capable de répondre à des questions basées sur LaMDA, son modèle de langage naturel.
Pendant ce temps, les administrations et les communautés politiques, comme l'Union européenne, travaillent sur des mesures visant à interdire, par exemple, les systèmes d'intelligence artificielle qui visent à surveiller les citoyens, ou à réglementer les IA qui pourraient être utilisées pour le vol d'identité.

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.