D’anciens employés d’OpenAI préparent une constitution pour une IA !

Les anciens employés d’OpenAI ont décidé de fonder leur propre startup, Anthropic, pour élaborer une approche plus responsable pour l’Intelligence Artificielle (IA). Avec leur chatbot, Claude, construit selon leur méthode dite « constitutionnelle« , ils ont réussi à obtenir un financement de Google ainsi que l’attention du président américain Joe Biden. Cette nouvelle approche met en avant des valeurs éthiques et morales qui sont incluses dans leur « constitution ».

Des principes éthiques explicites pour une IA plus responsable

Le chatbot d’Anthropic a été formé à l’aide de sa propre « constitution » qui a pour but de guider son comportement en respectant certaines valeurs et principes éthiques. Contrairement à d’autres chatbots qui réagissent simplement aux commentaires des humains participant à sa formation, Claude utilise une méthode plus explicite pour son comportement. Cette méthode tient compte des principes des sources publiques comme la Déclaration universelle des droits de l’homme de l’ONU et les règles de confidentialité d’Apple. Elle se base également sur les idéologies de laboratoires de recherche sur l’IA, tels que les principes de Sparrow de Deepmind. La « constitution » de Claude lui ordonne de choisir toujours la réponse qui s’oppose le plus à la torture, à l’esclavage, à la cruauté, aux traitements inhumains ou dégradants, tout en évitant les stéréotypes ou les déclarations généralisatrices nuisibles à propos de groupes de personnes.

Anthropic : une approche plus transparente, mais aussi plus efficace

Anthropic ne prétend pas que sa « constitution » est la solution finale pour une IA plus responsable, mais elle estime qu’elle représente un point de départ transparent et explicite pour la communauté de l’IA. Claude n’examine pas chaque principe à chaque fois qu’il donne une réponse, mais il a considéré chaque principe de nombreuses fois au cours de sa formation, ce qui lui permet de faire des choix mieux adaptés aux situations spécifiques. Même si Anthropic continue d’explorer des façons de produire une constitution plus démocratique pour Claude, elle prévoit également de proposer des constitutions personnalisables pour des cas d’utilisation spécifiques.

Lire aussi :   Pourquoi sommes-nous obsédés par ChatGPT ?

Anthropic : une startup éthique et responsable qui attire l’attention

Bien qu’étant beaucoup moins connue que ses concurrents, Anthropic commence à se démarquer dans le secteur. Elle a reçu un financement de 300 millions de dollars de Google, et la Maison Blanche lui a accordé une grande attention lors d’une réunion pour discuter de l’éthique et de la sécurité dans l’IA. Anthropic a également annoncé une intégration de Claude à Slack. Avec leur approche éthique et responsable, ils sont persuadés qu’ils attireront davantage d’attention des décideurs politiques, qui sont de plus en plus conscients de l’importance des valeurs éthiques dans l’IA.

Afficher Masquer le sommaire