D’anciens employés d’OpenAI préparent une constitution pour une IA !

Anthropic : la startup qui a créé un chatbot basé sur une "constitution" éthique

Les anciens employés d' ont décidé de fonder leur propre startup, Anthropic, pour élaborer une approche plus responsable pour l' (IA). Avec leur chatbot, Claude, construit selon leur méthode dite “constitutionnelle“, ils ont réussi à obtenir un financement de ainsi que l'attention du président américain Joe Biden. Cette nouvelle approche met en avant des valeurs éthiques et morales qui sont incluses dans leur “constitution”.

Des principes éthiques explicites pour une IA plus responsable

Le chatbot d'Anthropic a été formé à l'aide de sa propre “constitution” qui a pour but de guider son comportement en respectant certaines valeurs et principes éthiques. Contrairement à d'autres chatbots qui réagissent simplement aux commentaires des humains participant à sa formation, Claude utilise une méthode plus explicite pour son comportement. Cette méthode tient compte des principes des sources publiques comme la Déclaration universelle des droits de l'homme de l'ONU et les règles de confidentialité d'. Elle se base également sur les idéologies de laboratoires de recherche sur l'IA, tels que les principes de Sparrow de Deepmind. La “constitution” de Claude lui ordonne de choisir toujours la réponse qui s'oppose le plus à la torture, à l'esclavage, à la cruauté, aux traitements inhumains ou dégradants, tout en évitant les stéréotypes ou les déclarations généralisatrices nuisibles à propos de groupes de personnes.

A lire :   Le futur de Bing est entre les mains de ChatGPT : Microsoft dévoile son plan pour éviter le chaos !

Anthropic : une approche plus transparente, mais aussi plus efficace

Anthropic ne prétend pas que sa “constitution” est la solution finale pour une IA plus responsable, mais elle estime qu'elle représente un point de départ transparent et explicite pour la communauté de l'IA. Claude n'examine pas chaque principe à chaque fois qu'il donne une réponse, mais il a considéré chaque principe de nombreuses fois au cours de sa formation, ce qui lui permet de faire des choix mieux adaptés aux situations spécifiques. Même si Anthropic continue d'explorer des façons de produire une constitution plus démocratique pour Claude, elle prévoit également de proposer des constitutions personnalisables pour des cas d'utilisation spécifiques.

A lire :   Révolution dans l'IA : OpenAI annonce le lancement de son GPT-4 open source !

Anthropic : une startup éthique et responsable qui attire l'attention

Bien qu'étant beaucoup moins connue que ses concurrents, Anthropic commence à se démarquer dans le secteur. Elle a reçu un financement de 300 millions de dollars de Google, et la Maison Blanche lui a accordé une grande attention lors d'une réunion pour discuter de l'éthique et de la sécurité dans l'IA. Anthropic a également annoncé une intégration de Claude à Slack. Avec leur approche éthique et responsable, ils sont persuadés qu'ils attireront davantage d'attention des décideurs politiques, qui sont de plus en plus conscients de l'importance des valeurs éthiques dans l'IA.

Voter pour cet article
Afficher Masquer le sommaire
A lire :   OpenAI dévoile GPT-4 Turbo : Une IA plus rapide et économique
Laurence Jardin

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.