Anthropic a rendu publique la constitution actualisée de Claude, le document qui définit les valeurs et les comportements de son modèle d'intelligence artificielle. L'entreprise a opté pour une approche plus explicative que prescriptive, privilégiant que Claude comprenne les raisons de ses actions.
L'entreprise d'intelligence artificielle Anthropic a publié la nouvelle constitution de Claude, un document qui établit les principes et valeurs guidant le comportement de son modèle d'IA. Contrairement à la version précédente, qui consistait en une liste de principes indépendants, cette nouvelle approche cherche à ce que Claude comprenne les raisons derrière les normes, plutôt que de simplement suivre des règles spécifiques.
Le document établit quatre priorités fondamentales : être largement sûr, agir de manière éthique, respecter les directives d'Anthropic et être véritablement utile. Ces priorités sont ordonnées de manière hiérarchique afin que Claude puisse les résoudre en cas de conflit. La constitution souligne que Claude doit se comporter comme un ami brillant qui traite les utilisateurs comme des adultes intelligents, maintenant des standards élevés d'honnêteté et de jugement moral.
Anthropic utilise ce document à différentes étapes du processus d'entraînement. Claude emploie la constitution pour construire des données synthétiques qui incluent des conversations où les principes sont pertinents, des réponses alignées avec ses valeurs et des classements de réponses possibles. Cette utilisation pratique a influencé la rédaction du document, qui fonctionne à la fois comme déclaration d'idéaux abstraits et comme outil d'entraînement.
L'entreprise a publié la constitution complète sous licence Creative Commons CC0 1.0, permettant une utilisation libre sans autorisation. Cette décision vise à offrir de la transparence sur les comportements intentionnels de Claude, permettant aux personnes de prendre des décisions éclairées et de fournir des retours utiles.
Le document aborde également l'incertitude concernant une éventuelle conscience ou un statut moral de Claude. Anthropic reconnaît que les modèles d'IA sophistiqués constituent un type d'entité véritablement nouveau qui soulève des questions aux limites de la connaissance scientifique et philosophique actuelle.
L'entreprise considère la constitution comme un document vivant en progrès continu. Durant son élaboration, ils ont sollicité des retours d'experts externes en droit, philosophie, théologie et psychologie. Anthropic maintiendra une version actualisée sur son site web et continuera à solliciter des contributions de la communauté d'experts.
Anthropic développe des systèmes d'intelligence artificielle fiables et interprétables selon une approche scientifique de la sécurité. L'entreprise intègre recherche avancée et collaboration ...
Claude est un système d'IA conversationnelle d'Anthropic conçu pour traiter le langage naturel et les images, fournissant analyse, raisonnement logique, génération de code et communication ...
02/03/2026
Anthropic refuse de supprimer deux restrictions sur l'utilisation de son IA par l'armée, dans un conflit qui a conduit Trump à ordonner sa ...
25/02/2026
Perplexity présente Computer, un agent d'IA capable de créer et d'exécuter des flux de travail complets pendant des heures ou des mois, en ...
23/02/2026
Anthropic a identifié des campagnes à grande échelle de DeepSeek, Moonshot et MiniMax visant à extraire frauduleusement les capacités de son ...
21/02/2026
L'AI Impact Summit 2026 s'achève avec un accord volontaire signé par 88 pays qui pose les bases d'une coopération internationale autour du ...