Business, meet agentic AI

Capgemini
23/05/2025
Ce document examine comment les systèmes d'intelligence artificielle autonomes et agentiques changent la façon dont les personnes interagissent avec la technologie. Il explique leurs fondements, applications et risques, et propose un cadre pour les comprendre et les intégrer de manière responsable.
Business, meet agentic AI

Le document Confidence in Autonomous and Agentic Systems, élaboré par l'AI Futures Lab de Capgemini pour les organisations et professionnels cherchant à implémenter ces systèmes, analyse le rôle émergent des systèmes d'intelligence artificielle capables de prendre des décisions et d'agir de manière autonome. Ces systèmes marquent un changement de paradigme : au lieu de programmer des solutions étape par étape, les personnes peuvent simplement poser un problème pour que le système le résolve de façon autonome. Cette approche représente une transformation profonde dans la relation entre humains et technologie.

Le texte explique comment cette évolution s'est produite, depuis les premiers chatbots aux fonctions limitées jusqu'aux systèmes multi-agents actuels. À travers cette progression, on observe une plus grande capacité d'action et une intégration plus complexe. La différence clé ne réside pas seulement dans le nombre d'agents, mais dans les nouvelles propriétés qui émergent quand plusieurs d'entre eux collaborent dans des environnements partagés.

L'un des apports principaux du document est le cadre conceptuel basé sur trois propriétés essentielles : autonomie, agentivité et autorité. L'autonomie se réfère à la capacité du système à prendre des décisions sans intervention humaine. L'agentivité implique la possibilité d'exécuter ces décisions et de modifier l'environnement. L'autorité définit les limites dans lesquelles l'agent peut agir. Ces concepts permettent d'évaluer le fonctionnement des systèmes depuis la conception jusqu'à l'implémentation, et sont illustrés par des analogies humaines pour faciliter leur compréhension.

Un autre élément central est le rôle des modèles du monde, qui sont les représentations internes que les agents construisent sur l'environnement dans lequel ils opèrent. Ces modèles permettent aux agents de comprendre le contexte, d'anticiper les conséquences et d'agir de façon cohérente. Un modèle du monde limité conduit à des décisions peu fiables, tandis qu'un modèle bien structuré améliore l'utilité du système et favorise la confiance dans son comportement.

Le document examine aussi comment fonctionnent les systèmes composés de multiples agents et les dimensions qui affectent leur comportement, comme leur taille, complexité, degré de spécialisation et forme d'organisation. Il analyse de plus ce qu'un agent peut réellement faire, différenciant entre systèmes généralistes ou spécialistes, et entre ceux aux comportements prévisibles et ceux qui peuvent s'adapter à de nouvelles situations.

Un autre aspect clé est le rôle des modèles de langage dans ces architectures. Bien qu'on tende à penser qu'un LLM est un agent, le document clarifie que ces modèles remplissent généralement des fonctions d'interprétation, comme traduire le langage naturel, mais ne prennent pas de décisions ni n'exécutent d'actions par eux-mêmes.

Finalement, il soulève l'importance de définir clairement les objectifs de chaque système et d'assurer que leur comportement soit aligné avec ces fins. Une mauvaise définition peut générer des résultats inattendus ou même préjudiciables. Le texte conclut que concevoir et intégrer ce type de systèmes requiert non seulement des capacités techniques, mais aussi une approche rigoureuse en termes de gouvernance, éthique et contexte organisationnel.

Derniers documents

Trustpilot
Ce site utilise des cookies techniques, de personnalisation et d’analyse, propres et tiers, pour faciliter la navigation anonyme et analyser les statistiques d’utilisation du site. Nous considérons que si vous continuez à naviguer, vous acceptez leur utilisation.