El documento Confidence in Autonomous and Agentic Systems, elaborado por el AI Futures Lab de Capgemini para organizaciones y profesionales que buscan implementar estos sistemas, analiza el papel emergente de los sistemas de inteligencia artificial capaces de tomar decisiones y actuar por cuenta propia. Estos sistemas marcan un cambio de paradigma: en lugar de programar soluciones paso a paso, las personas pueden simplemente plantear un problema para que el sistema lo resuelva de forma autónoma. Este enfoque representa una transformación profunda en la relación entre humanos y tecnología.
El texto explica cómo se ha producido esta evolución, desde los primeros chatbots con funciones limitadas hasta los actuales sistemas multi-agente. A través de esta progresión se observa una mayor capacidad de actuación y una integración más compleja. La diferencia clave no está solo en la cantidad de agentes, sino en las nuevas propiedades que surgen cuando varios de ellos colaboran en entornos compartidos.
Uno de los aportes principales del documento es el marco conceptual basado en tres propiedades esenciales: autonomía, agencia y autoridad. La autonomía se refiere a la capacidad del sistema para tomar decisiones sin intervención humana. La agencia implica la posibilidad de ejecutar esas decisiones y modificar el entorno. La autoridad define los límites dentro de los cuales el agente puede actuar. Estos conceptos permiten evaluar el funcionamiento de los sistemas desde el diseño hasta la implementación, y se ilustran con analogías humanas para facilitar su comprensión.
Otro elemento central es el papel de los modelos del mundo, que son las representaciones internas que los agentes construyen sobre el entorno en el que operan. Estos modelos permiten que los agentes comprendan el contexto, anticipen consecuencias y actúen de forma coherente. Un modelo del mundo limitado lleva a decisiones poco fiables, mientras que un modelo bien estructurado mejora la utilidad del sistema y favorece la confianza en su comportamiento.
El documento examina también cómo funcionan los sistemas compuestos por múltiples agentes y las dimensiones que afectan a su comportamiento, como su tamaño, complejidad, grado de especialización y forma de organización. Analiza además qué puede hacer realmente un agente, diferenciando entre sistemas generalistas o especializados, y entre aquellos con comportamientos predecibles y los que pueden adaptarse a nuevas situaciones.
Otro aspecto clave es el papel de los modelos de lenguaje en estas arquitecturas. Aunque se tiende a pensar que un LLM es un agente, el documento aclara que estos modelos suelen cumplir funciones de interpretación, como traducir lenguaje natural, pero no toman decisiones ni ejecutan acciones por sí mismos.
Finalmente, se plantea la importancia de definir claramente los objetivos de cada sistema y asegurar que su comportamiento esté alineado con esos fines. Una mala definición puede generar resultados inesperados o incluso perjudiciales. El texto concluye que diseñar e integrar este tipo de sistemas requiere no solo capacidades técnicas, sino también un enfoque riguroso en términos de gobernanza, ética y contexto organizativo.
10/12/2025
Análisis de 37,5 millones de conversaciones con Copilot que revela cómo la IA se ha convertido en un compañero vital en la vida cotidiana. Desde ...
09/12/2025
Informe basado en encuestas a más de 500 líderes técnicos que revela cómo los agentes de IA han pasado de proyectos piloto a sistemas de ...
08/12/2025
Este informe analiza cómo las empresas están adoptando y utilizando la inteligencia artificial. Presenta datos reales sobre uso, productividad, ...
02/12/2025
Este informe de Similarweb analiza la consolidación de la IA Generativa en 2025, donde ChatGPT ya compite en el top 5 global de sitios web. Explora ...