El fabricante de Claude rechaza eliminar dos restricciones de uso de su IA para el ejército, en un conflicto que llevó a Trump a ordenar su cese en todas las agencias federales y a OpenAI a cerrar un acuerdo alternativo con el Pentágono.
El origen del conflicto está en la estrategia de IA del Departamento de Guerra publicada en enero de 2026, que ordenaba incorporar en todos los contratos con proveedores de IA una cláusula de "cualquier uso legal". El documento, firmado por el secretario Pete Hegseth, establecía que el ejército debía utilizar modelos libres de restricciones que pudieran limitar aplicaciones militares.
Fue en ese marco donde estalló el enfrentamiento con Anthropic, la primera empresa de IA en desplegar modelos en las redes clasificadas del gobierno estadounidense desde junio de 2024. El CEO Dario Amodei publicó el 26 de febrero un comunicado rechazando dos restricciones: el uso de Claude para la vigilancia masiva de ciudadanos —que considera una vulneración de derechos fundamentales— y para el control de armas totalmente autónomas, argumentando que los modelos actuales no son suficientemente fiables para operar sin supervisión humana, lo que pondría en riesgo a soldados y civiles.
El Departamento de Guerra respondió amenazando con catalogar a Anthropic como "riesgo para la cadena de suministro", una designación históricamente reservada a adversarios de Estados Unidos. El 27 de febrero, Hegseth anunció en X que daría ese paso, y Anthropic respondió que lo impugnaría en los tribunales.
La tensión generó una respuesta desde el propio sector tecnológico: cientos de empleados de Google y OpenAI firmaron una carta abierta, publicada en notdivided.org, pidiendo a sus líderes que mantengan el rechazo a las peticiones del Departamento de Guerra de usar sus modelos para vigilancia masiva doméstica y para sistemas de armas autónomas sin supervisión humana.
Ese mismo día, Trump publicó en Truth Social una orden dirigida a todas las agencias federales para cesar el uso de la tecnología de Anthropic de forma inmediata, con un periodo de transición de seis meses para el Departamento de Guerra, y advirtió de posibles consecuencias civiles y penales si la empresa no colabora en la transición.
En ese contexto, OpenAI llegó el 28 de febrero a un acuerdo con el Pentágono que incluye explícitamente las mismas restricciones que Anthropic reclamaba, más una tercera: la prohibición de usar sus sistemas para decisiones automatizadas de alto impacto. Como parte del acuerdo, OpenAI pidió al gobierno que ofreciera las mismas condiciones a otros laboratorios e intentara resolver el conflicto con Anthropic, en un intento de rebajar la tensión entre la industria y el gobierno.
Anthropic desarrolla sistemas de inteligencia artificial fiables e interpretables desde un enfoque científico de seguridad. La compañía integra investigación avanzada y colaboración ...
OpenAI desarrolla inteligencia artificial con un enfoque en la seguridad y el beneficio social. La compañía integra investigación avanzada y principios éticos para impulsar tecnologías de IA de ...
25/02/2026
Perplexity presenta Computer, un agente de IA capaz de crear y ejecutar flujos de trabajo completos durante horas o meses, coordinando de forma ...
23/02/2026
Anthropic ha identificado campañas a gran escala de DeepSeek, Moonshot y MiniMax para extraer de forma fraudulenta las capacidades de su modelo ...
21/02/2026
El AI Impact Summit 2026 concluye con un acuerdo voluntario suscrito por 88 países que fija las bases para una cooperación internacional en torno ...
17/02/2026
Meta y NVIDIA han anunciado una asociación estratégica de varios años para el despliegue masivo de chips y redes en los centros de datos de Meta, ...