IBM ha presentado Granite 4.0, modelos de lenguaje diseñados para entornos empresariales que combinan arquitecturas Transformer y Mamba-2. La compañía asegura que reducen el consumo de memoria hasta un 70%. Son los primeros modelos open source con certificación ISO 42001.
IBM ha anunciado el lanzamiento de Granite 4.0, una familia de modelos de lenguaje de gran tamaño que incorpora una arquitectura híbrida diseñada para reducir el consumo de recursos computacionales en entornos empresariales. Los nuevos modelos combinan capas de la arquitectura Transformer con capas Mamba-2 en una proporción de 9:1, una configuración que según IBM permite procesar contextos largos con menor uso de memoria RAM. Los modelos Tiny y Small incluyen además bloques de mixture of experts (MoE) con expertos compartidos que mejoran la eficiencia de parámetros.
La compañía ha presentado tres variantes iniciales: Micro, Tiny y Small. Cada una está disponible en versiones Base e Instruct, pensadas para diferentes casos de uso empresarial y despliegues corporativos. IBM planea lanzar versiones adicionales, incluyendo modelos más grandes (Medium) y más pequeños (Nano), antes de finales de 2025.
Uno de los aspectos destacados de esta generación es la certificación ISO 42001 que ha obtenido la familia Granite, convirtiéndose en los primeros modelos de lenguaje de código abierto en conseguir esta acreditación. El estándar ISO 42001 evalúa sistemas de gestión de inteligencia artificial en aspectos como privacidad de datos, explicabilidad y responsabilidad.
Los modelos Granite 4.0 han sido entrenados con un corpus de 22 billones de tokens procedentes de fuentes empresariales curadas. La arquitectura híbrida permite que los requisitos de memoria se mantengan constantes independientemente de la longitud del contexto, mientras que en modelos Transformer convencionales estos requisitos crecen de forma cuadrática. Esto facilita el procesamiento de documentos extensos o conversaciones largas sin incrementar proporcionalmente los recursos necesarios.
En cuanto a rendimiento, Granite 4.0-H-Small obtiene resultados competitivos en benchmarks como IFEval, que evalúa la capacidad de seguir instrucciones, y en Berkeley Function Calling Leaderboard v3, que mide la precisión en la ejecución de llamadas a funciones. IBM ha trabajado con empresas como EY y Lockheed Martin para validar el rendimiento de estos modelos en casos de uso reales.
La compañía ofrece además indemnización sin límite para reclamaciones de propiedad intelectual relacionadas con contenido generado por modelos Granite cuando se utilizan en watsonx.ai.
Los modelos están disponibles en IBM watsonx.ai y en plataformas de código abierto como Hugging Face, Ollama, NVIDIA NIM y Replicate. IBM ha establecido colaboraciones con fabricantes de hardware como Qualcomm y AMD para optimizar el rendimiento en diferentes tipos de dispositivos, desde servidores hasta equipos móviles.
Suite de productos de inteligencia artificial generativa que integra desarrollo, gestión y automatización. Permite gestionar modelos de IA fundacionales o personalizados, automatizar procesos ...
15/01/2026
Replit ha lanzado Mobile Apps on Replit, una funcionalidad que permite describir una idea, crear la aplicación y publicarla completamente en la App ...
14/01/2026
Google ha presentado Personal Intelligence, una función que permite a Gemini acceder a información de aplicaciones como Gmail, Google Photos y ...
07/01/2026
OpenAI ha presentado ChatGPT Health, una experiencia dedicada que permite a los usuarios conectar sus historiales médicos y aplicaciones de ...
05/01/2026
Amazon presenta Alexa.com, una nueva plataforma que lleva su asistente de inteligencia artificial Alexa+ al navegador web y completa su estrategia ...