IBM a présenté Granite 4.0, des modèles de langage conçus pour les environnements d'entreprise qui combinent les architectures Transformer et Mamba-2. L'entreprise affirme qu'ils réduisent la consommation de mémoire jusqu'à 70%. Ce sont les premiers modèles open source avec certification ISO 42001.
IBM a annoncé le lancement de Granite 4.0, une famille de modèles de langage de grande taille incorporant une architecture hybride conçue pour réduire la consommation de ressources informatiques dans les environnements d'entreprise. Les nouveaux modèles combinent des couches d'architecture Transformer avec des couches Mamba-2 dans un rapport de 9:1, une configuration qui selon IBM permet de traiter de longs contextes avec une utilisation moindre de mémoire RAM. Les modèles Tiny et Small incluent également des blocs de mixture of experts (MoE) avec des experts partagés qui améliorent l'efficacité des paramètres.
L'entreprise a présenté trois variantes initiales : Micro, Tiny et Small. Chacune est disponible en versions Base et Instruct, conçues pour différents cas d'usage d'entreprise et déploiements corporatifs. IBM prévoit de lancer des versions supplémentaires, incluant des modèles plus grands (Medium) et plus petits (Nano), avant fin 2025.
L'un des aspects remarquables de cette génération est la certification ISO 42001 obtenue par la famille Granite, devenant les premiers modèles de langage open source à obtenir cette accréditation. La norme ISO 42001 évalue les systèmes de gestion de l'intelligence artificielle sur des aspects tels que la confidentialité des données, l'explicabilité et la responsabilité.
Les modèles Granite 4.0 ont été entraînés avec un corpus de 22 billions de tokens provenant de sources d'entreprise curées. L'architecture hybride permet aux exigences de mémoire de rester constantes indépendamment de la longueur du contexte, tandis que dans les modèles Transformer conventionnels ces exigences croissent de façon quadratique. Cela facilite le traitement de documents étendus ou de conversations longues sans augmenter proportionnellement les ressources nécessaires.
En termes de performance, Granite 4.0-H-Small obtient des résultats compétitifs dans des benchmarks comme IFEval, qui évalue la capacité à suivre des instructions, et dans Berkeley Function Calling Leaderboard v3, qui mesure la précision dans l'exécution d'appels de fonctions. IBM a travaillé avec des entreprises comme EY et Lockheed Martin pour valider la performance de ces modèles dans des cas d'usage réels.
L'entreprise offre également une indemnisation sans limite pour les réclamations de propriété intellectuelle liées au contenu généré par les modèles Granite lorsqu'ils sont utilisés dans watsonx.ai.
Les modèles sont disponibles sur IBM watsonx.ai et sur des plateformes open source comme Hugging Face, Ollama, NVIDIA NIM et Replicate. IBM a établi des collaborations avec des fabricants de matériel comme Qualcomm et AMD pour optimiser la performance sur différents types de dispositifs, des serveurs aux équipements mobiles.
Suite de produits d'intelligence artificielle générative intégrant développement, gestion et automatisation. Permet de gérer des modèles d'IA fondamentaux ou personnalisés, d'automatiser les ...
17/02/2026
Meta et NVIDIA ont annoncé un partenariat stratégique pluriannuel pour le déploiement massif de puces et de réseaux dans les centres de données ...
11/02/2026
Zoë Hitzig, qui a passé deux ans chez OpenAI à façonner les modèles d'IA et les politiques de sécurité, a démissionné suite à l'annonce de ...
05/02/2026
Kuaishou Technology a présenté Kling AI 3.0, qui comprend quatre nouveaux modèles de génération vidéo et image avec des améliorations ...
05/02/2026
OpenAI a présenté Frontier, une plateforme conçue pour permettre aux entreprises de construire, déployer et gérer des agents d'intelligence ...