La fenêtre de contexte est la quantité maximale d'informations qu'un
modèle d'IA peut considérer simultanément dans une conversation ou une tâche. Elle détermine la quantité d'informations précédentes qu'il peut garder présentes pour générer des réponses cohérentes et contextuellement pertinentes.
Imagine la fenêtre de contexte comme le bureau de travail de l'IA. Si tu as un petit bureau, tu ne peux avoir que quelques documents ouverts à la fois ; s'il est grand, tu peux travailler avec beaucoup plus. Quand la fenêtre se remplit, l'IA doit écarter les informations les plus anciennes pour incorporer les nouvelles.
Cette capacité se mesure en
tokens, qui sont les pièces de base avec lesquelles l'IA divise le texte : mots, parties de mots, espaces et signes de ponctuation. Chaque
token occupe de l'espace dans la fenêtre. Selon la conception et l'objectif du modèle, certains gèrent 4 000
tokens (environ 3 000 mots ou un article court), tandis que d'autres peuvent atteindre 128 000
tokens ou plus (environ 96 000 mots ou un livre complet).
En pratique, cette différence de capacité détermine quel type de tâches tu peux réaliser. Une fenêtre large signifie que tu peux analyser des rapports complets, maintenir de longues conversations sans perdre le fil, travailler avec du code étendu, ou faire que l'IA compare plusieurs documents simultanément. Une fenêtre petite oblige à diviser les grandes tâches en fragments plus petits, car le modèle perd de vue les informations initiales au fur et à mesure que le traitement avance.