Les hallucinations sont des erreurs commises par les modèles d’intelligence artificielle lorsqu’ils génèrent des informations fausses ou inexactes, mais les présentent avec une grande confiance comme si elles étaient vraies. C’est comme si le
modèle d’IA "inventait" des informations pour compléter ses réponses.
Ce phénomène se produit lorsqu’un
modèle d’IA produit un contenu qui semble cohérent et bien structuré, mais qui n’a en réalité aucune base factuelle ou contient des inexactitudes. Par exemple, il pourrait inventer des dates, des événements ou des détails qui n’ont jamais existé, ou créer de fausses citations attribuées à des personnes réelles.
Les hallucinations sont particulièrement problématiques dans les applications nécessitant une grande précision, comme la génération de rapports médicaux ou la documentation technique. Des techniques telles que le
RAG (Génération Augmentée par Récupération) ont été développées pour ancrer les réponses du modèle à des sources d’informations vérifiables.
Un cas courant se produit lorsque vous demandez à un assistant IA des informations sur des événements récents ou spécifiques en dehors de son
entraînement. Au lieu d’admettre qu’il ne sait pas, il pourrait générer une réponse combinant des faits réels avec des informations fabriquées.