Las alucinaciones son errores que cometen los modelos de inteligencia artificial cuando generan información falsa o inexacta, pero la presentan con un alto nivel de confianza como si fuera verdadera. Es como si el
modelo de IA "inventara" información para completar sus respuestas.
Este fenómeno ocurre cuando un
modelo de IA produce contenido que parece coherente y bien estructurado, pero que en realidad no tiene base factual o contiene inexactitudes. Por ejemplo, podría inventar fechas, eventos o detalles que nunca ocurrieron, o crear citas falsas atribuidas a personas reales.
Las alucinaciones son especialmente problemáticas en aplicaciones que requieren precisión, como la generación de informes médicos o documentación técnica. Por eso se han desarrollado técnicas como el
RAG (Generación Aumentada por Recuperación) que anclan las respuestas del modelo a fuentes de información verificables.
Un caso común es cuando le pides a un asistente de IA información sobre eventos recientes o específicos fuera de su
entrenamiento. En lugar de admitir que no lo sabe, podría generar una respuesta que combine hechos reales con información fabricada.