Alucinaciones

Hallucinations
Las alucinaciones son errores que cometen los modelos de inteligencia artificial cuando generan información falsa o inexacta, pero la presentan con un alto nivel de confianza como si fuera verdadera. Es como si el modelo de IA "inventara" información para completar sus respuestas.
Este fenómeno ocurre cuando un modelo de IA produce contenido que parece coherente y bien estructurado, pero que en realidad no tiene base factual o contiene inexactitudes. Por ejemplo, podría inventar fechas, eventos o detalles que nunca ocurrieron, o crear citas falsas atribuidas a personas reales.

Las alucinaciones son especialmente problemáticas en aplicaciones que requieren precisión, como la generación de informes médicos o documentación técnica. Por eso se han desarrollado técnicas como el RAG (Generación Aumentada por Recuperación) que anclan las respuestas del modelo a fuentes de información verificables.

Un caso común es cuando le pides a un asistente de IA información sobre eventos recientes o específicos fuera de su entrenamiento. En lugar de admitir que no lo sabe, podría generar una respuesta que combine hechos reales con información fabricada.

Definiciones relacionadas

Trustpilot
Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso.