Al·lucinacions

Hallucinations
Les al·lucinacions són errors que cometen els models d’intel·ligència artificial quan generen informació falsa o inexacta, però la presenten amb un alt nivell de confiança com si fos verídica. És com si el model d’IA "inventés" informació per completar les seves respostes.
Aquest fenomen es produeix quan un model d’IA genera contingut que sembla coherent i ben estructurat, però que en realitat no té cap base factual o conté inexactituds. Per exemple, podria inventar dates, esdeveniments o detalls que mai han existit, o crear cites falses atribuïdes a persones reals.

Les al·lucinacions són especialment problemàtiques en aplicacions que requereixen precisió, com la generació d’informes mèdics o documentació tècnica. Per això s’han desenvolupat tècniques com el RAG (Generació Augmentada per Recuperació) que ancoren les respostes del model a fonts d’informació verificables.

Un cas comú es dona quan demanes a un assistent d’IA informació sobre esdeveniments recents o específics fora del seu entrenament. En lloc d’admetre que no ho sap, podria generar una resposta que combini fets reals amb informació fabricada.

Definicions relacionades

Trustpilot
Aquest lloc web utilitza cookies tècniques, de personalització i anàlisi, pròpies i de tercers, per facilitar la navegació anònima i analitzar estadístiques d’ús del web. Considerem que si continueu navegant, n’accepteu l’ús.