Catégories
Piste

hallucination-2

repère(s) :

Les hallucinations sont des réponses inattendues et incorrectes de la part des programmes d’IA, qui peuvent survenir pour des raisons qui ne sont pas encore totalement connues. Un modèle de langage peut soudainement proposer des recettes de salade de fruits alors que vous lui demandez de planter des arbres fruitiers. Il peut également inventer des citations savantes, mentir sur les données que vous lui demandez d’analyser ou inventer des faits sur des événements qui ne figurent pas dans ses données d’apprentissage. On ne sait pas exactement pourquoi cela se produit, mais cela peut être dû à la rareté des données, aux lacunes en matière d’information et à une classification erronée.

Source :