Les hallucinations sont des réponses inattendues et incorrectes de la part des programmes d’IA, qui peuvent survenir pour des raisons qui ne sont pas encore totalement connues. Un modèle de langage peut soudainement proposer des recettes de salade de fruits alors que vous lui demandez de planter des arbres fruitiers. Il peut également inventer des citations savantes, mentir sur les données que vous lui demandez d’analyser ou inventer des faits sur des événements qui ne figurent pas dans ses données d’apprentissage. On ne sait pas exactement pourquoi cela se produit, mais cela peut être dû à la rareté des données, aux lacunes en matière d’information et à une classification erronée.
Source : An AI glossary | nbcnews.com
Une hallucination en intelligence artificielle désigne une situation où un modèle d’IA, comme un agent conversationnel ou un générateur de texte, produit des informations inexactes, incohérentes ou entièrement inventées. Contrairement aux hallucinations humaines, celles de l’IA ne sont pas liées à des perceptions sensorielles, mais résultent de l’interprétation incorrecte des données ou de la génération de contenu non fondé sur la réalité. Ces erreurs surviennent lorsque le modèle n’a pas accès aux informations appropriées ou lorsqu’il extrapole de manière incorrecte à partir des données qu’il a apprises. Les hallucinations peuvent poser des problèmes de fiabilité et de sécurité, surtout dans des contextes critiques comme la médecine ou le droit.