Catégories
Indéfinition

entropie

repère(s) :média

L’entropie est un concept fondamental dans la théorie de l’information, développée par Claude Shannon dans les années 1940. Elle mesure le degré d’incertitude ou de surprise associé à une source d’information ou à une série de données. Plus précisément, l’entropie est une mesure de l’imprédictibilité de l’information. Plus l’entropie est élevée, plus l’information est imprévisible et donc porteuse d’une plus grande quantité d’information.

Pantopique(s) lié(s) :
informermesure