L’entropie est un concept fondamental dans la théorie de l’information, développée par Claude Shannon dans les années 1940. Elle mesure le degré d’incertitude ou de surprise associé à une source d’information ou à une série de données. Plus précisément, l’entropie est une mesure de l’imprédictibilité de l’information. Plus l’entropie est élevée, plus l’information est imprévisible et donc porteuse d’une plus grande quantité d’information.
Pantopique(s) lié(s) :
informermesure
Vous pouvez compléter, modifier, améliorer cette indéfinition ou en proposer une autre au regard de vos savoirs, langages, pratiques, histoire… qu’elle soit formulée sur un mode scientifique, culturel, poétique… contact@21dialogues21.org