L’entropie est un concept fondamental dans la théorie de l’information, développée par Claude Shannon dans les années 1940. Elle mesure le degré d’incertitude ou de surprise associé à une source d’information ou à une série de données. Plus précisément, l’entropie est une mesure de l’imprédictibilité de l’information. Plus l’entropie est élevée, plus l’information est imprévisible et donc porteuse d’une plus grande quantité d’information.