Entropie (Shannon) Calculator
Niveau moyen d'information/incertitude.
Formula first
Overview
L'entropie de Shannon quantifie le niveau moyen d'incertitude, de surprise ou d'information inhérent aux résultats possibles d'une variable aléatoire. Elle fournit le fondement théorique de la compression de données en définissant le nombre moyen minimal de bits requis pour représenter un message.
Symbols
Variables
H = Entropy (Bits), p = Probability (p)
Apply it well
When To Use
When to use: Utilisez cette formule pour déterminer les limites de la compression de données sans perte ou pour mesurer l'imprévisibilité d'une distribution de probabilité discrète. Elle est la plus efficace lorsque l'ensemble des résultats possibles est fini et que leurs probabilités sont indépendantes et connues.
Why it matters: C'est la métrique fondamentale de la théorie de l'information, rendant possible l'efficacité des communications numériques modernes, des fichiers ZIP à la vidéo en streaming. En identifiant la structure statistique des données, elle permet d'optimiser le stockage et la bande passante de transmission.
Avoid these traps
Common Mistakes
- Utiliser le logarithme naturel au lieu de log2.
- Oublier les termes p et q.
One free problem
Practice Problem
Une pièce équilibrée a deux résultats, pile et face, chacun avec une probabilité de 0,5. Calculez l'entropie de Shannon d'un seul lancer de pièce.
Hint: Lorsque les résultats sont équiprobables (p = 0,5 pour un cas binaire), l'entropie est à sa valeur maximale.
The full worked solution stays in the interactive walkthrough.
References
Sources
- Shannon, C. E. (1948). A Mathematical Theory of Communication.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory.
- Wikipedia: Shannon entropy
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Claude E. Shannon, 'A Mathematical Theory of Communication', Bell System Technical Journal, 1948
- Thomas M. Cover and Joy A. Thomas, 'Elements of Information Theory', 2nd ed., Wiley-Interscience, 2006
- David J. C. MacKay, 'Information Theory, Inference, and Learning Algorithms', Cambridge University Press, 2003