Entropia (Shannon) Calculator
Livello medio di informazione/incertezza.
Formula first
Overview
L'entropia di Shannon quantifica il livello medio di incertezza, sorpresa o informazione inerente ai possibili risultati di una variabile casuale. Fornisce le basi teoriche per la compressione dei dati definendo il numero minimo medio di bit richiesti per rappresentare un messaggio.
Symbols
Variables
H = Entropy (Bits), p = Probability (p)
Apply it well
When To Use
When to use: Usa questa formula per determinare i limiti della compressione dati senza perdita o per misurare l'imprevedibilità di una distribuzione di probabilità discreta. È più efficace quando l'insieme dei possibili risultati è finito e le loro probabilità sono indipendenti e note.
Why it matters: È la metrica fondamentale della teoria dell'informazione, che consente l'efficienza delle moderne comunicazioni digitali, dai file ZIP allo streaming video. Identificando la struttura statistica dei dati, consente l'ottimizzazione della larghezza di banda di archiviazione e trasmissione.
Avoid these traps
Common Mistakes
- Usare il logaritmo naturale invece di log2.
- Dimenticare sia i termini p che q.
One free problem
Practice Problem
Una moneta equa ha due risultati, testa e croce, ciascuno con una probabilità di 0.5. Calcola l'entropia di Shannon di un singolo lancio di moneta.
Hint: Quando i risultati sono ugualmente probabili (p = 0.5 per binario), l'entropia è al suo valore massimo.
The full worked solution stays in the interactive walkthrough.
References
Sources
- Shannon, C. E. (1948). A Mathematical Theory of Communication.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory.
- Wikipedia: Shannon entropy
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Claude E. Shannon, 'A Mathematical Theory of Communication', Bell System Technical Journal, 1948
- Thomas M. Cover and Joy A. Thomas, 'Elements of Information Theory', 2nd ed., Wiley-Interscience, 2006
- David J. C. MacKay, 'Information Theory, Inference, and Learning Algorithms', Cambridge University Press, 2003