Entropía (Shannon)
Nivel promedio de información/incertidumbre.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
La entropía de Shannon cuantifica el nivel promedio de incertidumbre, sorpresa o información inherente a los posibles resultados de una variable aleatoria. Proporciona la base teórica para la compresión de datos al definir el número mínimo promedio de bits necesarios para representar un mensaje.
When to use: Usa esta fórmula para determinar los límites de la compresión de datos sin pérdidas o para medir la impredecibilidad de una distribución de probabilidad discreta. Es más efectiva cuando el conjunto de resultados posibles es finito y sus probabilidades son independientes y conocidas.
Why it matters: Es la métrica fundamental de la teoría de la información, que permite la eficiencia de las comunicaciones digitales modernas, desde archivos ZIP hasta video en streaming. Al identificar la estructura estadística de los datos, permite la optimización del almacenamiento y el ancho de banda de transmisión.
Symbols
Variables
H = Entropy (Bits), p = Probability (p)
Walkthrough
Derivation
Fórmula: Entropía de Shannon
La entropía de Shannon mide la incertidumbre promedio (contenido de información) de una variable aleatoria discreta, utilizando las probabilidades de los resultados.
- X es discreta con resultados y probabilidades =P().
- Los términos con =0 contribuyen 0 (tratar 0\log 0 como 0).
Establecer la fórmula de la entropía:
Sumar la información ponderada por probabilidad (1/) a través de los resultados, dando la información esperada por símbolo.
Interpretar las unidades:
Usar logaritmos en base 2 significa que la entropía se mide en bits (dígitos binarios).
Note: La entropía máxima ocurre cuando todos los resultados son igualmente probables.
Result
Source: AQA A-Level Computer Science — Data Representation
Free formulas
Rearrangements
Solve for
Despejar H
Simplifique la fórmula de entropía de Shannon desde su forma de suma general al caso específico de entropía binaria, donde sólo hay dos resultados posibles.
Difficulty: 2/5
The static page shows the finished rearrangements. The app keeps the full worked algebra walkthrough.
Visual intuition
Graph
Graph type: parabolic
Why it behaves this way
Intuition
La entropía de Shannon cuantifica la 'dispersión' o 'aplanamiento' de una distribución de probabilidad: una distribución más uniforme (todos los resultados igualmente probables)
Signs and relationships
- -: El logaritmo log_2 p(x) es negativo para probabilidades p(x) entre 0 y 1. El signo negativo asegura que el contenido de información -log_2 p(x) sea una cantidad positiva, representando el número de bits.
Free study cues
Insight
Canonical usage
La entropía de Shannon cuantifica la información en unidades determinadas por la base del logaritmo usado, más comúnmente bits (para logaritmo en base 2).
Dimension note
La entropía de Shannon es una cantidad adimensional que representa el contenido promedio de información o incertidumbre. Las probabilidades p(x) también son adimensionales, y el logaritmo de una cantidad adimensional también lo es
One free problem
Practice Problem
Una moneda justa tiene dos resultados, cara y cruz, cada uno con una probabilidad de 0.5. Calcula la entropía de Shannon de un solo lanzamiento de moneda.
Hint: Cuando los resultados son igualmente probables (p = 0.5 para binario), la entropía está en su valor máximo.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Al medir uncertainty of a biased coin, Entropy (Shannon) se utiliza para calcular Entropy from Probability (p). El resultado importa porque ayuda a estimate likelihood and make a risk or decision statement rather than treating the number as certainty.
Study smarter
Tips
- La entropía se maximiza cuando todos los resultados son igualmente probables.
- Las unidades son en bits cuando el logaritmo es de base 2.
- La entropía es siempre cero o positiva; es cero solo cuando un resultado es seguro.
- Usa la fórmula de cambio de base: log₂(x) = ln(x) / ln(2).
Avoid these traps
Common Mistakes
- Usar logaritmo natural en lugar de log2.
- Olvidar los términos p y q.
Common questions
Frequently Asked Questions
La entropía de Shannon mide la incertidumbre promedio (contenido de información) de una variable aleatoria discreta, utilizando las probabilidades de los resultados.
Usa esta fórmula para determinar los límites de la compresión de datos sin pérdidas o para medir la impredecibilidad de una distribución de probabilidad discreta. Es más efectiva cuando el conjunto de resultados posibles es finito y sus probabilidades son independientes y conocidas.
Es la métrica fundamental de la teoría de la información, que permite la eficiencia de las comunicaciones digitales modernas, desde archivos ZIP hasta video en streaming. Al identificar la estructura estadística de los datos, permite la optimización del almacenamiento y el ancho de banda de transmisión.
Usar logaritmo natural en lugar de log2. Olvidar los términos p y q.
Al medir uncertainty of a biased coin, Entropy (Shannon) se utiliza para calcular Entropy from Probability (p). El resultado importa porque ayuda a estimate likelihood and make a risk or decision statement rather than treating the number as certainty.
La entropía se maximiza cuando todos los resultados son igualmente probables. Las unidades son en bits cuando el logaritmo es de base 2. La entropía es siempre cero o positiva; es cero solo cuando un resultado es seguro. Usa la fórmula de cambio de base: log₂(x) = ln(x) / ln(2).
References
Sources
- Shannon, C. E. (1948). A Mathematical Theory of Communication.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory.
- Wikipedia: Shannon entropy
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Claude E. Shannon, 'A Mathematical Theory of Communication', Bell System Technical Journal, 1948
- Thomas M. Cover and Joy A. Thomas, 'Elements of Information Theory', 2nd ed., Wiley-Interscience, 2006
- David J. C. MacKay, 'Information Theory, Inference, and Learning Algorithms', Cambridge University Press, 2003