Gegenseitige Information (2×2)
Mutual Information zwischen zwei binären Variablen aus gemeinsamen Wahrscheinlichkeiten.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
Mutual Information quantifiziert die statistische Abhängigkeit zwischen zwei diskreten Zufallsvariablen, indem sie misst, wie viel Information zwischen ihnen geteilt wird. Im 2×2-Kontingenzfall berechnet sie die Kullback-Leibler-Divergenz zwischen der gemeinsamen Wahrscheinlichkeitsverteilung und dem Produkt der Randverteilungen zweier binärer Variablen.
When to use: Wende diese Formel an, wenn du die Beziehung zwischen zwei binären Variablen analysierst, etwa beim Vergleich eines Testergebnisses mit dem Vorliegen einer Krankheit. Sie wird linearer Korrelation vorgezogen, wenn du nichtlineare Abhängigkeiten oder allgemeine statistische Zusammenhänge erfassen möchtest.
Why it matters: Sie ist ein grundlegendes Konzept in der Kommunikationstheorie zur Berechnung der Kanal-Kapazität und im maschinellen Lernen für Merkmalsselektion. Hohe Mutual Information zeigt an, dass das Wissen über den Zustand einer Variablen die Unsicherheit über die andere deutlich reduziert.
Symbols
Variables
I(X;Y) = Mutual Information, = P(X=0,Y=0), = P(X=0,Y=1), = P(X=1,Y=0), = P(X=1,Y=1)
Walkthrough
Derivation
Herleitung der Transinformation (Mutual Information) aus einer 2×2 Kontingenztabelle
Die Transinformation summiert p(x,y) ln(p(x,y)/(p(x)p(y))) über alle Paare.
- X und Y sind binär.
- Gemeinsame Wahrscheinlichkeiten p00, p01, p10, p11 ergeben in der Summe 1.
Beginnen Sie mit der Definition:
Die Transinformation quantifiziert die Abhängigkeit zwischen X und Y.
Berechnung der Marginalwahrscheinlichkeiten aus der 2×2 Tabelle:
Man benötigt p(x) und p(y), um das Verhältnis p(x,y)/(p(x)p(y)) zu bilden.
Summieren der vier Terme (p00, p01, p10, p11):
Jede gemeinsame Wahrscheinlichkeit ungleich Null trägt einen Term bei. Per Konvention gilt 0·ln(0)=0.
Result
Why it behaves this way
Intuition
Stellen Sie sich eine statistische Landschaft vor, in der die „Höhe“ an jedem (x,y)-Punkt die Abweichung von der Unabhängigkeit darstellt. Die gegenseitige Information ist das Gesamtvolumen dieser Abweichungen, gewichtet danach, wie häufig jede Kombination auftritt.
Signs and relationships
- \ln\frac{p(x,y)}{p(x)p(y)}: Der natürliche Logarithmus wandelt das Verhältnis der Wahrscheinlichkeiten in ein additives Informationsmaß um. Wenn die beobachtete gemeinsame Wahrscheinlichkeit p(x,y) größer als p(x)p(y) ist, ist der Log-Term positiv; ist er kleiner, ist der Term negativ.
Free study cues
Insight
Canonical usage
Gegenseitige Information ist eine dimensionslose Größe, die ein Maß für statistische Abhängigkeit darstellt. Sie wird konventionell in „Nats" angegeben, wenn der natürliche Logarithmus (ln) verwendet wird, oder in „Bits" bei Logarithmus zur Basis 2 (log2).
Dimension note
Gegenseitige Information ist von Natur aus dimensionslos, da sie aus Verhältnissen von Wahrscheinlichkeiten berechnet wird, die selbst dimensionslos sind.
One free problem
Practice Problem
Ein Forscher untersucht den Zusammenhang zwischen einer bestimmten Genmutation und einem seltenen Merkmal. In einer perfekt ausgeglichenen Population sind die gemeinsamen Wahrscheinlichkeiten alle gleich groß (jeweils 0.25). Berechne die Mutual Information.
Hint: Wenn die gemeinsame Wahrscheinlichkeit jeder Zelle gleich dem Produkt ihrer Randwahrscheinlichkeiten ist, sind die Variablen unabhängig.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Im Kontext von Quantifizieren, wie informativ ein medizinisches Testergebnis über den Krankheitsstatus ist wird Mutual Information (2×2) verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, Modellverhalten, Algorithmuskosten oder Vorhersagequalität vor der Nutzung des Ergebnisses zu bewerten.
Study smarter
Tips
- Stelle sicher, dass die Summe der gemeinsamen Wahrscheinlichkeiten (p00, p01, p10, p11) vor dem Start genau 1.0 ergibt.
- Berechne die Randwahrscheinlichkeiten für X und Y durch Summieren der Zeilen und Spalten der Kontingenztafel.
- Behandle Terme, bei denen p(x,y) gleich null ist, als null, da der Grenzwert von p log(p) für p gegen null ebenfalls null ist.
- Das Ergebnis wird in Nats gemessen, wenn der natürliche Logarithmus (ln) verwendet wird, oder in Bits bei Logarithmus zur Basis 2.
Avoid these traps
Common Mistakes
- Vergessen, Wahrscheinlichkeiten auf eine Summe von 1 zu normalisieren.
- Logarithmen (ln vs log2) und Einheiten (Nats vs Bits) mischen.
Common questions
Frequently Asked Questions
Die Transinformation summiert p(x,y) ln(p(x,y)/(p(x)p(y))) über alle Paare.
Wende diese Formel an, wenn du die Beziehung zwischen zwei binären Variablen analysierst, etwa beim Vergleich eines Testergebnisses mit dem Vorliegen einer Krankheit. Sie wird linearer Korrelation vorgezogen, wenn du nichtlineare Abhängigkeiten oder allgemeine statistische Zusammenhänge erfassen möchtest.
Sie ist ein grundlegendes Konzept in der Kommunikationstheorie zur Berechnung der Kanal-Kapazität und im maschinellen Lernen für Merkmalsselektion. Hohe Mutual Information zeigt an, dass das Wissen über den Zustand einer Variablen die Unsicherheit über die andere deutlich reduziert.
Vergessen, Wahrscheinlichkeiten auf eine Summe von 1 zu normalisieren. Logarithmen (ln vs log2) und Einheiten (Nats vs Bits) mischen.
Im Kontext von Quantifizieren, wie informativ ein medizinisches Testergebnis über den Krankheitsstatus ist wird Mutual Information (2×2) verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, Modellverhalten, Algorithmuskosten oder Vorhersagequalität vor der Nutzung des Ergebnisses zu bewerten.
Stelle sicher, dass die Summe der gemeinsamen Wahrscheinlichkeiten (p00, p01, p10, p11) vor dem Start genau 1.0 ergibt. Berechne die Randwahrscheinlichkeiten für X und Y durch Summieren der Zeilen und Spalten der Kontingenztafel. Behandle Terme, bei denen p(x,y) gleich null ist, als null, da der Grenzwert von p log(p) für p gegen null ebenfalls null ist. Das Ergebnis wird in Nats gemessen, wenn der natürliche Logarithmus (ln) verwendet wird, oder in Bits bei Logarithmus zur Basis 2.
References
Sources
- Cover, Thomas M., and Joy A. Thomas. Elements of Information Theory. 2nd ed. Wiley-Interscience, 2006.
- Wikipedia: Mutual Information
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley-Interscience.
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.