Data & Computing情報理論University
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS
相互情報量(2×2) Calculator
同時確率から得られる2つの二値変数間の相互情報量。
Use the free calculatorCheck the variablesOpen the advanced solver
Formula first
Overview
相互情報量は、2つの離散確率変数間で共有される情報の量を測定することにより、それらの統計的依存性を定量化します。2×2分割表の場合、結合確率分布と2つの二値変数の周辺分布の積の間のカルバック・ライブラーダイバージェンスを計算します。
Symbols
Variables
I(X;Y) = Mutual Information, = P(X=0,Y=0), = P(X=0,Y=1), = P(X=1,Y=0), = P(X=1,Y=1)
Apply it well
When To Use
When to use: テスト結果と疾患の有無を比較するなど、二値変数間の関係を分析する場合にこの式を適用します。非線形依存関係や一般的な統計的関連性を捉える必要がある場合、線形相関よりも好まれます。
Why it matters: これは、通信理論におけるチャネル容量の計算や、機械学習における特徴選択の基礎となる概念です。高い相互情報量は、一方の変数の状態を知ることで、他方の変数に関する不確実性が大幅に減少することを示します。
Avoid these traps
Common Mistakes
- 確率の合計が 1 になるよう正規化し忘れること。
- 対数(ln と log2)と単位(nats と bits)を混在させること。
One free problem
Practice Problem
研究者が特定の遺伝子変異と稀な形質との関連を研究しています。完全にバランスの取れた集団では、同時確率はすべて等しく(各0.25)です。相互情報量を計算してください。
Hint: すべてのセルの同時確率がその周辺確率の積に等しい場合、変数は独立です。
The full worked solution stays in the interactive walkthrough.
References
Sources
- Cover, Thomas M., and Joy A. Thomas. Elements of Information Theory. 2nd ed. Wiley-Interscience, 2006.
- Wikipedia: Mutual Information
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley-Interscience.
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.