確率ベン図( 単位は % ):

シャノン情報量: −0.3×log20.3 −0.1×log20.1 −0.4×log20.4 − 0.2×log20.2 ≒→ 1.85
要素が集合Bに属するという情報を得た瞬間、シャノン情報量は次のように減量します。
−0.2×log20.2 −0.8×log20.8 ≒→ 0.72
これを「 条件付きエントロピー 」と言います。
エントロピー = 平均情報量 = 期待情報量 = シャノン情報量 = シャノンエントロピー = 情報論のエントロピー
※ 参照: 大学生のための物理学 > 基礎物理学 > 条件付き確率とエントロピー
その他の数学 へ戻る