条件付きエントロピー
その他の数学 へ戻る
大学生のための数学 へ戻る
2025.10.02


確率ベン図( 単位は % ):

  
   シャノン情報量: −0.3×log20.3 −0.1×log20.1 −0.4×log20.4 − 0.2×log20.2 ≒→ 1.85


要素が集合Bに属するという情報を得た瞬間、シャノン情報量は次のように減量します。

   −0.2×log20.2 −0.8×log20.8 ≒→ 0.72

これを「 条件付きエントロピー 」と言います。


エントロピー = 平均情報量 = 期待情報量 = シャノン情報量 = シャノンエントロピー = 情報論のエントロピー

  ※ 参照: 大学生のための物理学 > 基礎物理学 > 条件付き確率とエントロピー