エントロピーレート(確率過程におけるエントロピーの増加の割合)

情報理論エントロピーといえば確率変数が持つ情報量の期待値のこと。例えば

P(x1) = 1/2,  P(x2) = 1/4,  P(x3) = 1/4

という分布があったらエントロピー

1/2 * lg2 + 1/4 * lg4 + 1/4 * lg4
= 1/2 * 1 + 1/4 * 2 + 1/4 * 2
= 3/2
= 1.5

なので平均1.5ビットでこの分布から生成されたデータを表現できる。
では確率変数の列を表現するには平均何ビット必要だろうか。言い換えると確率変数の列にデータを追加するには平均何ビット必要だろうか。これはエントロピーレートという概念で説明できる。
実はエントロピーレートをよくわかっていなかったのだけど、最近になって理解したのでメモしておく。

続きを読む