본문 바로가기

Information theory

Relative entropy, KL divergence

Relative entropy, KL-divergence

Entropy가 랜덤변수의 불확실성 정도를 나타내고, Relative entropy 또는 Kullback-Leibler (KL) divergence두 분포(distributions)의 거리를 측정하는데 쓰인다

같은 alphabet에 대해 두 분포 p,q가 있다고 했을 때, 아래와 같이 정의한다.

KL-divergence

교환법칙은 성립하지 않으며($D\left(p\|q\right)\not= D\left(q\|p\right)$), 통계학에서는 distribution q의 실제 distribution이 t일 때, $D(p||q)$가 비효율성(inefficiency)의 측정으로 쓰이기도 한다.

 

Conditional relative entropy

Conditional relative entropy($D\left(p\left(y|x\right)\|q\left(y|x\right)\right)$)는 $p\left(x\right)$에 대한 $p\left(y|x\right)$와 $q\left(y|x\right)$ relative entropy의 기대값이다.

Conditional relative entropy

Chain rule도 성립한다.

$D\left(p\left(y|x\right)\|q\left(y|x\right)\right)=D\left(p\left(x\right)\|q\left(x\right)\right)+D\left(p\left(y|x\right)\|q\left(y|x\right)\right)$

증명)

Conditional relative entropy chain rule proof

Mutual information

$\left(X,Y\right)$ ~ $p_{X,Y} \left(X,Y\right)$이고 $X$ ~ $p_X \left(X\right)\;$, 그리고 $Y$ ~ $p_Y \left(Y\right)$일 때 X와 Y의 mutual information은 X,Y의 relative entropy이다.

Mutual information은 하나의 random variable이 다른 random variable을 포함하는 정보의 평균적인 양을 나타낸다.

Mutual information