Processing math: 100%
본문 바로가기

Information theory

Relative entropy, KL divergence

Relative entropy, KL-divergence

Entropy가 랜덤변수의 불확실성 정도를 나타내고, Relative entropy 또는 Kullback-Leibler (KL) divergence두 분포(distributions)의 거리를 측정하는데 쓰인다

같은 alphabet에 대해 두 분포 p,q가 있다고 했을 때, 아래와 같이 정의한다.

KL-divergence

교환법칙은 성립하지 않으며(D(pq)D(qp)), 통계학에서는 distribution q의 실제 distribution이 t일 때, D(p||q)가 비효율성(inefficiency)의 측정으로 쓰이기도 한다.

 

Conditional relative entropy

Conditional relative entropy(D(p(y|x)q(y|x)))는 p(x)에 대한 p(y|x)q(y|x) relative entropy의 기대값이다.

Conditional relative entropy

Chain rule도 성립한다.

D(p(y|x)q(y|x))=D(p(x)q(x))+D(p(y|x)q(y|x))

증명)

Conditional relative entropy chain rule proof

Mutual information

(X,Y) ~ pX,Y(X,Y)이고 X ~ pX(X), 그리고 Y ~ pY(Y)일 때 X와 Y의 mutual information은 X,Y의 relative entropy이다.

Mutual information은 하나의 random variable이 다른 random variable을 포함하는 정보의 평균적인 양을 나타낸다.

Mutual information