Yiksan0315's Blog

Cross Entropy

# Tag:

  • Source/KU_ML
  • Source/KU_DL

Cross Entropy

Probability distribution 사이의 차이(Distance)를 측정하는 함수.

: 는 실제분포, 는 예측 분포.

와 유사할 수록 Cross Entropy값은 작아지게 된다. 즉, 불확실성이 작아지게 된다. 계산과 미분의 편의를 위해 natural log를 사용한다.

이는 라는 믿음 하에 최적의 bit수를 할당한 것이다.

Kullback-Leiber(KL) divergence

relative entropy라고도 불린다.

:실제 분포 에 비해 얼마나 bit가 낭비 되는지를 의미한다. 혹은, 사이의 유사도가 얼마나 떨어지는지를 의미한다.

Jensen's inequality에 의해, 항상 그 값이 이상이게 된다. 이는, 사이의 유사성이 최대일때 이 됨을 의미한다.

는 확률분포이니, 다 더하면 이므로 최소한 0보다 크다.

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.