Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 영상처리
- matlab
- bernoulli distribution
- OpenMMlab
- CoCo
- probability
- entropy
- similarity
- gstreamer
- Map
- MSAC
- schur complement
- DataLorder
- rotated RetinaNet
- dataset
- MMrotate
- binomial distribution
- pytorch
- AERIAL IMAGE
- detection
- woodbury matrix identity
- kakao map
- vision
- Poisson Distribution
- RANSAC
- measure
- LDU decomposition
Archives
- Today
- Total
목록entropy (1)
끊임없이 부단히
[수학] 두 확률(가우시안)간 거리 척도(distance metrix)
이번 포스팅에서는 자주 사용되는 확률 분포간 거리 척도(distance metric)들을 간략하게 정리하고자 합니다. 특히 확률 분포가 가우시안일 때 수식들을 정리하고자 합니다. 척도는 Kullback-Leibler divergence, Hellinger 입니다! 엔트로피(Entropy) 정보이론에서 사용되는 엔트로피는 어떤 확률 분포가 가지는 불확실성의 양을 의미합니다. 엔트로피는 아래와 같이 정의됩니다. $$ H(X) = -\sum_x p(x)logp(x) = \mathbb{E}[-logp(X)]$$ Kullback-Leibler divergence KLD도 두 확률분포간 유사도(similarity)를 측정하는데 자주 사용되는 척도 입니다. $$ D_{KL}(P||Q) = \sum_x p(x)log\..
이론
2023. 2. 24. 03:10