[ML] Entropy, KL-Divergence, and Cross-entropy

2022. 5. 12. 15:45·Programming
728x90
728x90

2022.05.12 - [.../Math] - [Math] Entropy 란 (평균정보량, 정보량의 기댓값)

 

[Math] Entropy 란 (평균정보량, 정보량의 기댓값)

Entropy란? Random variable에서 기대되는 정보량 (or 정보량의 기댓값, 평균 정보량). 해당 random variable을 encoding하는데 필요한 평균정보량(단위 bit)의 lower bound. 정의식은 다음과 같음. $$H(X)=H(p)=-\sum_{i=0}

dsaint31.tistory.com

 

2022.05.12 - [.../Math] - [Math] Kullback-Leibler Divergence

 

[Math] Kullback-Leibler Divergence

어떤 random variable $x$ (확률변수 $x$)에 대해 원래의 Probability Distribution $p(x)$와 Predicted Probability Distribution $q(x)$ (or Approximated Probability Distribution)가 있을 때, 각 경우의 entropy에 대한 difference가 바로 KL

dsaint31.tistory.com

 

2022.05.12 - [.../Math] - [Math] Cross Entropy

 

[Math] Cross Entropy

Cross Entropy란두 probability distribution $p$, $q$ 사이의 dissimilarity(차이)를 정량화하는 지표 로 사용됨.엄밀하게는 dissimilarity는 KL-Divergence로 구해야 하나, Cross entropy로 해도 큰 문제없기 때문임.다음 참

dsaint31.tistory.com

 

 

http://colah.github.io/posts/2015-09-Visual-Information/

 

Visual Information Theory -- colah's blog

Posted on October 14, 2015 <!-- by colah --> I love the feeling of having a new way to think about the world. I especially love when there’s some vague idea that gets formalized into a concrete concept. Information theory is a prime example of this. Info

colah.github.io

 

728x90

'Programming' 카테고리의 다른 글

Paradigm (패러다임)  (0) 2022.07.21
[Python] 현재 사용 중인 Python 및 패키지의 실제 경로 확인하기.  (2) 2022.07.18
[Error: Tensorboard] ImportError: cannot import name 'Mapping' from 'collections'  (1) 2022.05.18
[Conda] miniconda의 기본 채널 변경 : conda-forge  (3) 2022.04.05
sh파일(non-interactive shell script)에서 conda 가상환경 activation!  (2) 2021.12.05
'Programming' 카테고리의 다른 글
  • [Python] 현재 사용 중인 Python 및 패키지의 실제 경로 확인하기.
  • [Error: Tensorboard] ImportError: cannot import name 'Mapping' from 'collections'
  • [Conda] miniconda의 기본 채널 변경 : conda-forge
  • sh파일(non-interactive shell script)에서 conda 가상환경 activation!
dsaint31x
dsaint31x
    반응형
    250x250
  • dsaint31x
    Dsaint31's blog
    dsaint31x
  • 전체
    오늘
    어제
    • 분류 전체보기 (787)
      • Private Life (15)
      • Programming (55)
        • DIP (116)
        • ML (35)
      • Computer (120)
        • CE (54)
        • ETC (33)
        • CUDA (3)
        • Blog, Markdown, Latex (4)
        • Linux (9)
      • ... (368)
        • Signals and Systems (115)
        • Math (176)
        • Linear Algebra (33)
        • Physics (43)
        • 인성세미나 (1)
      • 정리필요. (61)
        • 의료기기의 이해 (6)
        • PET, MRI and so on. (7)
        • PET Study 2009 (1)
        • 방사선 장해방호 (5)
        • 방사선 생물학 (3)
        • 방사선 계측 (9)
        • 기타 방사능관련 (3)
        • 고시 (9)
        • 정리 (18)
      • RI (0)
      • 원자력,방사능 관련법 (2)
  • 블로그 메뉴

    • Math
    • Programming
    • SS
    • DIP
  • 링크

    • Convex Optimization For All
  • 공지사항

    • Test
    • PET Study 2009
    • 기타 방사능관련.
  • 인기 글

  • 태그

    cv2
    ML
    Programming
    Probability
    Vector
    function
    Optimization
    linear algebra
    인허가제도
    signals_and_systems
    Term
    SS
    fourier transform
    math
    numpy
    random
    opencv
    SIGNAL
    signal_and_system
    Python
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
dsaint31x
[ML] Entropy, KL-Divergence, and Cross-entropy
상단으로

티스토리툴바