[Etc] A Mathematical Theory of Communication - Claude Shannon

2025. 3. 8. 19:46·Computer
728x90
728x90

https://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf

 

A Mathematical Theory of Communication 은 Claude Shannon이 1948년에 발표한 유명한 논문의 제목임.

이 논문은 Bell System Technical Journal에 두 부분으로 나뉘어 출판되었음.

  • Part I : 1948.7 - Volume 27, Issue3, pp. 379-423
  • Part II: 1948.10 - Volume 27, Issue4, pp. 623-656

Entropy: Noiseless Coding Theorem

Shannon은 이 논문 내에서 Noiseless Coding Theorem(무잡음 부호화 정리)를 증명함.

  • 이 Theorem은  Source Coding Theorem이라고도 불리며, 정보 이론의 가장 기본적인 정리 중 하나임.
  • 이 정리는 확률 변수의 Entroy가 그 변수를 표현하는 데 필요한 평균 비트 수의 이론적 하한임을 보여줌.

2022.05.12 - [.../Math] - [Math] Entropy 란 (평균정보량, 정보량의 기댓값

 

[Math] Entropy 란 (평균정보량, 정보량의 기댓값)

Entropy란?Random variable에서 기대되는 정보량 (or 정보량의 기댓값, 평균 정보량).해당 random variable을 encoding하는데 필요한 평균정보량(단위 bit)의 lower bound. 정의식은 다음과 같음.$$H(X)=H(p)=-\sum_{i=0}^n

dsaint31.tistory.com


Sampling Theorem

또한 Sampling Theorem 에 대한 내용도 이 논문에서 다루어짐. 

  • 이 논문의 주요 초점은 아니었지만
  • Sampling Theorem은 Nyquist의 1928년 "Certain Topics in Telegraph Transmission Theory"에서 시작되었고
  • Shannon의 이 논문에 의해 정보이론의 주요 정리로 언급되었으며,
  • 1949년  "Communication in the Presence of Noise" 논문을 통해 완전한 형태로 Shannon에 의해 제시됨.

2024.10.21 - [.../Signals and Systems] - [SS] Shannon-Nyquist Sampling Theorem

 

[SS] Shannon-Nyquist Sampling Theorem

신호의 최대 주파수보다 최소 2배 이상의 샘플링 주파수로 샘플링하면 원래 신호를 완벽하게 복원할 수 있다는 Theorem $$f_\text{sampling} \ge 2f_\text{max}$$where$f_\text{sampling}$ : sampling frequency. sampling rate

dsaint31.tistory.com


References

https://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf

entropy.pdf
0.35MB

'Computer' 카테고리의 다른 글

[DL] Keras를 위한 Scikit-Learn Wrapper : Scikeras  (1) 2023.11.13
[ML] No Free Lunch Theorems  (0) 2023.09.06
[ML] Time Series 란?  (0) 2023.09.01
[Keras] 현재의 Learning Rate를 확인하는 Custom Callback  (0) 2023.08.30
[DL] Hyperbolic Tangent Function (tanh)  (0) 2023.08.13
'Computer' 카테고리의 다른 글
  • [DL] Keras를 위한 Scikit-Learn Wrapper : Scikeras
  • [ML] No Free Lunch Theorems
  • [ML] Time Series 란?
  • [Keras] 현재의 Learning Rate를 확인하는 Custom Callback
dsaint31x
dsaint31x
    반응형
    250x250
  • dsaint31x
    Dsaint31's blog
    dsaint31x
  • 전체
    오늘
    어제
    • 분류 전체보기 (775)
      • Private Life (13)
      • Programming (201)
        • DIP (116)
        • ML (29)
      • Computer (17)
        • CE (53)
        • ETC (33)
        • CUDA (3)
        • Blog, Markdown, Latex (4)
        • Linux (9)
      • ... (366)
        • Signals and Systems (113)
        • Math (176)
        • Linear Algebra (33)
        • Physics (43)
        • 인성세미나 (1)
      • 정리필요. (59)
        • 의료기기의 이해 (6)
        • PET, MRI and so on. (5)
        • PET Study 2009 (1)
        • 방사선 장해방호 (5)
        • 방사선 생물학 (3)
        • 방사선 계측 (9)
        • 기타 방사능관련 (3)
        • 고시 (9)
        • 정리 (18)
      • RI (0)
      • 원자력,방사능 관련법 (2)
  • 블로그 메뉴

    • Math
    • Programming
    • SS
    • DIP
  • 링크

    • Convex Optimization For All
  • 공지사항

    • Test
    • PET Study 2009
    • 기타 방사능관련.
  • 인기 글

  • 태그

    DIP
    Programming
    Vector
    SIGNAL
    Term
    signals_and_systems
    random
    Python
    signal_and_system
    fourier transform
    function
    opencv
    Optimization
    Probability
    cv2
    math
    인허가제도
    numpy
    SS
    linear algebra
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
dsaint31x
[Etc] A Mathematical Theory of Communication - Claude Shannon
상단으로

티스토리툴바