
1. 거리 기반 (Distance-based) Similarity
- Euclidean distance (L2) : $|x-y|_2$, 가장 일반적인 거리 척도.
- Manhattan distance (L1) : $|x-y|_1$, 절댓값 합. 희소 데이터에 강건.
- Minkowski distance : Lp 일반화. $p=1 → L1$, $p=2 → L2$.
- Mahalanobis distance : $\sqrt{(x-y)^T \Sigma^{-1} (x-y)}$, 공분산 구조를 반영 → scale-invariant.
2024.10.02 - [Programming/ML] - [ML] Minkowski Distance (L-p Norm)
[ML] Minkowski Distance (L-p Norm)
Minkowski 거리는L-p Norm의 한 형태두 개의 점 사이의 distance(거리)를 일반화한 metric.distance의 개념은 다음 접은 글을 참고:더보기https://dsaint31.me/mkdocs_site/DIP/cv2/etc/dip_metrics/#distance-function-or-metric BME228
dsaint31.tistory.com
https://dsaint31.me/mkdocs_site/DIP/cv2/etc/dip_metrics/#distance-function-or-metric
BME
Metrics for Image Quality Image restoration의 경우, image degradation의 원인을 modeling하고 해당 model을 통해 ideal image에 가깝게 복원하는 것을 의미함. 주관적인 화질을 개선하는 image enhancement와 달리, image resto
dsaint31.me
2. 내적 기반 (Inner-product based) Similarity
- Linear kernel : $K(x,y) = x^\top y$, inner product
- Cosine similarity : $\frac{x \cdot y}{|x||y|}$, 방향 유사도. NLP 벡터, 추천 시스템에서 많이 활용.
- Polynomial kernel : $K(x,y) = (x^\top y + c)^d$, 고차원 feature 매핑.
2024.10.28 - [.../Math] - [Math] Inner Product (or Hermitian Inner Product, 내적)
[Math] Inner Product (or Hermitian Inner Product, 내적)
Inner product (내적)은 vector space이나 function space에서 두 대상 간의 relationship(관계)를 나타내는 operation(연산). 다음의 세 가지 성질을 만족할 때 Inner Product라 부르며, 이를 통해두 벡터나 함수 간의si
dsaint31.tistory.com
2023.07.23 - [.../Math] - [ML] Cosine Similarity
[ML] Cosine Similarity
ML에서 주로 다루는 데이터는 바로 vector이다.(matrix도 vector들이 결합하여 이루어진 것이라고 생각할 수 있음.) Cosine Similarity는 두 vector가 얼마나 유사한지(similar)를 측정하기 위한 metric 중 하나로
dsaint31.tistory.com
2024.09.28 - [Programming/ML] - [ML] Kernel Function 이란: Kernel Trick 포함
[ML] Kernel Function 이란: Kernel Trick 포함
Kernel Function은머신러닝, 특히 SVM(Support Vector Machine) 과 같은 알고리즘에서 중요한 역할을 하는 함수로Similarity를 측정하거나데이터를 고차원 특성 공간으로 매핑하여 비선형 문제를 선형적으로
dsaint31.tistory.com
3. 지수/커널 기반 (Exponential / Kernel-based)
- RBF (Gaussian kernel) : $K(x,y) = \exp(-\gamma |x-y|^2)$
- Laplacian kernel : $K(x,y) = \exp(-\gamma |x-y|_1)$, L1 기반.
- Exponential kernel : $K(x,y) = \exp(-\gamma |x-y|_2)$, Manhattan distance를 쓰는 경우도 존재.
2024.09.26 - [Programming/ML] - [ML] Radial Basis Function Kernel (RBF Kernel)
[ML] Radial Basis Function Kernel (RBF Kernel)
RBF KernelRBF 커널 또는 Gaussian 커널이라고도 불리는 함수머신 러닝에서 Kernel Function으로 널리 사용되는 함수서포트 벡터 머신(SVM), 커널 PCA 등의 알고리즘에서 사용.similarity 계산 및 고차원 feature sp
dsaint31.tistory.com
4. 확률/정보이론 기반
- KL divergence (Kullback–Leibler divergence): $D_{KL}(P||Q) = \sum P(x)\log \frac{P(x)}{Q(x)}$
- KL divergence의 대칭성 보완: Jensen-Shannon divergence.
- Bhattacharyya distance / Hellinger distance : 분포 간 겹침 정도.
- Mutual information : 확률변수 간 공유 정보량 (X를 알면 Y의 불확실성이 얼마나 줄어드는지 정량화). $I(X;Y) = \sum_{x,y} p(x,y) \log \frac{p(x,y)}{p(x)p(y)}$
2022.05.12 - [.../Math] - [Math] Kullback-Leibler Divergence
[Math] Kullback-Leibler Divergence
어떤 random variable $x$ (확률변수 $x$)에 대해 원래의 Probability Distribution $p(x)$와 Predicted Probability Distribution $q(x)$ (or Approximated Probability Distribution)가 있을 때, 각 경우의 entropy에 대한 difference가 바로 KL
dsaint31.tistory.com
5. 집합 기반 (Set-based Similarity)
- Jaccard similarity : $\frac{|A \cap B|}{|A \cup B|}$, set/binary feature vector similarity. IoU(Intersecton over Union)이라고도 불림.
- 통계학/정보 검색(IR)·집합론 등에선 Jaccard similarity로 불리나,
- CV등에선 IoU가 보다 많이 사용됨.
- Dice coefficient : $\frac{2|A \cap B|}{|A|+|B|}$, 특히 이미지 마스크 유사도에서 자주 사용.
- Dice coefficient에 기반한 Dice loss의 경우 cross entropy에 비교할 때, foreground에 대한 고려만 이루어진다는 약점이 있음.
- binary segementation 등으로 한정할 경우 f2 score에 해당: 일종의 harmonic mean임.
2025.09.25 - [Programming/ML] - Dice Coefficient and IoU
Dice Coefficient and IoU
Dice coefficient (or dice score)와 IoU는 대표적인 Set based Similarity 임.Dice CoefficientSegmentation의 결과를 측정하는데 사용되는 metric. (harmonic mean에 해당: binary segmentation의 경우, 사실상, F1 score임.) $$ \begin{alig
dsaint31.tistory.com
6. 기타 특수한 경우
- Histogram intersection kernel : $\sum_i \min(x_i, y_i)$, 영상 처리에서 많이 활용.
- $K(x, y) = \sum_{i=1}^d \min(x_i, y_i)$ 으로 클수록 두 분포가 비슷함.
- normalization 을 시킬 경우, $\sum_{i}x_i$로 하는 버전과 $\sum_i \max(x_i, y_i)$로 하는 버전이 존재.
- 후자의 경우는 Jaccard similarity와 비슷함.
- 직관적으로 두 히스토그램의 겹치는 면적임 (Positive semi-definite kernel 임이 증명되어 SVM 의 kernel로도 사용됨)
- Earth Mover’s Distance (Wasserstein distance) : 분포 간 “질량 이동 비용” → GAN, OT (Optimal Transport) 분야.
- Dynamic Time Warping (DTW) : 시계열 데이터 유사도.
'Programming > ML' 카테고리의 다른 글
| Bias-Variance Tradeoff (0) | 2025.10.30 |
|---|---|
| Dice Coefficient and IoU (0) | 2025.09.25 |
| [ML] Tensor: Scalar, Vector, Matrix. (0) | 2025.02.03 |
| [ML] Nearest Neighbor Search: k-d Tree (0) | 2024.11.25 |
| [ML] Feature Importances for Decision Tree (1) | 2024.11.10 |