[DIP] K-Means Tree: Nearest Neighbor Search
·
Programming/DIP
https://gist.github.com/dsaint31x/f7f59e6b99f6ef3dc46e4e7da8826cd9 dip_kmeans_tree.ipynbdip_kmeans_tree.ipynb. GitHub Gist: instantly share code, notes, and snippets.gist.github.com 0. 소개K-Means Tree는대규모 데이터에서효율적으로 Nearest Neighbor Search (최근접 이웃 검색)을 수행하기 위해계층적으로 데이터를 K개의 cluster로 clustering하여일종의 Binary Tree 자료구조 를 만드는 알고리즘.k-d Tree에서 k는 검색하는 vector space의 dimensionality에 해당하며,K-Means Tree는 각 d..
[CV] Optical Flow: Lucas Kanade Method (LK method, 1981)
·
Programming/DIP
Optical Flow: Lucas Kanade Method (LK method, 1981) Lucas-Kanade Method은 특징점을 중심으로 하는 local window를 선택하여,해당 window내에서 모든 pixel이 brightness constancy contraint를 만족한다는 가정 하의 linear system model을 이용하여 sparse optical flow를 구하는 알고리즘을 가리킴.local optimization method에 기반하다는 점에서 Horn-Shunck 메서드와 대비됨.작은 local window를 사용하기 때문에 계산량이 작다는 장점을 가지나, large motion에 취약.key point에 의존하며, 일반적으로 정확도 면에서 Horn-Shunck보다 떨..
[CV] Optical Flow: Horn-Schunck Method (1981)
·
Programming/DIP
Horn-Schunck(혼 슁크) 방법은Optical Flow를 구하는 기법으로Global Optimization Method임.Optical flow는 연속된 영상프레임 사이에서Global Optimization 기반으로 물체의 이동(motion vector or velocity)을 추출하는 기법임. Original Ref. : https://www.researchgate.net/publication/222450615_Determining_Optical_Flow 더보기참고:2004년 제안된 Brox Algorithm은 Horn-Schunck Method가 조명이 변화하는 환경이나 Texture가 약한 환경에서 잘 동작하지 않는 단점을개선한 알고리즘으로 $E_\text{data}$와 $E_\text{sm..
[CV] Least-Median of Squares Estimation (LMedS)
·
Programming/DIP
Least-Median of Squares (LMedS) 추정법P. J. Rousseeuw가 제안한 강건 회귀 분석 (robust regression) 기법.LMedS는 이상치(outliers)에 대해 매우 강인한 특성을 가짐: 데이터 내 Outlier(이상치)의 비율이 매우 높을 때도 안정적인 regression 결과를 제공.LMedS의 정의LMedS는 다음과 같은 최적화 문제(Optimization Problem)로 정의됨:$$\hat{\theta} = \underset{\theta}{\text{argmin}}  [\text{median}_i^m ||\textbf{r}_i||^2]$$where:$\hat{\theta}$: 최적의 regression model parameter 추정치$\|\mathbf..
[ML] Feature Importances for Decision Tree
·
Programming/ML
이 문서는 Feature Importance를  Decision Tree에서 Gini Impurity Measure를 이용하여 계산하는 예제를 보여줌.Tree 예시 (depth = 3) [Root] (X1) [5:5] / \ Node1 Node2 (X2) (X3) [4:1] [1:4] / \ / \Leaf1 Leaf2 Leaf3 Leaf4[3:0] [1:1] [0:2] [1:2]Root 노드는 X1을 사용해 데이터를 분할.Node1은 X2를 사용해 데이터를 다시 분할.Node2는 X3을 사용해 데이터를 다시 분할.단계 1: Gini impurity measure ..
[DIP] Karhunen–Loève Transform (KLT)
·
Programming/DIP
Karhunen–Loève 변환(Karhunen–Loève Transform, KLT)은 데이터를 주요 성분으로 표현하여 효율적으로 압축하는 차원 축소 기법임.KLT는 데이터의 고유벡터(eigenvector)들의 선형 결합(linear combination)으로 데이터를 표현하는 방식으로 최적의 압축 성능을 제공함.Hotelling 변환(Hotelling Transform)이라고도 불리며, KLT의 기저(basis)는 변환 대상인 데이터에 따라 달라지는 특성을 가짐.KLT는데이터의 공분산 행렬(covariance matrix)에 대한 고유값 분해(eigenvalue decomposition, EVD)를 통해 수행되며,주요 정보는 고유값(eigenvalue)이 큰 방향의 성분에 압축됨.이 때문에 KLT는데..